Refine
Year of publication
Document Type
- Article (30522)
- Part of Periodical (11892)
- Book (8260)
- Doctoral Thesis (5706)
- Part of a Book (3710)
- Working Paper (3386)
- Review (2878)
- Contribution to a Periodical (2338)
- Preprint (2055)
- Report (1544)
Language
- German (42393)
- English (29191)
- French (1067)
- Portuguese (723)
- Multiple languages (309)
- Croatian (302)
- Spanish (301)
- Italian (194)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (75127) (remove)
Keywords
- Deutsch (1038)
- Literatur (807)
- taxonomy (760)
- Deutschland (543)
- Rezension (491)
- new species (449)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Linguistik (268)
Institute
- Medizin (7687)
- Präsidium (5156)
- Physik (4426)
- Wirtschaftswissenschaften (2697)
- Extern (2661)
- Gesellschaftswissenschaften (2372)
- Biowissenschaften (2180)
- Biochemie und Chemie (1973)
- Frankfurt Institute for Advanced Studies (FIAS) (1672)
- Center for Financial Studies (CFS) (1630)
Durch Arthropoden übertragene Erreger von Infektionen des Menschen in Mitteleuropa – ein Update
(2008)
Mitteleuropa beherbergt eine nicht geringe Zahl von Krankheitserregern (mindestens 14 Viren, ca. 10 bakterielle Erreger und mindestens 4 Protozoen), die durch Stechmücken, Zecken oder Sandmücken übertragen werden. In allen Fällen handelt es sich um Erreger von Zoonosen, also Mikroorganismen, deren natürliches Reservoir Wildtiere (allenfalls, sekundär, auch Haustiere) darstellen. Eine Ausrottung dieser Erreger ist daher ausgeschlossen. (Die Ausrottung der Malaria in Mitteleuropa und darüber hinaus in Europa war vor allem deshalb möglich, weil die involvierten Plasmodien-Spezies außer dem Menschen keine anderen Vertebraten infizieren können.)Die Erfassung der durch Arthropoden übertragenen Erreger und deren Verbreitungsareale schreitet – vor allem durch den Einsatz molekularbiologischer Methoden – zügig voran. Einige neue oder zumindest für Mitteleuropa neue, humanmedizinisch relevante Mikroorganismen sind in letzten Jahren nachgewiesen worden, mit weiteren Entdeckungen ist durchaus zu rechnen. Möglicherweise wird auch der Klimawandel, insbesondere bei einem Fortschreiten einer globalen Erwärmung, zur Etablierung von neuen Erregern ebenso wie zur Ausweitung der Verbreitungsareale von Vektoren führen. Vor allem wird aber der Faktor der Globalisierung durch mögliche Einschleppungen zunehmend an Bedeutung gewinnen. Es gibt bisher nur gegen einen einzigen Erreger – gegen das Virus der Frühsommer-Meningoenzephalitis – einen Impfstoff, der sich überdies durch hervorragende Wirksamkeit und außerordentlich gute Verträglichkeit auszeichnet. Mit neuen Impfstoffen gegen andere Erreger ist allerdings in der nahen Zukunft nicht zu rechnen. Immerhin sind aber die durch Bakterien ebenso wie die durch Protozoen hervorgerufenen Erkrankungen einer antibiotischen Therapie zugänglich, wenn sie rechtzeitig diagnostiziert werden. Hingegen stehen uns keine Medikamente gegen die durch Arthropoden übertragenen Viren zur Verfügung. Prophylaktische Maßnahmen werden daher weiterhin bedeutsam sein; das gilt vor allem für Kleinkinder, für alte Menschen und Immunsupprimierte.
Traditionell wurden und werden im Deutschen Entomologischen Institut (DEI) bzw. in Kooperationsprojekten unter Mitwirkung der Wissenschaftler des DEI zahlreiche Informationen mit entomologischem Bezug gesammelt und herausgegeben, z. B. Bibliographien der entomologischen Weltliteratur ((Index I) Horn & Schenkling 1928-1929; Derksen & Scheiding 1963-1975; Gaedike & Smetana 1978, 1984), Verbleib entomologischer Sammlungen (Horn, Kahle & al. 1935, 1990), Typenkataloge sowie aktuell die Zeitschriften „Beiträge zur Entomologie“ und „Nova Supplementa Entomologica“. Bereits digital verfügbar sind weiterhin die „Biographien der Entomologen der Welt“ (Groll 2006), „ECatSym: Elektronischer Katalog der Symphyta der Welt“ (Taeger & Blank 2006) und eine Bildersammlung (Groll & Schubert 2006). Den Forderungen der Informationsgesellschaft gehorchend werden sowohl Daten als auch Metadaten verstärkt in institutseigenen Archiven frei zugänglich digital bereitgestellt und in Verbünden vernetzt.
Aphids annually infest winter wheat, Triticum aestivum L., in late spring and early summer in Central Europe, but densities leading to strong yield losses are reached only occasionally (Basedow et al., 1994). Three aphid species, Sitobion avenae Fabr., Metopolophium dirhodum Walk. and R. padi L., usually occur in cereal crops with increasing densities from late spring onwards (Basedow et al., 1994). Modelling population levels of cereal aphids is a key tool in integrated pest management for winter wheat. Over the last 30 years, considerable efforts have been made to investigate the population dynamics of aphids (DeWit and Rabbinge, 1979; Entwistle and Dixon, 1987). In Central Europe to date, two models have attained greater importance in late spring: LAUS (Friesland, 1986) and GETLAUS01 (Gosselke et al., 2001). The first one estimates the population level of S. avenae in spring in winter wheat fields and has obtained regional significance in practical plant protection. In contrast, the model GETLAUS01 is a scientific model, not designed for practical plant protection. It describes in great detail the population dynamics of S. avenae, R. padi and M. dirhodum. Both models have been improved over time and extended with several factors, e.g. by including the effects of antagonists, fertilisation, crop density, plant protection agents and meteorological parameters on population development. The objective of this study was to analyse the following three factors in terms of their impact on population and migration characteristics: cultivar, proximity between winter and summer hosts and migration (according to meteorological parameters).
Ausgangspunkt für den Enthusiasmus von Seiten der Pflanzenschützer und Mediziner für Niem war eine Zufallsbeobachtung von H. Schmutterer, der während seines Aufenthalts im Sudan zwischen 1959 und 1961 einen Heuschreckeneinfall von Schistocerca gregaria erlebte. In dessen Folge war, wie seit biblischen Zeiten (2. Mose, Kapitel 10, Verse 1-20) wohl bekannt, meilenweit kein Grün mehr verblieben, mit Ausnahme einiger Niembäume, an denen die gefräßigen Heuschrecken vorübergezogen waren. Schmutterer ging dieser Beobachtung nach und fand, dass der Baum ein fraßabschreckendes Prinzip enthalten muss, das die Heuschrecken auf Distanz hält. Tatsächlich konnten Butterworth & Morgan 1972 einen niemeigenen Stoff dieser Wirkung dingfest machen. Wir wissen heute als Resultat eines Zusammenwirkens einer Reihe von Forschergruppen in Europa, USA, Indien, China und Japan von der Existenz des Azadirachtins, des kompliziert gebauten Hauptwirkstoffs, dessen chemische Struktur vor 22 Jahren von mehreren Gruppen unabhängig und zweifelsfrei identifiziert wurde. Azadirachtin hat sich in der Folgezeit hartnäckig der Totalsynthese widersetzt (Ley & al. 1993). Lediglich sterile Suspensionskulturen von Azadirachta indica lieferten Azadirachtin und seine Kongeneren sowie die verwandten Limonoide Salannin und Nimbin biosynthetisch, freilich in sehr schlechten Ausbeuten und unter hohen Kosten (Morgan & Allen 2002). Erst kürzlich wurde die erste gelungene Totalsynthese von Veitch & al. (2007) bekannt, die wegen der Komplexität der Struktur eine echte Herausforderung an die Kunst der beteiligten Chemiker darstellte. Angesichts des hohen Preises der synthetischen Wirkstoffe wird der Anwender von Niemprodukten auch künftig nach günstigen natürlichen Quellen des Rohmaterials Ausschau halten, wofür hauptsächlich Samen, aber auch Blätter in Frage kommen. Der Niembaum gedeiht in allen subtropischen und tropischen Ländern der Erde. Eine frosttolerante Variante mit Anwendungspotenzial in gemäßigten Breiten ist aus den Gebirgstälern des Himalaya bekannt. Im Folgenden seien einige jüngere Entwicklungen der Niemforschung und -anwendung skizziert. Der Problematik des organischen Landbaus wird dabei ein eigener kurzer Abschnitt eingeräumt.
Elemente der Bodenmesofauna gehören gerade in pfluglosen Anbausystemen zu den bedeutendsten Primärzersetzern von Ernterückständen. Für den Rotteprozess, der nicht nur für die Pflanzengesundheit von größter Bedeutung ist, spielen sie damit eine entscheidende Rolle. Während Effekte der Bodenbearbeitung auf die mikrobielle Biomasse in den letzten Jahrzehnten Gegenstand zahlreicher Feldstudien waren, sind entsprechende Erhebungen zur Bodenmesofauna vergleichsweise rar und darüber hin in ihren Aussagen teilweise widersprüchlich. Positive Effekte auf Streuabbau durch reduzierte Intensität der Bodenbearbeitung konnten Heiber & Eisenbeis (1999) nachweisen. Vorliegende Untersuchungen sollten klären, welche Auswirkungen die Bodenbearbeitung auf die vielfältigen Zönosen der Bodenmesofauna eines intensiv ackerbaulich genutzten Lößstandortes hat.
Die herkömmliche Methode der Untersuchung anatomischer Verhältnisse bei Insekten ist die manuelle Präparation und das Erstellen von Schnittserien eines eingebetteten Objektes in zwei, besser drei orthogonalen Raumrichtungen (frontal, axial und sagittal). Diese Schnitte werden dann spezifisch angefärbt und über Zeichnungen und / oder Fotographien ausgewertet. Mit speziellen zeichnerischen Verfahren oder mittels Graphikprogrammen können daraus 3D-Objekte „rekonstruiert“ werden. Eine neue vielversprechende Methode in der Insektenmorphologie ist die (phasenverstärkte) Synchrotron Mikro-Röntgentomographie. Ähnlich wie etwa bei den von Hörnschemeyer et al. (2002) genutzten Desktopgeräten wird hier mit relativ geringem Zeitaufwand der Vergleich kompletter „virtueller“ Schnittserien auch einer größeren Anzahl von Taxa, wie sie zum Beispiel für vergleichend-morphologische evolutionsbiologische Studien erforderlich sind, ermöglicht. Man erhält mittels der Tomographie-Datensätze die Möglichkeit, beliebige Schnittrichtungen am Computer zu bearbeiten und auszuwerten. Die Methode arbeitet zerstörungsfrei und ist somit auch für Museumsleihgaben oder seltene Einzelfunde geeignet.
Both, G. mellonella and S. exigua, are most important pests in tropical countries. G. mellonella has five to six generations per year (Abid et al. 1997; Ali 1996), there, and feeding in bee combs they find, besides wax, residues of honey, insect skin and pollen (Hachiro & Knox 2000). Li et al. (1987) have shown the efficacy of Bacillus thuringiensis aizawai against G. mellonella. It is registered in the EU as Mellonex for its control, but NeemAzal T/S may also be active, and will have some advantages (Leymann et al. 2000, Melathopoulos et al. 2000). Therefore we conducted new studies here, on the results we shall report. S. exigua is an important polyphagous pest of crops in tropical areas (Brown & Dewhurst 1975). By repeated control with synthetic insecticides, especially by illiterate farmers (Armes et al. 1992; Aggarwal et al. 2006a) resistance to a lot of those insecticides has been built up, making plant protection very difficult. Therefore the need is pronounced for microbial and botanical pesticides (Nagarkatti 1982; Rao et al. 1990), which have different modes of action than synthetic insecticides. Aggarwal et al. (2006b) have started to test such ingredients, but the time of observation was too short (3 days), since the effects of Neem products occur later than those of synthetic insecticides (Basedow et al. 2002). So we conducted new, longer lasting experiments (with 5 to 30 days), on which we give a report here. The experiments were conducted during guest stays of the three co-authors (from Mymensingh, Bangladesh, from Nazreth, Ethiopia, and from Khartoum, Sudan) at the Experimental Station of the Institute of Phytopathology and Applied Zoology at Giessen Univerity.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Cerviden in Java. Zunächst wird ein Rezentmodell erstellt, das den Zusammenhang zwischen Körpermasse und dem jeweiligen Messparameter aufzeigt. Die daraus resultierenden Regressionsgleichungen werden für die Rekonstruktion verwendet. Das fossile dentale und postcraniale Material wird vermessen und die Körpermasse für jedes einzelne Stück rekonstruiert. Die absoluten Werte werden in Körpermassenklassen eingeteilt, um einen Wert unabhängig vom physiologischen Zustand zu erhalten. Die Körpermassen werden, soweit möglich, getrennt nach Gattungen rekonstruiert. Ein Vergleich zeigt, dass es deutliche Unterschiede in der Körpermasse der Gattungen Axis und Muntiacus im Vergleich zu Cervus gibt. Bei der Einteilung in Klassen fällt auf, dass die Klassen 3a (10 kg bis 20 kg) und 3b (20 kg bis 50 kg) ausschließlich von Axis und zu einem kleinen Teil von Muntiacus besetzt werden. Die Klassen 4a und 4b ausschließlich von Cervus. Die einzige von Axis und Cervus besetzte Klasse ist 3c (50 kg bis 100 kg). Anhand dieser aus den Fossilien der Dubois Sammlung gewonnenen Erkenntnisse können nun die Fossilien der von Koenigswald Sammlung beurteilt werden, da diese nicht auf Gattungsniveau bestimmt sind. In beiden Sammlungen liegt der höchste Prozentsatz in der Klasse 3b. Daraus kann man schließen, dass sehr viele Tiere der Gattung Axis vorhanden sind. Die Gattung Cervus hingegen ist nur zu einem recht geringen Prozentsatz vertreten. Diese Verteilung spiegelt sich auch in der Untersuchung der Fundstellen wider. An nur drei der acht untersuchten Fundstellen wurden Tiere der Gattung Cervus gefunden. Ein Vergleich der Körpermassen ergibt keinen signifikanten Unterschied zwischen diesen. Innerhalb der Axis-Hirsche kann man einen Körpermassenunterschied erkennen, der jedoch nicht mit der geographischen Lage der Fundstellen begründet werden kann. Die Untersuchung der Fundstellen aufgrund ihrer Chronologie ergibt keinen signifikanten Unterschied zwischen den Faunenleveln Trinil H.K. und Kedung Brubus. Jedoch ist innerhalb der Faunenlevel eine deutliche Variationsbreite der Körpermasse zu erkennen, welche auf das an den einzelnen Fundstellen herrschende Habitat zurückgeführt werden kann. Die Zuordnung der bisher nicht datierten Fundstellen in die Faunenlevel ist alleine aufgrund der rekonstruierten Körpermassen nicht möglich, jedoch können erste Aussagen über das umgebende Habitat getroffen werden.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Rhinocerotidae in Europa und Südost-Asien , hier speziell der Insel Java. Methodisch wird dieses Ziel durch lineare Regressionen nach Janis (1990) verfolgt. Zunächst wird ein Rezentmodell erstellt, das es ermöglicht Körpermasse mit verschiedenen Zahnparametern in Zusammenhang zu bringen. Die aus dem Rezentmodell resultierenden Regressionsgleichungen für jeden Zahn werden dann für die Rekonstruktion fossiler Körpermassen verwendet. Das fossile Zahnmaterial wurde vermessen und die Körpermassen für alle Zahnparameter errechnet. Um einen Vergleich mit veröffentlichten Werten zu ermöglichen, wurde die Körpermasse gleichfalls nach Legendre (1986) ermittelt, welcher eine Formel zur Körpermassenrekonstruktion entwickelte, die heute allgemein Verwendung findet. Um die oftmals sehr großen Schwankungen in der Körpermasse, verursacht durch Ernährungs- und Gesundheitszustand eines Tieres abzufedern, sind die absoluten Werte in Körpermassenklassen eingeteilt. Die ermittelten Körpermassen wurden dann in verschiedenen Zusammenhängen betrachtet und, soweit möglich , Aussagen über Gründe für Veranderungen oder Unterschiede zwischen Messstrecken, Zeiträumen, Habitaten oder auch Spezies genannt.
Die vorliegende Studie dient als Basis einer neuen, zuverlässigen Populationsschätzung von Wildschweinen (Sus scrofa). Nach dem hier entwickelten Feldprotokoll soll Wildschweinkot in ausreichenden Mengen, ausreichend guter Qualität und nicht-invasiv gewonnen werden. Die daraus gewonnen Gewebeproben dienen anschließend als DNS-Quelle für individuelle Erkennung und Markierung der beprobten Tiere. Durch Kenntnis des zum Kot gehörigen Tieres lässt sich ein Fang-Wiederfang-Verfahren simulieren. Ein Sammelverfahren, gegliedert in zwei identische Blöcke zu je sechs Tagen, kombiniert aus Strip-Transekt-Sampling (Buckland 2001) und Adaptive-Sampling (Thompson 1991) führte hierbei zum besten Resultat von 0,48 Funden je abgesuchten Kilometer und 1,04 Funden je aufgewendeter Stunde. Die Untersuchung fand auf einem bewaldeten etwa 40 km2 großen Areal im Pfälzerwald, südlich von Kaiserslautern - südliches Rheinland-Pfalz – statt. Im Rahmen der Untersuchung wurden 1605 km abgesucht und vier verschiedene Transektmodelle getestet. Insgesamt wurden hierbei 268 Kothaufen erfasst, die zusätzlich auf ihre physischen Eigenschaften (Kotgröße, Härtegrad, Konsistenz, Insektenbefall), Lage im Gelände (Verteilung auf Laub-, Nadel- und Mischwälder, sowie auf Geländeneigung, Exposition und Höhenlage) und räumliche Verteilung im Untersuchungsgebiet analysiert wurden. Die Untersuchungen fanden zu verschieden Jahreszeiten (Sommer, Herbst und Winter) statt. Als geeigneter Zeitraum für eine solche Kotsammlung hat sich der Winter herausgestellt, aufgrund der längeren Zersetzungszeit des Kots und der durch den Laubfall bedingten, besseren Sichtverhältnisse. Bei ausreichender Stichprobenzahl des Kots hat es sich zu dem ergeben, dass Rückschlüsse auf die Habitatnutzung des Schwarzwilds anhand der Kotverteilung machbar sind. Eine Interpretation der Populationsstruktur anhand der Kotgröße ist in Ansätzen erkennbar. Ein Vergleich mit den gängigen Bestandesschätzverfahren durch Jagdstrecken und Kotzählungen bestätigt die Tauglichkeit des Feldprotokolls zur Beschaffung von Wildschweinkotmengen, die der Population entsprechen. In zwei von vier Versuchsansätzen konnten entsprechende Kotmengen erfasst werden.
Vor dem Hintergrund des globalen Klimawandels und der Diskussion menschlicher Einflussnahme („anthropogener Treibhauseffekt“) ist anhand von Beobachtungsdaten der bodennahen Lufttemperatur und des Niederschlags untersucht worden, welche Strukturen die Klimaveränderungen in Hessen erkennen lassen. Dabei umfasst das betrachtete Gebiet den Bereich 49°- 52° Nord / 7°-11° Ost und schließt somit auch Teilgebiete der angrenzenden Bundesländer mit ein. Zeitlich lag der Schwerpunkt der Betrachtung auf dem Intervall 1951-2000, da aus dieser Zeit bei weitem die meisten Daten verfügbar sind (Temperatur 53, Niederschlag 674 Stationen). Darüber hinaus wurden aber auch Untersuchungen für die Zeit 1901 bis 2000 bzw. 2003 sowie für 30-jährige Subintervalle durchgeführt. Die Analysemethodik umfasst die Berechnung linearer Trends, einschließlich ihrer räumlichen Strukturen (Trendkarten), Aufdeckung von Fluktuationen (spektrale Varianzanalyse), Extremwertanalysen und die Diskussion natürlicher bzw. anthropogener Einflussfaktoren (Signalanalyse mittels multipler schrittweiser Regression). Die aus Tages-, Monats-, jahreszeitlichen und jährlichen Daten gewonnenen Ergebnisse sind überaus vielfältig und heterogen. Für das Flächenmittel Hessen ergibt sich 1951-2000 insgesamt (Jahresdaten) ein Temperaturanstieg von 0,9 °C mit dem Schwerpunkt im Winter (1,6 °C) und der geringsten Erwärmung im Herbst (0,2 °C). 1901-2003 liegen an den erfassten Stationen die jährlichen Erwärmungen bei 0,7 bis 1,8 °C; 30-jährig treten zum Teil auch Abkühlungen auf, insbesondere wenn die regional-jahreszeitlichen bzw. monatlichen Strukturen erfasst werden. Diese Strukturen sind beim Niederschlag noch weit ausgeprägter. Im Flächenmittel Hessen beträgt 1951-2000 der jährliche Niederschlagsanstieg 8,5 %, mit Maxima im Herbst (25 %) und Winter (22 %; Frühling 20%), während im Sommer ein Rückgang um 18 % eingetreten ist (mit Schwerpunkten im Juni und insbesondere August). Bei den Fluktuationen dominieren mittlere Perioden von ca. 2,2, 3,3, 5,5 und 7,5-8 Jahren, beim Niederschlag auch ca. 4,5 Jahre. Der Sonnenfleckenzyklus spiegelt sich in den analysierten Klimadaten nicht wider. Zusammen mit den Extremwerten sorgen diese Fluktuationen für zeitliche Instabilitäten der Klimatrends, insbesondere wenn relativ kurze (z.B. 30-jährige) Zeitabschnitte betrachtet werden. Die wiederum sehr vielfältigen und unterschiedlichen Ergebnisse der Extremwertanalyse spiegeln bei der Temperatur weitgehend die Trends wider, da sich die Streuung der Daten kaum verändert hat: d.h. Zunahme der Überschreitungswahrscheinlichkeit extrem warmer Ereignisse (insbesondere Frühling, überwiegend auch Sommer und Winter, am wenigsten im Herbst) und Abnahme der Unterschreitungswahrscheinlichkeit extrem kalter Ereignisse (dies im Winter bei den Tagesdaten jedoch sehr uneinheitlich). Beim Niederschlag sind die Abnahme extrem feuchter Monate im Sommer und die Zunahme extrem feuchter Tage im Herbst und Winter am auffälligsten. Langfristig folgen daraus ganz markante Änderungen der Jährlichkeiten. So ist beispielsweise 1901-2001 in Alsfeld die Jährlichkeit eines extrem feuchten Winters von 100 auf 5,6 Jahre zurückgegangen, die entsprechende Jährlichkeit eines extrem feuchten Sommers in Bad Camberg dagegen fast bis zur Unmöglichkeit angestiegen. Bei der Ursachendiskussion lässt sich in den Temperaturdaten ein deutlicher anthropogener Einfluss („Treibhauseffekt“) ausfindig machen. Abschließend wird diskutiert, inwieweit es sinnvoll ist, die beobachteten Trends, im Vergleich mit Modellprojektionen, in die Zukunft zu extrapolieren.
Vorwort zur 1. Auflage Klima ist vor allem deswegen nicht nur von wissenschaftlichem, sondern auch von öffentlichem Interesse, weil es veränderlich ist und weil solche Änderungen gravierende ökologische sowie sozioökonomische Folgen haben können. Im Detail weisen Klimaänderungen allerdings komplizierte zeitliche und räumliche Strukturen auf, deren Erfassung und Interpretation alles andere als einfach ist. Bei den zeitlichen Strukturen stehen mit Recht vor allem relativ langfristige Trends sowie Extremereignisse im Blickpunkt, erstere, weil sie den systematischen Klimawandel zum Ausdruck bringen und letztere wegen ihrer besonders brisanten Auswirkungen. Hier geht es um den erstgenannten Aspekt, zu dem nun noch die räumlichen Strukturen treten. Der relativ langfristige und somit systematische Klimawandel läuft nämlich regional sehr unterschiedlich ab, was am besten in Trendkarten zum Ausdruck kommt. Solche regionalen, zum Teil sehr kleinräumigen Besonderheiten sind insbesondere beim Niederschlag sehr ausgeprägt. Schließlich sind die räumlichen Trendstrukturen auch jahreszeitlich bzw. monatlich sehr unterschiedlich. In unserer Arbeitsgruppe hat sich Jörg Rapp im Rahmen seiner Diplom- und insbesondere Doktorarbeit intensiv mit diese Problem beschäftigt, was zur Publikation des „Atlas der Niederschlags- und Temperaturtrends in Deutschland 1891-1990“ (Rapp und Schönwiese, 2. Aufl. 1996) sowie des „Climate Trend Atlas of Europe – Based on Observations 1891-1990“ (Schönwiese und Rapp, 1997) geführt hat. Die große Beachtung, die insbesondere der Klimatrendatlas Deutschland gefunden hat, ließ es schon lange als notwendig erscheinen, eine Aktualisierung vorzunehmen. Dieser Aufgabe hat sich in Form eines Fortgeschrittenenpraktikums Herr Reinhard Janoschitz gewidmet und die Aktualisierung für die Zeit 1901-2000, einschließlich Subintervallen, vorgenommen. Zudem hat er für 1951-2000 noch das Klimaelement Sonnenscheindauer hinzugenommen. Zur Zeit ist er im Rahmen seiner Diplomarbeit mit einer Neubearbeitung des Europäischen Klimatrendatlas befasst. Mit der Publikation des hier vorliegenden „Klimatrend-Atlas Deutschland 1901-2000“ werden in insgesamt 178 Karten (davon 20 Karten auch in Farbdarstellung in den Text integriert) wieder umfangreiche Informationen zum Klimawandel in Deutschland vorgelegt, und zwar mit Hilfe einer linearen Trendanalyse hinsichtlich der boden-nahen Lufttemperatur, des Niederschlags und der Sonnenscheindauer für die Zeit 1901-2000 sowie für die Subintervalle 1931-1960, 1961-1990 und 1971-2000 – Sonnenscheindauer allerdings nur 1951-2000 und 1971-2000 –, jeweils aufgrund der jährlichen, jahreszeitlichen und monatlichen Beobachtungsdaten. Die Signifikanz der Trends ist im (schwarz/weiß wiedergegebenen) Kartenteil durch Rasterung markiert. Methodisch lehnt sich die Analyse somit eng an die oben zitierte Arbeit von Rapp und Schönwiese (1996) an, wo auch ausführliche textliche Erläuterungen zu finden sind (ebenso in Rapp, 2000); deswegen wurde hier der Textteil sehr knapp gehalten. Hingewiesen sei schließlich auf ebenfalls für Deutschland durchgeführte Analysen klimatologischer Extremereignisse, die ebenfalls in der Reihe unserer Instituts-mitteilungen publiziert sind (Jonas et al., 2005; Trömel, 2005). Frankfurt a.M., im Herbst 2005 Christian-D. Schönwiese Vorwort zur 2. Auflage Das erfreulich große Interesse hat eine 2. Auflage erforderlich gemacht, die neben kleineren redaktionellen Verbesserungen bzw. Aktualisierungen vor allem die Erweiterung der in Kap. 4 vorgestellten Zeitreihen und einen ergänzenden Tabellenanhang jeweils bis 2007 enthält. So erfüllt dieser Atlas hoffentlich auch weiterhin seinen Informations-zweck. Im übrigen ist der im Vorwort zur 1. Auflage erwähnte „Klima-Trendatlas Europa“ mittlerweile als Nr. 7 (2008) der Reihe unserer Institutsberichte erschienen. Frankfurt a.M., im Sommer 2008 Christian-D. Schönwiese
Erkennung kritischer Zustände von Patienten mit der Diagnose "Septischer Schock" mit einem RBF-Netz
(2000)
Es wurde gezeigt, dass der Arzt mit dem wachsenden RBF-Netz durch die Ausgabe von verlässlichen Warnungen unterstützt werden kann. Wie in der Clusteranalyse erläutert, leiden die Ergebnisse jedoch unter den wenigen Patienten und unter der ungenauen zeitlichen Erfassung der Daten. Da jeder Patient sehr individuelle Zustände annimmt, ist ein größeres Patientenkollektiv notwendig, um eine umfassende Wissensbasis zu lernen. Eine medizinische Nachbearbeitung der Wissensbasis durch die Analyse der Fälle ließe eine weitere Verbesserung des Ergebnisses erwarten. Somit könnten unbekannte Zusammenhänge durch das Lernen aus Beispielen und medizinisches Fachwissen kombiniert werden. Abstraktere Merkmale, die weniger abhängig von individuellen Zuständen sind, könnten eine Klassifikation noch weiter verbessern. Ein Ansatzpunkt ist z.B. die Abweichung der Messwerte vom gleitenden Mittelwert. Dieses Maß ist unempfindlicher gegenüber den individuellen Arbeitspunkten der Patienten und bildet auch die Basis von relativen Abhängigkeiten zwischen zwei Variablen, die in einem weiteren Schritt ebenfalls als Merkmal herangezogen wurden. Obwohl die Verwendung der relativen Abhängigkeiten zwischen zwei Variablen als Merkmal nicht deutlichere oder häufigere Warnungen hervorbringen konnte, weist doch die Clusteranalyse auf eine bessere Verteilung der Patienten hin. Einige Cluster sind besser für die Vorhersage geeignet, als dieses bei einer Clusterung auf Basis der Zustände erreicht werden kann. Unterstützt wird dieses Ergebnis auch durch den größeren Unterschied der Sicherheiten von falschen und richtigen Klassifikationen. Neben den bisher untersuchten Merkmalen scheinen auch die Variablen interessant zu sein, bei denen festgestellt wurde, dass sie sich trotz Medikamentengabe und adäquater Behandlung schwer stabilisieren lassen. Durch den behandelnden Arzt werden diese Werte üblicherweise in einem gewissen Bereich gehalten. Falls sich das Paar Medikament/physiologischer Parameter nicht mehr in einem sinnvollen Verhältnis befindet, kann dieses ein wichtiger Indikator sein. Nach dem Aufbau der grundlegenden Funktionalität der hier untersuchten Methoden ist die Suche nach geeigneten Merkmalen als Eingabe für ein neuronales Netz ein wesentlicher Bestandteil folgender Arbeiten. Abgesehen von dem generell anspruchsvollen Vorhaben aus Klinikdaten deutliche Hinweise für die Mortalität septischer-Schock-Patienten zu erhalten, liegen die wesentlichen Probleme in dem Umfang und der Messhäufigkeit der Frankfurter Vorstudie begründet, so dass eine Anwendung von Klassifikationsverfahren auf das umfassendere Patientenkollektiv der MEDAN Multicenter-Studie klarere Ergebnisse erwarten lässt. Eine weitere, für medizinische Anwendungen interessante, Analysemöglichkeit ist die Regelgenerierung, die zur Zeit in einem anderen Teilprojekt in der MEDAN-Arbeitsgruppe bearbeitet wird. Hier können im Fall metrischer Daten zusätzliche Hinweise für die Leistung eines reinen Klassifikationsverfahrens gewonnen werden mit dem Vorteil einer expliziten Regelausgabe. Zum anderen werden in diesem Teilprojekt auch Verfahren zur Regelgenerierung eingesetzt, die ordinale und nominale Variablen wie Diagnosen, Operationen, Therapien und Medikamentenangaben (binär, ohne genaue Dosis) auswerten können. Diese werden in den Multicenter-Daten vorhanden sein. Durch Kopplung der Regelgeneratoren für metrische Daten auf der einen Seite und für diskrete Variablen auf der anderen Seite, besteht durchaus die Hoffnung bessere Ergebnisse zu erzielen. Da der Regelgenerator für metrische Daten auf dem RBF-DDA (Abk. für: Dynamic Decay Adjustment)-Netz [BERTHOLD und DIAMOND, 1995] beruht, bietet es sich innerhalb des MEDAN-Projekts an, einen (bislang nicht durchgeführten) Vergleich mit dem hier verwendeten Netztyp durchzuführen. Der Vergleich ist allerdings nur von prinzipiellem Interesse und kann auf den hier betrachteten Daten kein grundsätzlich besseres Ergebnis liefern als die bislang durchgeführten Analysen; er kann aber zu einer umfangreichen Bewertung der Ergebnisse beitragen.
It appears astonishing to me that none of the papers and discussions at this conference on "Financial Flows to Developing Countries" have even touched upon an important category of international financial relationships which involves direct flows and links to the so-called developing countries. Specifically, none of the contributions have dealt with “development finance”, which is a broad term covering various kinds of activities carried out in the framework of development assistance. This is a particularly striking omission, given that until fairly recently the volume of official aid exceeded the volume of private capital flows to the developing and transition economies (IMF, 1998, p. 60). Moreover, it is conceivable that, in terms of both their developmental impact and their contribution to the alleviation of social problems, the flows financed by official aid may be more important than private capital flows. Thus, I felt that, at the very least, my fellow conference participants should be made aware of this gap in the range of topics addressed by the conference, and it was with this goal in mind that I prepared the present paper as a contribution to the concluding session of the conference. The first section of the present paper defines the concept of “development finance” and seeks to show how its content and meaning has changed over time. In the second section, I discusses a broad trend in banking regulation which has recently emerged in many developing and transition countries and which has, in my view, highly problematic implications for the potential to create financially sound and developmentally relevant “microfinance institutions”.
Der bevorstehende Beitritt Sloweniens in die OECD1 (Organisation for Economic Cooperation and Development), die jüngste Bewertung des BTI-Status-Index 2008 (Bertelsmann-Transformation-Index) auf dem 2. Platz, der Ratsvorsitz der EU (Europäische Union) im 1. Halbjahr 2008, die Mitgliedschaft zum Schengen-Raum und die Einführung des Euro, sind nur die jüngsten Meilensteine der erfolgreichen und nachhaltigen Transformation in ein demokratisches System und die Festlegung auf eine marktwirtschaftliche Ordnung. Die Geschichte Sloweniens stand lange Zeit im Schatten der Geschichte Österreichs und Jugoslawiens. Als eine Nation in einem eigenen Staat sieht sich Slowenien seit dem Zerfall Jugoslawiens in einer gänzlich neuen Rolle. Das Erbe der früheren Abhängigkeiten ist einem neuen Selbstbewusstsein gewichen. Die graduelle Transformation Sloweniens während der 1990er Jahre in einen völkerrechtlich unabhängigen Staat, eine politische Demokratie und eine freie Marktwirtschaft erscheint im europäischen Kontext „…only [as] a chapter in the larger tale of the democratic wave that rather unexpectedly swept across Central, Eastern, and Southeastern Europe during the last years of the twentieth century.“ In Reflexion der historischen Ereignisse beurteilt Kornai die Transformation am Ende des letzten Jahrhunderts in Europa „…in spite of serious problems and anomalies …[as] a success story.“ Im Rahmen des Transformationsprozesses konnte sich Slowenien als „politischer und ökonomischer Zwerg“ als unabhängiger Staat in das demokratische Europa und die Europäische Union integrieren und fest verankern. Um Gründe und Faktoren dieses Prozesses zu identifizieren, ist eine Betrachtung der Entwicklungen in den 1980er Jahren, die zur Auflösung des blockfreien sozialistischen Jugoslawiens und zur Selbstständigkeit Sloweniens geführt haben, notwendig. Jede der konstituierenden Teilrepubliken und Regionen Jugoslawiens blickt zurück auf eine eigene historische, religiöse und sprachliche Tradition mit individuellen Erfahrungen und spezifischen Spannungen innerhalb und außerhalb der gemeinsamen Föderation. Sloweniens Weg in die politische, ökonomische und demokratische Unabhängigkeit war ein individueller nationaler Differenzierungs- und Umgestaltungsprozess und Ergebnis vielfältiger mehrdimensionaler Konflikte. Unerwartet und plötzlich war der Bruch und die Herauslösung aus dem Staatenbund Jugoslawiens am 25. Juni 1991 nicht. Die Gründung und der Niedergang eines Staates sind schwierig zu erklärende und komplexe Phänomene. Die Triebkräfte der auflösenden gesellschaftlichen Prozesse im Jugoslawien der 1980er Jahre ausschließlich auf die Nationalitätenfrage zu reduzieren, bewertet Weißenbacher als eine zu enge Fokussierung der Darstellung und Begründung auf die ethnischen Spannungen innerhalb des Vielvölkerstaates. Er argumentiert: „Die Wurzeln der Desintegration des sozialistischen Jugoslawiens in alten ethnischen Feindseligkeiten zu suchen, hieße die ökonomischen, sozialen und politischen Prozesse zu ignorieren….“ Die zunehmenden regionalen Inkompatibilitäten Jugoslawiens in den 1980er Jahren verdeutlichen in Betrachtung des spezifischen Entwicklungspfads der Teilrepublik Slowenien, dass die politisch-gesellschaftlichen, kulturellen und die sozioökonomischen Strukturen letztendlich nicht dauerhaft mit den Strukturen anderer jugoslawischer Teilrepubliken vereinbar waren. Die politische und wirtschaftliche Instabilität Jugoslawiens und der frühzeitige Wandel innerhalb der slowenischen Gesellschaft und der Kommunistischen Partei in den 1980er Jahren führten durch politischen Reformdruck und makroökonomische Ungleichgewichte zum Kollaps des jugoslawischen Staatenbundes. Mencinger betont, dass die tiefe Krise Jugoslawiens letzten Endes ohne einen radikalen Systembruch und Sturkurwandel von politischer und ökonomischer Machtverteilung nicht zu überwinden gewesen wäre. Der vorliegende Beitrag greift die Rahmenbedingungen, Entwicklungen, Konflikte und Ziele auf und zeichnet die wesentlichen politischen und wirtschaftlichen Geschehnisse nach, denen sich die slowenische Bevölkerung und Politik in den Jahren vor der Loslösung gegenübersahen und die zur Gründung des unabhängigen Staates geführt haben.
Rezension zu: George G. Szpiro : Mathematik für Sonntagmorgen : 50 Geschichten aus Mathematik und Wissenschaft, NZZ Verlag, Zürich 2006, ISBN 978-3-03823-353-4 ; 240 Seiten, 26 Euro/38 CHF George G. Szpiro : Mathematik für Sonntagnachmittag : Weitere 50 Geschichten aus Mathematik und Wissenschaft, NZZ Verlag, Zürich 2006, ISBN 978-3-03823-225-4 ; 236 Seiten, 26 Euro/38 CHF
Der Beitritt zur Europäischen Union (EU) war seit Beginn der Transformation in Osteuropa eines der wichtigsten politischen Ziele der neu gewählten Regierungen. Im Mittelpunkt der öffentlichen Diskussion stand dabei weniger die Frage nach möglichen nationalen Opfern einer schnellen EU-Integration, sondern der Wunsch, die nach dem zweiten Weltkrieg erfolgte Teilung Europas endgültig zu überwinden. Nach über zehn Jahren Transformation und Privatisierung ist jedoch vielerorts Ernüchterung eingekehrt. Die politische Debatte um die EU-Integration der osteuropäischen Beitrittskandidaten wird zunehmend von den Kandidaten selbst kritisch geführt, und die Frage nach den nationalen Lasten eines EU-Beitritts gewinnt an Bedeutung. Je näher der Beitritt der osteuropäischen Staaten zur EU rückt, desto nachdrücklicher wird dort gefragt, ob die Mitgliedschaft in der Union ein Gewinn sein wird. Die Beitrittskandidaten befürchten u.a., dass die eigene Wirtschaft und ganze Berufsgruppen, wie z.B. die Bauern, dem EU-Wettbewerbsdruck nicht standhalten werden können. Auf der anderen Seite bremsen eigennützige Ansprüche der Altmitglieder die Osterweiterung der EU. Noch ist bei anstehenden Abstimmungen in den mittel- und osteuropäischen Ländern (MOEL) über den Beitritt überall eine Mehrheit dafür zu erwarten, doch die Euroskepsis wächst und die Europa-Kritiker gewinnen an politischem Einfluss. Die vorliegende Arbeit soll einen Beitrag zur Versachlichung der EU-Erweiterungsdiskussion leisten und die Zusammenhänge zwischen dem Transformationsprozess der MOEL und deren EU-Integration verdeutlichen. Eine sachliche Diskussion kann nur dann geführt werden, wenn dabei die Besonderheiten, die Gemeinsamkeiten und die Interdependenzen von Transformations- und Integrationsprozess berücksichtigt werden. Wir gehen dazu wie folgt vor. Zunächst beschreiben wir en Transformationsprozess aus ökonomischer Sicht (2.). Neben den wirtschaftlichen und sozialen Folgen der Transformation, soll die historische Pfadabhängigkeit verschiedener Transformationsergebnisse gezeigt und deren Bedeutung für die EU-Integrationsfähigkeit der MOEL diskutiert werden. Im Anschluss daran erläutern wir die Voraussetzungen einer EU-Osterweiterung aus Sicht der Beitrittskandidaten (Beitrittskriterien von Kopenhagen) und aus Sicht der Europäischen Union. Wir zeigen die aus einem Integrationsprozess resultierenden wirtschaftlichen, sozialen und politischen Folgen für Neu- und Altmitglieder auf und stellen den aktuellen Stand der EU-Beitrittsverhandlungen vor (3.). Die Arbeit endet mit der Darstellung alternativer Entwicklungen und einem Fazit (4.).
Computer haben im Mathematik-Unterricht bisher vor allem die Funktion, Abstraktes bildlich zu veranschaulichen. Neu sind interaktive Programme, mit denen Schüler experimentieren und spielerisch ein Gefühl für Zusammenhänge entwickeln können. Erste Versuche zeigen, dass dieses Angebot, »Mathematik erfahrbar zu machen«, die Schüler stark motiviert. Computer sind wichtige Mittler zwischen der realen Welt und den Abstraktionen ihrer mathematischen Beschreibung. Denn: Mathematik wohnt den Dingen nicht inne, man sieht sie mit dem »mathematischen Blick« in die Dinge hinein. Erst dadurch gliedert sich der Raum um uns in Punkte, Strecken, Ebenen und all die anderen geometrischen Objekte. Diese Objekte selbst sind nicht real, und materielle Modelle, die wir zu ihrer Veranschaulichung heranziehen, unterliegen Einschränkungen, von denen man abstrahieren muss. Wir zeigen anhand zweier aktueller Entwicklungs- und Forschungsprojekte, wie Computer helfen können, diese Kluft zu überbrücken. ...
Rechtssoziologie am Institut für Sozialforschung Im Mittelpunkt des aktuellen Forschungsprogramms des Frankfurter Instituts für Sozialforschung stehen die Paradoxien und Ambivalenzen der kapitalistischen Modernisierung. Grund legend hierfür ist die Beobachtung, dass sich fortschrittliche soziale Prozesse im Nachhinein unter den Bedingungen einer gewandelten Moderne in ihr Gegenteil verkehren können. Mit dieser These beschäftigt sich auch der Forschungsschwerpunkt »Politische Öffentlichkeit und Recht«. Mit Bezugnahme auf die gegenwärtige Rechtsentwicklung interessiert vor allem die Frage, ob und wie das Recht auf Veränderungen im Verhältnis von Individuum und Gesellschaft und auf die fortschreitende Individualisierung reagiert. Auch interessiert, wie die Rechtsentwicklung im Alltagsverständnis wahrgenommen wird. Antworten auf diese Fragestellungen werden derzeit aus den Ergebnissen des DFG-Projekts »Die Zuschreibung von Verantwortung in den Rechtsmeinungen von Bürgerinnen und Bürgern« wie auch aus der fortlaufenden Diskussion über »Verantwortung und Gerechtigkeit« im Arbeitskreis Rechtssoziologie gewonnen. Im Rahmen des Forschungsprojektes unter der Projektleitung von Prof. Dr. Klaus Günther und Prof. Dr. Axel Honneth wurden in 45 qualitativen, Leitfaden-gestützten Einzelinterviews Befragte um ihre Urteile zu drei vorgegebenen Rechtsfällen gebeten. Der Arbeitskreis Rechtssoziologie beschäftigt sich vor allem mit den in vielen gesellschaftlichen Lebensbereichen häufig aufgestellten Postulaten der Eigen- oder Selbstverantwortung; dabei soll untersucht werden, welche Konzepte einer verantwortlich handelnden Person damit einhergehen und in welchem Verhältnis sie zu den gesellschaftlichen Bedingungen verantwortlichen Handelns stehen. Die Ergebnisse der Diskussionen und des empirischen Projektes sollen ein Fundament für eine normative Theorie liefern, die Kriterien für eine gerechtfertigte Verteilung von Verantwortung in der Gesellschaft begründen soll.
Von kultureller Akzeptanz noch weit entfernt, entwickelte der Comic gegen Ende der 1960er Jahre ganz neue Qualitäten: In der bewegten gesellschaftlichen Atmosphäre dieser Zeit aufgeladen mit politischen und künstlerischen Ambitionen fi ndet er seine Adressaten nicht mehr nur beim Kinderpublikum, sondern richtet sich zunehmend an eine politisch bewegte Öffentlichkeit der Heranwachsenden und Erwachsenen.
Finanzderivate gelten als obskur, verwickelt und riskant. Und das nicht zu Unrecht, wie die aktuelle Krise der globalen Finanzmärkte zeigt. Um Finanzderivate richtig bewerten zu können, bedarf es ausgefeilter Methoden der Finanzmathematik. Ausgelöst durch den explosionsartigen Anstieg des Derivatehandels hat sich die Mathematik zu einer Schlüsseltechnologie auf modernen Finanzmärkten entwickelt. Sie stellt den Finanzakteuren das mathematische Werkzeug für ihr Risikomanagement zur Verfügung.
Informationsverarbeitung im Gehirn basiert auf dem koordinierten Zusammenwirken von Milliarden von Nervenzellen. Um diese Codes zu entschlüsseln, sind komplexe Verfahren experimenteller Datenerhebung und theoretischer Datenanalyse notwendig. Denn auch wenn alle Zellen im selben Rhythmus agieren, kann sich jede auf ihre Art am Konzert beteiligen. Die verschiedenen Stimmen äußern sich in zeitlichen Mustern, die sich experimentell kaum vom Rauschen unterscheiden lassen. Erst mithilfe statistischer Verfahren konnten winzige zeitliche Verzögerungen als nicht zufällig identifiziert werden.
Der Zufall – ein Helfer und kein Störenfried : warum die Wissenschaft stochastische Modelle braucht
(2008)
Der Zufall hat in den Wissenschaften weithin einen zweifelhaften Ruf. Für die Philosophie hat Hegel festgestellt: »Die philosophische Betrachtung hat keine andere Absicht, als das Zufällige zu entfernen« (Die Vernunft in der Geschichte, 1822) – und ähnlich denkt man auch in anderen Wissenschaften. Die Auseinandersetzungen der Physik mit dem Zufall sind verschlungen und bis heute von Kontroversen begleitet. Was die Biologie betrifft, so herrscht noch einiger Argwohn gegenüber den modernen Evolutionstheorien, die sich entscheidend auf den Zufall stützen. Und dass derartige Theorien unvereinbar sind mit der Vorstellung von einer göttlichen Schöpfung der Welt, gilt unter manchen ihrer Gegner wie Befürworter als ausgemacht.
Wikipedia, die größte Online-Enzyklopädie, gibt Rätsel auf: Was treibt so viele Menschen an, in ihrer Freizeit an einem virtuellen Lexikon mitzuarbeiten? Wie kommt es, dass das Niveau der meisten Beiträge so hoch ist und Fehler so schnell korrigiert werden, zumal der Zugang für jeden ohne Ausweis seiner Qualifikation frei ist? Mithilfe der Netzwerkanalyse lässt sich nachweisen, dass schon die Einbindung in ein solches Netzwerk wie Wikipedia das Handeln bestimmt und auch die Motivation beeinflusst.
Reggie-1 (flotillin-2) and reggie-2 (flotillin-1) are membrane microdomain proteins which are associated with the membrane by means of acylation. They influence different cellular signaling processes, such as neuronal, T-cell and insulin signaling. Upon stimulation of the EGF receptor, reggie-1 becomes phosphorylated and undergoes tyrosine 163 dependent translocation from the plasma membrane to endosomal compartments. In addition, reggie-1 was shown to influence actindependent processes. Reggie-2 has been demonstrated to affect caveolin- and clathrin-independent endocytosis. Both proteins form homo- and hetero-oligomers, but the function of these oligomers has remained elusive. Moreover, it has not been clarified if functions of reggie-1 are also influenced by reggie-2 and vice versa. The first aim of the study was to further investigate the interplay and the heterooligomerization of reggie proteins and their functional effects. Both reggie proteins were individually depleted by means of siRNA. In different siRNA systems and various cell lines, reggie-1 depleted cells showed reduced protein amounts of reggie-1 and reggie-2, but reggie-2 knock down cells still expressed reggie-1 protein. The decrease of reggie-2 in reggie-1 depleted cells was only detected at protein but not at mRNA level. Furthermore, reggie-2 expression could be rescued by expression of siRNA resistant wild type reggie-1-EGFP constructs, but not by the soluble myristoylation mutant G2A. This mutant was also not able to associate with endogenous reggie-1 or reggie-2, which demonstrates that membrane association of reggie-1 is necessary for hetero-oligomerization. In addition, fluorescence microscopy studies and membrane fractionations showed that correct localization of overexpressed reggie-2 was dependent on co-overexpressed reggie-1. Thus, hetero-oligomerization is crucial for membrane association of reggie-2 and for its protein stability or protein expression. Moreover, the binding of reggie-2 to reggie-1 required tyrosine 163 of reggie-1 which was previously shown to be important for endosomal translocation of reggie-1. Since reggie-2 was implicated to function in clathrin- and caveolin-independent endocytosis pathways, the effect of reggie-2 depletion on reggie-1 endocytosis was investigated. Indeed, reggie-1 was dependent on reggie-2 for endosomal localization and EGF-induced endocytosis. By FRET-FLIM analysis it could be shown that reggie heterooligomers are dynamic in size or conformation upon EGF stimulation. Thus, it can be concluded that reggie proteins are interdependent in different aspects, such as protein stability or expression, membrane association and subcellular localization. In addition, these results demonstrate that the hetero-oligomers are dynamic and reggie proteins influence each other in terms of function. A further aim was the characterization of reggie-1 and reggie-2 function in actindependent processes, where so far only reggie-1 was known to play a role. Depletion of either of the proteins reduced cell migration, cell spreading and the number of focal adhesions in steady state cells. Thus, also reggie-2 affects actin-dependent processes. Further investigation of the focal adhesions during cell spreading revealed that depletion of reggie-1 displayed different effects as compared to reggie-2 knock down. Reggie-1 depleted cells had elongated cell-matrix-adhesions and showed reduced activation of FAK and ERK2. On the other hand, depletion of reggie-2 resulted in a restricted localization of focal adhesion at the periphery of the cell and decreased ERK2 phosphorylation, but it did not affect FAK autophosphorylation. Hence, reggie proteins influence the regulation of cell-matrix-adhesions differently. A link between reggie proteins and focal adhesions is the actin cross-linking protein -actinin. The interaction of -actinin with reggie-1 could be verified by means of co-immunoprecipitations and FRET-FLIM analysis. Reggie-1 binds -actinin especially in membrane ruffles and in other locations where actin remodeling takes place. Moreover, -actinin showed a different localization pattern during cell spreading in reggie-1 depleted cells, as compared to the control cells. These results provide further insights into the function of both reggie proteins. Their interplay and hetero-oligomerization was shown to be crucial for their role in endocytosis. In addition, both reggie proteins influence actin-dependent processes and differentially affect focal adhesion regulation.
Untersuchung von Rezeptor-Ligand-Komplexen mittels organischer Synthese und NMR-Spektroskopie
(2008)
Viele biologische Prozesse basieren auf der spezifischen Bindung eines Liganden an einen Rezeptor. Die Wechselwirkung zwischen dem Rezeptor und seinem Ligand kann im Wesentlichen durch zwei verschiedene Modelle beschrieben werden: zum einen das vom E. Fischer eingeführte Schlüssel-Schloss-Prinzip und zum anderen das von Koshland beschriebene "induced-fit-model". Bei dem Schlüssel-Schloss-Prinzip liegt der Ligand in der Bindetasche des Rezeptors wie ein Schlüssel im Schloss. Ganz anders hierzu setzt die induzierte Anpassung ("induced-fit-model") eine konformationelle Änderung des Proteins durch den Liganden für die Bindung voraus. Ändern sich jedoch die Konformationen von Substrat und Rezeptor in einer gegenseitigen Beeinflussung, dann spricht man von "double-induced-fitmodel". Die Untersuchung dieser Erkennung auf molekularer Ebene ist von großer Wichtigkeit, denn sie dient zum besseren Verständnis und damit auch zur gezielten Beeinflussung solcher Prozesse. Wie wird der Ligand von einem Rezeptor selektiv erkannt und gebunden? Für die Erkennung und Bindung spielen spezifische nichtkovalente Wechselwirkungen eine wichtige Rolle. Zum Repertoire der nichtkovalenten Wechselwirkungen gehören die elektrostatische Wechselwirkungen, die Wasserstoffbrückenbindung und der hydrophobe Effekt.
In der vorliegenden Arbeit werden anhand von drei ausgewählten Beispielen solche Wechselwirkungen zwischen verschiedenen Liganden mit ihrem Rezeptor untersucht. In den ersten beiden Kapiteln werden Proteine und im letzten Kapitel RNA als Rezeptor untersucht. Die einzelnen Kapitel beginnen jeweils mit einer kurzen Einführung der Rezeptoren und der dazugehörenden Liganden, schließlich wird dann die Rezeptor-Ligand-Wechselwirkung beschrieben. Als Rezeptor wurden in der vorliegenden Arbeit Proteine (Kinasen und Membranproteine) und strukturierten Elemente der RNA (Aptamerdomäne der purinbindenden Riboswitche und der SELEX-RNA) gewählt. Membranproteine der Atmungskette, Kinasen und Riboswitches stellen zusätzlich attraktive Rezeptoren für das Wirkstoffdesign dar. Die damit interferierenden Liganden umfassen Substrate, Cofaktoren, Metabolite und Inhibitoren. Die Untersuchung der Wechselwirkung erfolgte mittels NMR-Spektroskopie und organischer Synthese.
Struktur, Funktion und Dynamik von Na(+)-, H(+)-Antiportern : eine infrarotspektroskopische Studie
(2008)
Die Funktion von Membranproteinen ist von entscheidender Bedeutung für eine Vielzahl zellulärer Prozesse. Um diese verstehen zu können, ist das Verständnis der Beziehungen zwischen der Struktur, der Dynamik und der Wechselwirkung mit der Umgebung der Membranproteine notwendig. Spektroskopische Methoden, wie beispielsweise FTIR- und CD-Spektroskopie sind in der Lage, diese Informationen zu geben. In der vorliegenden Dissertation haben sie bedeutende Beiträge zum Verständnis der durch die Aktivierung induzierten Konformationsänderungen der Na+/H+ Antiporter geleistet. Die hohe Empfindlichkeit einer selbstkonstruierten FTIR-ATR-Perfusionszelle ermöglichte es, über eine Proteinprobe verschiedene Wirkstoffmoleküle perfundieren zu lassen und die dadurch verursachten strukturellen Änderungen spektroskopisch zu charakterisieren. Die Konformationsänderungen, die den Aktivierungsprozess begleiten, wurden bei zwei verschiedenen Na+/H+ Antiportern, NhaA und MjNhaP1, untersucht. Sie werden bei unterschiedlichen pH-Bereichen aktiviert bzw. deaktiviert. Der Na+/H+ Antiporter NhaA aus E. coli hat seine maximale Transportaktivität bei pH 8,5 und ist bei pH < 6,5 vollständig inaktiv. Trotz bekannter 3D-Struktur dieses Proteins für die inaktive Konformation bei pH 4 bleiben die Konformationsänderungen, die mit der Aktivierung des Proteins einhergehen, immer noch ungeklärt. Die Analyse der FTIR- und CD-Spektren von NhaA ergab in beiden Zuständen Anteile an beta-Faltblatt, an Schleifen und ungeordneten Strukturen, wobei die alpha-helikale Struktur dominiert. Die FTIR Spektren des inaktiven und aktiven Zustands zeigen zwei Komponenten, die auf die Präsenz zweier alpha-Helices mit unterschiedlichen Eigenschaften abhängig vom Aktivitätszustand hindeuteten. Die temperaturinduzierten strukturellen Änderungen und die Reorganisation des Proteins während des Entfaltungsprozesses bestätigten, dass die Aktivierung des Proteins eine Änderung in den Eigenschaften der alpha-Helices zur Folge hat. Aktivierung führt zu einer thermischen Destabilisierung dieser Struktur. Auch für die beta-Faltblattstruktur, welche den Hauptkontakt zwischen den Monomeren bildet, wurde ein unterschiedliches thermisches Verhalten zwischen dem inaktiven und aktiven Zustand beobachtet. Daraus konnte gefolgert werden, dass Aktivität nur dann möglich ist, wenn NhaA als Dimer vorliegt. Die Ergebnisse des (1)H/(2)H Austauschs zeigen, dass die Lösungsmittelzugänglichkeit des Proteins sich mit der Aktivierung ändert. Die Aktivierung des Proteins induziert eine offene, für die Lösung zugänglichere Konformation, in welcher die Aminosäureseitenketten in der hydrophilen Region des Proteins schneller Wasserstoff durch Deuterium austauschen, und in welcher zusätzliche Aminosäureseitenketten, die sich im inaktiven Zustand in der hydrophoben Region des Proteins befinden, mit der Aktivierung der Lösung exponiert werden. Die Aufnahme reaktionsinduzierter Differenzspektren ergab eindeutige spektroskopische Signaturen für die Zustände „inaktiv“ und „aktiv“. Die Differenzspektren der pH-Titration zeigten, dass der pH-Wert einen dramatischen Effekt sowohl auf die Sekundärstruktur als auch auf den Protonierungszustand der Aminosäureseitenketten hat. Die pH- und Na+-induzierte Aktivierung des Proteins führt zur Umwandlung der transmembranen alpha-helikalen Struktur bezüglich Länge, Ordnungsgrad und/oder Anordnung und zur einer Protonierungsänderung der Aminosäureseitenketten von Glutaminsäure oder Asparaginsäure. Die pD induzierten Sekundärstrukturänderungen lieferten zusätzlich Informationen über die Umgebungsänderung der Aminosäureseitenkette des Tyrosins mit der Aktivierung. Der Vergleich der durch die Bindung des Natriums und des Inhibitors induzierten Differenzspektren zeigte, dass die Bindungsstellen des Natriums und des Inhibitors unterschiedlich sind. Die FTIR- und CD-Ergebnisse für den Na+/H+ Antiporter MjNhaP1 aus M. jannaschii, der im Gegensatz zu NhaA bei pH 6 aktiv und bei pH Werten > 8 inaktiv ist, zeigten, dass ähnlich wie NhaA das Protein im aktiven Zustand bei pH 6 hauptsächlich aus alpha-Helices aufgebaut ist. Es bestand die Möglichkeit, zwei verschiedene Probenpräparationen (Protein in Detergenz bzw. in 2D-Kristallen) zu untersuchen und miteinander zu vergleichen. Die Erhöhung des pH-Werts bei der in Detergenz solubilisierten Probe führte zu einer Abnahme der alpha-helikalen und einer Zunahme der ungeordneten Strukturen. Das äußerte sich auch in den Untersuchungen zur thermischen Stabilität und im (1)H/(2)H Austauschexperiment. Die thermische Stabilität der alpha-Helices nahm mit der Inaktivierung dramatisch ab. Diese Ergebnisse zeigten auch, dass bei der Aktivierung von MjNhaP1 die beta-Faltblattstruktur nicht involviert ist, aber diese von fundamentaler Bedeutung für die Gesamtstabilität des Proteins und wahrscheinlich für den Hauptkontakt zwischen den Monomeren verantwortlich ist. Im Gegensatz zu NhaA ist die Monomer Monomer Wechselwirkung nicht für die Aktivität von MjNhaP1 notwendig. Aufgrund des höheren Anteils von ungeordneter Struktur im inaktiven Zustand der in Detergenz solubilisierten Probe beobachtet man in diesem Zustand einen höheren (1)H/(2)H Austausch. Der Vergleich mit den Ergebnissen des (1)H/(2)H Austausches von 2D-Kristallen ermöglichte die Lokalisation der ungeordneten Struktur an der Außenseite des Proteinmoleküls im inaktiven Zustand. Die pH-induzierten Differenzspektren zeigten, dass die Aktivierung zu einer Helikalisierung des Proteins und einer Protonierungsänderung der Aminosäureseitenketten von Asparaginsäure und/oder Glutaminsäure unabhängig von der Probenpräparation führt. Der Vergleich von NhaA und MjNhaP1 zeigt, dass die Aktivierung in beiden Fällen mit einer Konformationsänderung und Änderung der Protonierung oder der Umgebung von einer oder mehreren Seitenketten von Asparaginsäure oder Glutaminsäure verbunden ist. Dabei sind die Strukturänderungen der beiden Proteine während der Aktivierung ähnlich, bei Inaktivierung jedoch deutlich unterscheidbar. Die pH-induzierten Strukturänderungen wurden bei NhaA und MjNhaP1 durch die Mutanten G338S und R347A, die keine pH-Abhängigkeit der Aktivität zeigen, bestätigt.
A data set of annual values of area equipped for irrigation for all 236 countries in the world during the time period 1900 - 2003 was generated. The basis for this data product was information available through various online data bases and from other published materials. The complete time series were then constructed around the reported data applying six statistical methods. The methods are discussed in terms of reliability and data uncertainties. The total area equipped for irrigation in the world in 1900 was 53.2 million hectares. Irrigation was mainly practiced in all the arid regions of the globe and in paddy rice areas of South and East Asia. In some temperate countries in Western Europe irrigation was practiced widely on pastures and meadows. The time series suggest a modest rate of increase of irrigated areas in the first half of the 20th century followed by a more dynamic development in the second half. The turn of the century is characterized by an overall consolidating trend resulting at a total of 285.8 million hectares in 2003. The major contributing countries have changed little throughout the century. This data product is regarded as a preliminary result toward an ongoing effort to develop a detailed data set and map of areas equipped for irrigation in the world over the 20th century using sub-national statistics and historical irrigation maps.
The purpose of this paper is to describe recent developments in the morphological, syntactic, and semantic annotation of the TüBa-D/Z treebank of German. The TüBa-D/Z annotation scheme is derived from the Verbmobil treebank of spoken German [4, 10], but has been extended along various dimensions to accommodate the characteristics of written texts. TüBa-D/Z uses as its data source the "die tageszeitung" (taz) newspaper corpus. The Verbmobil treebank annotation scheme distinguishes four levels of syntactic constituency: the lexical level, the phrasal level, the level of topological fields, and the clausal level. The primary ordering principle of a clause is the inventory of topological fields, which characterize the word order regularities among different clause types of German, and which are widely accepted among descriptive linguists of German [3, 6]. The TüBa-D/Z annotation relies on a context-free backbone (i.e. proper trees without crossing branches) of phrase structure combined with edge labels that specify the grammatical function of the phrase in question. The syntactic annotation scheme of the TüBa-D/Z is described in more detail in [12, 11]. TüBa-D/Z currently comprises approximately 15 000 sentences, with approximately 7 000 sentences being in the correction phase. The latter will be released along with an updated version of the existing treebank before the end of this year. The treebank is available in an XML format, in the NEGRA export format [1] and in the Penn treebank bracketing format. The XML format contains all types of information as described above, the NEGRA export format contains all sentenceinternal information while the Penn treebank format includes only those layers of information that can be expressed as pure tree structures. Over the course of the last year, more fine grained linguistic annotations have been added along the following dimensions: 1. the basic Stuttgart-Tübingen tagset, STTS, [9] labels have been enriched by relevant features of inflectional morphology, 2. named entity information has been encoded as part of the syntactic annotation, and 3. a set of anaphoric and coreference relations has been added to link referentially dependent noun phrases. In the following sections, we will describe each of these innovations in turn and will demonstrate how the additional annotations can be incorporated into one comprehensive annotation scheme.
Part-of-Speech tagging is generally performed by Markov models, based on bigram or trigram models. While Markov models have a strong concentration on the left context of a word, many languages require the inclusion of right context for correct disambiguation. We show for German that the best results are reached by a combination of left and right context. If only left context is available, then changing the direction of analysis and going from right to left improves the results. In a version of MBT (Daelemans et al., 1996) with default parameter settings, the inclusion of the right context improved POS tagging accuracy from 94.00% to 96.08%, thus corroborating our hypothesis. The version with optimized parameters reaches 96.73%.
The definition of similarity between sentences is formulated on the levels of words, POS tags, and chunks (Abney 91; Abney 96). The evaluation of this approach shows that while precision and recall based on the PARSEVAL measures (Black et al. 91) do not reach state of the art Parsers yet (F1=87.19 on syntactic constituents, F1=77.78 including functionargument structure), the parser shows a very reliable performance where function-argument structure is concerned (F1=96.52). The lower F-scores are very often due to unattached constituents.
The problem of vocalization, or diacritization, is essential to many tasks in Arabic NLP. Arabic is generally written without the short vowels, which leads to one written form having several pronunciations with each pronunciation carrying its own meaning(s). In the experiments reported here, we define vocalization as a classification problem in which we decide for each character in the unvocalized word whether it is followed by a short vowel. We investigate the importance of different types of context. Our results show that the combination of using memory-based learning with only a word internal context leads to a word error rate of 6.64%. If a lexical context is added, the results deteriorate slowly.
In dieser Arbeit soll erst ein kurzer Überblick über die Gebiete der Wortklassifizierung und des maschinellen Lernens gegeben werden (Kap. 1). Dann wird der Ansatz der transformationsbasierten fehlergesteuerten Wortklassifizierung (Transformation-Based Error-Driven Tagging) von Brill (1992, 1993, 1994) vorgestellt und für die Verwendung für deutschsprachige Korpora angepaßt (Kap. 2). Hierbei handelt es sich um ein regelbasiertes System, bei dem die Regeln im Gegensatz zu den bisher vorhandenen Systemen nicht manuell erarbeitet und dem System vorgegeben werden; das System erwirbt die Regeln vielmehr selbst anhand von wenigen Regelschemata aus einem kleinen bereits getaggten Lernkorpus. In Kapitel 3 werden die Ergebnisse aus der Anwendung des Systems auf Teile eines deutschsprachigen Korpus dargestellt. In Kapitel 4 schließlich werden andere Taggingsysteme vorgestellt und mit dem System von Brill (1993) anhand von acht Kriterien verglichen.
In syntax, the trend nowadays is towards lexicalized grammar formalisms. It is now widely accepted that dividing words into wordclasses may serve as a laborsaving mechanism - but at the same time, it discards all detailed information on the idiosyncratic behavior of words. And that is exactly the type of information that may be necessary in order to parse a sentence. For learning approaches, however, lexicalized grammars represent a challenge for the very reason that they include so much detailed and specific information, which is difficult to learn. This paper will present an algorithm for learning a link grammar of German. The problem of data sparseness is tackled by using all the available information from partial parses as well as from an existing grammar fragment and a tagger. This is a report about work in progress so there are no representative results available yet.
This paper presents a comparative study of probabilistic treebank parsing of German, using the Negra and TüBa-D/Z treebanks. Experiments with the Stanford parser, which uses a factored PCFG and dependency model, show that, contrary to previous claims for other parsers, lexicalization of PCFG models boosts parsing performance for both treebanks. The experiments also show that there is a big difference in parsing performance, when trained on the Negra and on the TüBa-D/Z treebanks. Parser performance for the models trained on TüBa-D/Z are comparable to parsing results for English with the Stanford parser, when trained on the Penn treebank. This comparison at least suggests that German is not harder to parse than its West-Germanic neighbor language English.
How to compare treebanks
(2008)
Recent years have seen an increasing interest in developing standards for linguistic annotation, with a focus on the interoperability of the resources. This effort, however, requires a profound knowledge of the advantages and disadvantages of linguistic annotation schemes in order to avoid importing the flaws and weaknesses of existing encoding schemes into the new standards. This paper addresses the question how to compare syntactically annotated corpora and gain insights into the usefulness of specific design decisions. We present an exhaustive evaluation of two German treebanks with crucially different encoding schemes. We evaluate three different parsers trained on the two treebanks and compare results using EVALB, the Leaf-Ancestor metric, and a dependency-based evaluation. Furthermore, we present TePaCoC, a new testsuite for the evaluation of parsers on complex German grammatical constructions. The testsuite provides a well thought-out error classification, which enables us to compare parser output for parsers trained on treebanks with different encoding schemes and provides interesting insights into the impact of treebank annotation schemes on specific constructions like PP attachment or non-constituent coordination.
In the last decade, the Penn treebank has become the standard data set for evaluating parsers. The fact that most parsers are solely evaluated on this specific data set leaves the question unanswered how much these results depend on the annotation scheme of the treebank. In this paper, we will investigate the influence which different decisions in the annotation schemes of treebanks have on parsing. The investigation uses the comparison of similar treebanks of German, NEGRA and TüBa-D/Z, which are subsequently modified to allow a comparison of the differences. The results show that deleted unary nodes and a flat phrase structure have a negative influence on parsing quality while a flat clause structure has a positive influence.
Transforming constituent-based annotation into dependency-based annotation has been shown to work for different treebanks and annotation schemes (e.g. Lin (1995) has transformed the Penn treebank, and Kübler and Telljohann (2002) the Tübinger Baumbank des Deutschen (TüBa-D/Z)). These ventures are usually triggered by the conflict between theory-neutral annotation, that targets most needs of a wider audience, and theory-specific annotation, that provides more fine-grained information for a smaller audience. As a compromise, it has been pointed out that treebanks can be designed to support more than one theory from the start (Nivre, 2003). We argue that information can also be added to an existing annotation scheme so that it supports additional theory-specific annotations. We also argue that such a transformation is useful for improving and extending the original annotation scheme with respect to both ambiguous annotation and annotation errors. We show this by analysing problems that arise when generating dependency information from the constituent-based TüBa-D/Z.
Chunk parsing has focused on the recognition of partial constituent structures at the level of individual chunks. Little attention has been paid to the question of how such partial analyses can be combined into larger structures for complete utterances. Such larger structures are not only desirable for a deeper syntactic analysis. They also constitute a necessary prerequisite for assigning function-argument structure. The present paper offers a similaritybased algorithm for assigning functional labels such as subject, object, head, complement, etc. to complete syntactic structures on the basis of prechunked input. The evaluation of the algorithm has concentrated on measuring the quality of functional labels. It was performed on a German and an English treebank using two different annotation schemes at the level of function argument structure. The results of 89.73% correct functional labels for German and 90.40%for English validate the general approach.
In this paper, we investigate the role of sub-optimality in training data for part-of-speech tagging. In particular, we examine to what extent the size of the training corpus and certain types of errors in it affect the performance of the tagger. We distinguish four types of errors: If a word is assigned a wrong tag, this tag can belong to the ambiguity class of the word (i.e. to the set of possible tags for that word) or not; furthermore, the major syntactic category (e.g. "N" or "V") can be correctly assigned (e.g. if a finite verb is classified as an infinitive) or not (e.g. if a verb is classified as a noun). We empirically explore the decrease of performance that each of these error types causes for different sizes of the training set. Our results show that those types of errors that are easier to eliminate have a particularly negative effect on the performance. Thus, it is worthwhile concentrating on the elimination of these types of errors, especially if the training corpus is large.
Prepositional phrase (PP) attachment is one of the major sources for errors in traditional statistical parsers. The reason for that lies in the type of information necessary for resolving structural ambiguities. For parsing, it is assumed that distributional information of parts-of-speech and phrases is sufficient for disambiguation. For PP attachment, in contrast, lexical information is needed. The problem of PP attachment has sparked much interest ever since Hindle and Rooth (1993) formulated the problem in a way that can be easily handled by machine learning approaches: In their approach, PP attachment is reduced to the decision between noun and verb attachment; and the relevant information is reduced to the two possible attachment sites (the noun and the verb) and the preposition of the PP. Brill and Resnik (1994) extended the feature set to the now standard 4-tupel also containing the noun inside the PP. Among many publications on the problem of PP attachment, Volk (2001; 2002) describes the only system for German. He uses a combination of supervised and unsupervised methods. The supervised method is based on the back-off model by Collins and Brooks (1995), the unsupervised part consists of heuristics such as ”If there is a support verb construction present, choose verb attachment”. Volk trains his back-off model on the Negra treebank (Skut et al., 1998) and extracts frequencies for the heuristics from the ”Computerzeitung”. The latter also serves as test data set. Consequently, it is difficult to compare Volk’s results to other results for German, including the results presented here, since not only he uses a combination of supervised and unsupervised learning, but he also performs domain adaptation. Most of the researchers working on PP attachment seem to be satisfied with a PP attachment system; we have found hardly any work on integrating the results of such approaches into actual parsers. The only exceptions are Mehl et al. (1998) and Foth and Menzel (2006), both working with German data. Mehl et al. report a slight improvement of PP attachment from 475 correct PPs out of 681 PPs for the original parser to 481 PPs. Foth and Menzel report an improvement of overall accuracy from 90.7% to 92.2%. Both integrate statistical attachment preferences into a parser. First, we will investigate whether dependency parsing, which generally uses lexical information, shows the same performance on PP attachment as an independent PP attachment classifier does. Then we will investigate an approach that allows the integration of PP attachment information into the output of a parser without having to modify the parser: The results of an independent PP attachment classifier are integrated into the parse of a dependency parser for German in a postprocessing step.
Maschinelles Lernen wird häufig zur effzienten Annotation großer Datenmengen eingesetzt. Die Forschung zu maschinellen Lernverfahren beschränkt sich i.a. darauf unterschiedliche Lernverfahren zu vergelichen oder die optimale größe der Trainingsdaten zu bestimmen. Bisher wurde jedoch nicht untersucht, in wie weit sich linguistisches Wissen bei der Aufgabendefinition positiv auswirken kann. Dies soll hier anhand des Lernens von Base-Nominalphrasen mit drei unterschiedlichen Definitionen untersucht werden. Die Definitionen unterscheiden sich im Grad der linguistisch motivierten Erweiterungen, die zu einer eher praktisch motivierten ersten Definition hinzu kamen. Die Untersuchungen ergaben, dass sich die Anzahl der falsch klasssifizierten Wörter um ein Drittel reduzieren lässt.
This report explores the question of compatibility between annotation projects including translating annotation formalisms to each other or to common forms. Compatibility issues are crucial for systems that use the results of multiple annotation projects. We hope that this report will begin a concerted effort in the field to track the compatibility of annotation schemes for part of speech tagging, time annotation, treebanking, role labeling and other phenomena.
This paper reports on the SYN-RA (SYNtax-based Reference Annotation) project, an on-going project of annotating German newspaper texts with referential relations. The project has developed an inventory of anaphoric and coreference relations for German in the context of a unified, XML-based annotation scheme for combining morphological, syntactic, semantic, and anaphoric information. The paper discusses how this unified annotation scheme relates to other formats currently discussed in the literature, in particular the annotation graph model of Bird and Liberman (2001) and the pie-in-thesky scheme for semantic annotation.
Chunk parsing has focused on the recognition of partial constituent structures at the level of individual chunks. Little attention has been paid to the question of how such partial analyses can be combined into larger structures for complete utterances. The TüSBL parser extends current chunk parsing techniques by a tree-construction component that extends partial chunk parses to complete tree structures including recursive phrase structure as well as function-argument structure. TüSBLs tree construction algorithm relies on techniques from memory-based learning that allow similarity-based classification of a given input structure relative to a pre-stored set of tree instances from a fully annotated treebank. A quantitative evaluation of TüSBL has been conducted using a semi-automatically constructed treebank of German that consists of appr. 67,000 fully annotated sentences. The basic PARSEVAL measures were used although they were developed for parsers that have as their main goal a complete analysis that spans the entire input.This runs counter to the basic philosophy underlying TüSBL, which has as its main goal robustness of partially analyzed structures.
This paper provides an overview of current research on a hybrid and robust parsing architecture for the morphological, syntactic and semantic annotation of German text corpora. The novel contribution of this research lies not in the individual parsing modules, each of which relies on state-of-the-art algorithms and techniques. Rather what is new about the present approach is the combination of these modules into a single architecture. This combination provides a means to significantly optimize the performance of each component, resulting in an increased accuracy of annotation.
A lot of interest has recently been paid to constraint-based definitions and extensions of Tree Adjoining Grammars (TAG). Examples are the so-called quasi-trees, D-Tree Grammars and Tree Description Grammars. The latter are grammars consisting of a set of formulars denoting trees. TDGs are derivation based where in each derivation step a conjunction is built of the old formular, a formular of the grammar and additional equivalences between node names of the two formulars. This formalism is more powerfull than TAGs. TDGs offer the advantages of MC-TAG and D-Tree Grammars for natural languages and they allow underspecification. However the problem is that TDGs might be unnecessarily powerfull for natural languages. To solve this problem, in this paper, I will propose a local TDGs, a restricted version of TDGs. Local TDGs still have the advantages of TDGs but they are semilinear and therefore more appropriate for natural languages. First, the notion of the semilinearity is defined. Then local TDGs are introduced, and, finally, semilinearity of local Tree Description Languages is proven.
Quantifizierung des pulmonal-arteriellen Drucks im Truncus pulmonalis des Schweins. Methode: Künstliche Induktion einer pulmonalen Hypertonie mittels Thromboxan A2 in verschiedenen Schweregraden. Quantifizierung des Blutflusses anhand magnetresonanztomographischer Flussmessung im T.p., hieraus Bestimmung des zeitlichen Flussprofils und Akzelerationszeit (AT). Korrelation der AT mit den simultan erhobenen Daten einer invasiven Druckmessung (Pulmonalis-Katheter).
This paper proposes a compositional semantics for lexicalized tree adjoining grammars (LTAG). Tree-local multicompnent derivations allow seperation of semantiv contribution of a lexical item into one component contributing to the predicate argument structure and second a component contributing to scope semantics. Based on this idea a syntx-semantics interface is presented where the compositional semantics depends only on the derivation structure. It is shown that the derivation structure allows an appropriate amount of underspecification. This is illustrated by investigating underspecified representations for quantifier scpoe ambiguities and related phenomena such as adjunct scope and island constraints.
A hierarchy of local TDGs
(1998)
Many recent variants of Tree Adoining Grammars (TAG) allow an underspecifiaction of the parent relation between nodes in a tree, i.e. they do not deal with fully specified trees as it is the case with TAGs.Such TAG variants are for example Description Tree Grammars (DTG), Unordered Vector Grammars with Dominance Links (UVG-DL), a definition of TAGs via so-called quasi trees and Tree Description Grammars (TDG. The last TAg variant, local TDG, is an extension of TAG generating Tree Descriptions. Local TDGs even allow an underspecification of the dominance relation between node names and thereby provide the possibility to generate underspecified representations for structural ambiguities such as quantifier scope ambiguities. This abstract deals with formal properties of local TDGs. A hierarchiy of local TDGs is established together with a pumping lemma for local TDGs of a certain rank.
We argue for incorporating the financial economics of market microstructure into the financial econometrics of asset return volatility estimation. In particular, we use market microstructure theory to derive the cross-correlation function between latent returns and market microstructure noise, which feature prominently in the recent volatility literature. The cross-correlation at zero displacement is typically negative, and cross-correlations at nonzero displacements are positive and decay geometrically. If market makers are sufficiently risk averse, however, the cross-correlation pattern is inverted. Our results are useful for assessing the validity of the frequently-assumed independence of latent price and microstructure noise, for explaining observed cross-correlation patterns, for predicting as-yet undiscovered patterns, and for making informed conjectures as to improved volatility estimation methods.
The future of securitization
(2008)
Securitization is a financial innovation that experiences a boom-bust cycle, as many other innovations before. This paper analyzes possible reasons for the breakdown of primary and secondary securitization markets, and argues that misaligned incentives along the value chain are the primary cause of the problems. The illiquidity of asset and interbank markets, in this view, is a market failure derived from ill-designed mechanisms of coordinating financial intermediaries and investors. Thus, illiquidity is closely related to the design of the financial chains. Our policy conclusions emphasize crisis prevention rather than crisis management, and the objective is to restore a “comprehensive incentive alignment”. The toe-hold for strengthening regulation is surprisingly small. First, we emphasize the importance of equity piece retention for the long-term quality of the underlying asset pool. As a consequence, equity piece allocation needs to be publicly known, alleviating market pricing. Second, on a micro level, accountability of managers can be improved by compensation packages aiming at long term incentives, and penalizing policies with destabilizing effects on financial markets. Third, on a macro level, increased transparency relating to effective risk transfer, risk-related management compensation, and credible measurement of rating performance stabilizes the valuation of financial assets and, hence, improves the solvency of financial intermediaries. Fourth, financial intermediaries, whose risk is opaque, may be subjected to higher capital requirements.
Proteorhodopsin (PR) originally isolated from uncultivated γ-Proteobacterium as a result of biodiversity screens, is highly abundant ocean wide. PR, a Type I retinal binding protein with 26% sequence identity, is a bacterial homologue of Bacteriorhodopsin (BR). The members within this family share about 78% of sequence identity and display a 40 nm difference in the absorption spectra. This property of the PR family members provides an excellent model system for understanding the mechanism of spectral tuning. Functionally PR is a photoactive proton pump and is suggested to exhibit a pH dependent vectorality of proton transfer. This raises questions about its potential role as pH dependent regulator. The abundance of PR in huge numbers within the cell, its widespread distribution ocean wide at different depths hints towards the involvement of PR in utilization of solar energy, energy metabolism and carbon recycling in the Sea. Contrary to BR, which is known to be a natural 2D crystal, no such information is available for PR til date. Neither its functional mechanism nor its 3D structure has been resolved so far. This PhD project is an attempt to gain a deeper insight so as to understand structural and functional characterization of PR. The approach combines the potentials of 2D crystallography, Atomic Force Microscopy and Solid State NMR techniques for characterization of this protein. Wide range of crystalline conditions was obtained as a result of 2D crystallization screens. This hints towards dominant protein protein interactions. Considering the high number of PR molecules reported per cell, it is likely that driven by such interactions, the protein has a native dense packing in the environment. The projection map represented low resolution of these crystals but suggested a donut shape oligomeric arrangement of protein in a hexagonal lattice with unit cell size of 87Å*87Å. Preliminary FTIR measurements indicated that the crystalline environment does not obstruct the photocycle of PR and K as well as M intermediate states could be identified. Single molecule force spectroscopy and atomic force microscopy on these 2D crystals was used to probe further information about the oligomeric state and nature of unfolding. The data revealed that protein predominantly exists as hexamers in crystalline as well as densely reconstituted regions but a small percentage of pentamers is also observed. The unfolding mechanism was similar to the other relatively well-characterized members of rhodopsin family. A good correlation of the atomic force microscopy and the electron microscopy data was achieved. Solid State NMR of the isotopically labeled 2D crystalline preparations using uniformly and selectively labeling schemes, allowed to obtain high quality SSNMR spectra with typical 15N line width in the range of 0.6-1.2 ppm. The measured 15N chemical shift value of the Schiff base in the 2D crystalline form was observed to be similar to the Schiff base chemical shift values for the functionally active reconstituted samples. This provides an indirect evidence for the active functionality of the protein and hence the folding. The first 15N assignment has been achieved for the Tryptophan with the help of Rotational Echo Double Resonance experiments. The 2D Cross Polarization Lee Goldberg measurements reflect the dynamic state of the protein inspite of restricted mobility in the crystalline state. The behavior of lipids as measured by 31P from the lipid head group showed that the lipids are not tightly bound to the protein but behave more like the lipid bilayer. The 13C-13C homonulear correlation experiments with optimized mixing time based on build up curve analysis, suggest that it is possible to observe individual resonances as seen in case of glutamic acid. The signal to noise was good enough to record a decent spectrum in a feasible period. The selective unlabeling is an efficient method for reduction in the spectral overlap. However, more efficient labeling schemes are required for further characterization. The present spectral resolution is good for individual amino acid investigation but for uniformly labeled samples, further improvement is required.
Tree-local MCTAG with shared nodes : an analysis of word order variation in German and Korean
(2004)
Tree Adjoining Grammars (TAG) are known not to be powerful enough to deal with scrambling in free word order languages. The TAG-variants proposed so far in order to account for scrambling are not entirely satisfying. Therefore, an alternative extension of TAG is introduced based on the notion of node sharing. Considering data from German and Korean, it is shown that this TAG-extension can adequately analyse scrambling data, also in combination with extraposition and topicalization.
In this paper, we present an open-source parsing environment (Tübingen Linguistic Parsing Architecture, TuLiPA) which uses Range Concatenation Grammar (RCG) as a pivot formalism, thus opening the way to the parsing of several mildly context-sensitive formalisms. This environment currently supports tree-based grammars (namely Tree-Adjoining Grammars (TAG) and Multi-Component Tree-Adjoining Grammars with Tree Tuples (TT-MCTAG)) and allows computation not only of syntactic structures, but also of the corresponding semantic representations. It is used for the development of a tree-based grammar for German.
This paper proposes a corpus encoding standard that meets the needs of linguistic research using a variety of linguistic data structures. The standard was developed in SFB 441, a research project at the University of Tuebingen. The principal concern of SFB 441 are the empirical data structures which feed into linguistic theory building. SFB 441 consists of several projects, most of which are building corpora to empirically investigate various linguistic phenomena in various languages (e.g. modal verbs in German, forms of address and politeness in Russian). These corpora will form the components of the "Tuebingen collection of reusable, empirical, linguistic data structures (TUSNELDA)". The TUSNELDA annotation standard aims at providing a uniform encoding scheme for all subcorpora and texts of TUSNELDA such that they can be processed with uniform standardized tools. To guarantee maximal reusability we use XML for encoding. Previous SGML standards for text encoding were provided by the Text Encoding Initiative (TEI) and the Expert Advisory Group on Language Engineering Standards (Corpus Encoding Standard, CES). The TUSNELDA standard is based on TEI and XCES (XML version of CES) but takes into account the specific needs of the SFB projects, i.e. the peculiarities of the examined languages and linguistic phenomena.
Existing analyses of German scrambling phenomena within TAG-related formalisms all use non-local variants of TAG. However, there are good reasons to prefer local grammars, in particular with respect to the use of the derivation structure for semantics. Therefore this paper proposes to use local TDGs, a TAG-variant generating tree descriptions that shows a local derivation structure. However the construction of minimal trees for the derived tree descriptions is not subject to any locality constraint. This provides just the amount of non-locality needed for an adequate analysis of scrambling. To illustrate this a local TDG for some German scrambling data is presented.
Die Coltrims-Methode hat sich seit den 1990er Jahren als gutes experimentelles Instrument in der Atomphysik und darüberhinaus etabliert. Sie beruht darauf, dass die bei einer Reaktion entstehenden Fragmente mit ortssensitiven Detektoren nachgewiesen werden. Die Signale der Detektoren wurden bisher mit einem analogen Vorverstärker verstärkt und dann mit Hilfe eines Constant Fraction Discriminators in digitale Signale umgewandelt. Die Zeitinformation der digitalen Signale wurden von Time to Digital Convertern aufgenommen und im Computer gespeichert. Mit dieser Form der Auslese und Analyse der von den Detektoren stammenden Signale können nur einige wenige Fragmente nachgewiesen werden. Die Lösung dieses Problems besteht also darin, eine neue Variante für die Auslese und Analyse der Signale zu finden. Diese wurde in der Verwendung eines Transientenrekorders gefunden. Anstatt nur die Zeitinformation zu speichern, nimmt dieser die gesamte Signalform der Detektoren auf. Die Aufgabe, die in dieser Arbeit bearbeitet werden sollte, bestand darin, eine Software zu entwickeln, mit deren Hilfe der Transientenrekorder gesteuert werden kann. Auch sollte ein Weg gefunden werden nur die für das Experiment notwendigen Informationen des aufgenommenen Zeitfensters zu speichern. Des Weiteren sollten Methoden aufgezeigt werden, wie die aufgenommen Signale untersucht und deren Parameter extrahiert werden können. Diese Methoden wurden dann an realen Signalen getestet. Nachdem im ersten Kapitel die Motivation zu dieser Arbeit und einige theoretische Hintergründe vorgestellt werden, wird im zweiten Kapitel auf verschiedene Methoden der Signalanalyse eingegangen. Der Augenmerk liegt dabei sowohl auf Einzel- sowie Doppelsignalanalyse. Die Güte der vorgestellten Algorithmen wird mit Hilfe von künstlichen Signalen ermittelt. Es zeigt sich, dass die beste Methode die zeitliche Position der Einzelsignale zu finden, der Pulsfit ist. Mit dieser Methode kann eine Auflösung von etwa 50 ps erzielt werden. Bei der Betrachtung der Doppelsignale stellt sich heraus, dass der minimale Abstand zwischen den Signalen 5 ns bis 7 ns betragen muss. Das dritte Kapitel zeigt eine Anwendung des neuen Aufnahmesystems. Dort werden die physikalischen Ergebnisse, die mit Hilfe des neuen Systems gewonnen werden konnten, mit einem herkömmlichen Aufnahmesystem verglichen. Aufgrund der geringeren Totzeit des neuen Aufnahmesystems konnte mehr Statistik gewonnen werden. Der dadurch gewonnene Vorteil zeigt sich deutlich in den Ergebnissen, bei denen eine vierfach Koinzidenz verlangt wird. Bei dem nächsten Kapitel beschriebenen Experiment mussten sehr viele Fragmente nachgewiesen werden. Hierzu wird ein weiteres Kriterium neben der Zeitsumme vorgestellt mit dem die Anodensignale einander zugewiesen werden können. Die in diesem Kapitel gezeigten physikalischen Ergebnisse zeigen die Impulsverteilungen für Neon und Helium für unterschiedliche Lichtintensitäten bzw. Ionisationsprozesse. Im darauf folgenden Kapitel wird beschrieben, wie die neue Aufnahmemethode dazu verwendet werden kann, die von den Detektoren kommenden Signale genauer zu analysieren. Die physikalische Reaktion führte dazu, dass von dem Detektor hauptsächlich Doppelsignale aufgenommen wurden. Dies erlaubt die Untersuchung der Doppelsignalalgorithmen an realen Signalen. Hierbei zeigte sich, dass die Totzeit bei realen Signalen vergleichbar mit der Totzeit bei künstlichen Signalen ist. Die Algorithmen können bei Abständen der Einzelsignale von weniger als 10 ns die Position der Signale nicht mehr genau bestimmen. Anhand der Pulshöhenverteilung kann gezeigt werden, dass der verwendete Detektor in der Mitte eine geringere Nachweiseffizienz hatte. Im letzten Kapitel wird die Güte der verschiedenen Methoden der Einzelsignalanalyse anhand von realen Signalen überprüft. Dabei wurden Signale desselben Detektors mit unterschiedlichen Vorverstärkern verstärkt. Die beiden Vorverstärker unterschieden sich in ihrer Bandbreitenbegrenzung. Die Daten wurden mit einem Transientenrekorder mit 2 GS aufgenommen. Es wird gezeigt wie diese Daten umgewandelt werden können, so dass sie einem System mit nur 1 GS entsprechen. Dies erlaubt es die Güte der Methoden für Signale eines Systems mit 2 GS mit denen eines Systems mit 1 GS zu vergleichen. Es zeigt sich in der Pulshöhenverteilung, dass die Signale des stärker bandbreitenbegrenzten Vorverstärkers vergleichbar mit den künstlichen Signalen sind. Die Signale des weniger stark bandbreitenbegrenzten Vorverstärkers weisen eine zu starke Abhängigkeit ihrer Breite von der Pulshöhe auf. Aus diesem Grund sind die Ergebnisse des letzt genannten Vorverstärkers abweichend von den Ergebnissen mit den künstlichen Signalen. Bei diesem Vorverstärker zeigte der einfache Constant Fraction Algorithmus die beste Auflösung.
Stressorinduzierte ökotoxikologische Effekte und Genexpressionsveränderungen bei Chironomus riparius
(2008)
Die Effekte von Stressoren auf Chironomus riparius wurden im Lebenszyklustest und auf genomischer Ebene mit dem Ziel untersucht, ein auf einem DNA-Mikroarray („ChiroChip“) basierendes Screeningverfahren zu entwickeln. Die empfindlichsten Endpunkte der Lebenszyklustests waren die Mortalität, der Anteil fruchtbarer Eigelege, der mittlere Schlupfzeitpunkt der Weibchen sowie das Gewicht der Männchen. Temperaturveränderungen um ± 6°C gegenüber einer normalen Hälterungstemperatur von 20°C führten in allen Endpunkten zu hochsignifikanten Effekten. Eine LC10 konnte nur für die Salinität berechnet werden (0,66‰, KI: 0,26 − 1,68‰). Aufgrund der nicht-linearen Konzentrations-Wirkungs-Beziehungen konnte nur für den mittleren Schlupfzeitpunkt der Weibchen nach einer Exposition gegenüber Cadmium eine EC50 (0,53 mg/kg, KI: 0,29 − 0,97 mg/kg) bestimmt werden. In den Versuchen mit Methyltestosteron, Ethinylöstradiol, Carbamazepin, Fluoxetin, Blei und Tributylzinn (mit denen auch molekularbiologische Untersuchungen durchgeführt wurden) waren die empfindlichsten Endpunkte die Mortalität, der Anteil fruchtbarer Eigelege, der mittlere Schlupfzeitpunkt der Weibchen sowie die Populationswachstumsrate. Carbamazepin (CBZ) wirkte schlupfverzögernd bei den Weibchen. 10 mg CBZ/kg führte zu einer höheren Mortalität, weniger Eigelegen, die vermehrt unfruchtbar waren, sowie zu einer geringeren Populationswachstumsrate. Fluoxetin (FX) wirkte bei beiden Geschlechtern schlupfverzögernd. 0,9 mg FX/kg führte zu einer erhöhten Mortalität, weniger und vermehrt unfruchtbaren Eigelegen und einer geringeren Populationswachstumsrate. In der höchsten Konzentration (5,9 mg/kg) waren die Weibchen leichter als die Kontrolltiere. Tributylzinn (in µg Sn/kg angegeben) bewirkte eine höhere Mortalität und geringere Populationswachstumsrate bei 100 µg Sn/kg und führte zu einer Verzögerung im Schlupfverlauf bei den Weibchen. Bei 160 µg Sn/kg gab es weniger Eigelege, die vermehrt unfruchtbar waren. Die Männchen, die gegenüber Konzentrationen von 120 und 160 µg Sn/kg exponiert wurden, waren leichter als die Kontrolle. Expositionen gegenüber Blei (Pb) in Konzentrationen von 0,65 − 65 mg/kg führten bei 6,5 mg Pb/kg zu einer erhöhten Mortalität und zu mehr unfruchtbaren Gelegen. Bei 0,65 mg Pb/kg waren die Männchen leichter und bei 6,5 mg Pb/kg schwerer. Die Anzahl der fruchtbaren Gelege pro Weibchen war bei 3,25 und 6,5 mg Pb/kg geringer als in der Kontrolle. Die gegenüber 17alpha-Methyltestosteron (MET) exponierten Mücken hatten geringere Mortalitäten als in der Kontrolle und zeigten einen verfrühten Schlupf beider Geschlechter. Ab 27 µg MET/kg gab es weniger unfruchtbare Gelege, leichtere Männchen sowie erhöhte Populationswachstumsraten. 17alpha-Ethinylöstradiol (EE2) führte zu einem verfrühten Schlupf bei beiden Geschlechtern sowie zu erhöhten Populationswachstumsraten. Bei 9 µg EE2/kg gab es weniger unfruchtbare Gelege. Die Exposition von Chironomus-Larven gegenüber Methyltestosteron, Ethinylöstradiol, Fluoxetin, Carbamazepin, Tributylzinn und Blei führte zur differenziellen Expression von neun (Methyltestosteron) bis 49 (Carbamazepin) Genen. Bei der Untersuchung der exprimierten Proteine fällt auf, dass kaum bekannte Stressproteine (z.B. Glutathion-S-Transferase oder Cytochrom P450) differentiell reguliert wurden. Bei der Exposition wurden verschiedene Prozesse durch eine veränderte Genexpression beeinflusst. Eine Exposition gegenüber Methyltestosteron führte zu einer Beeinträchtigung von drei identifizierten biologischen Prozessen, während bei den anderen Substanzen sieben bis acht Prozesse beeinflusst waren. Die am häufigsten beeinflussten Prozesse waren der Protein- und der Energiemetabolismus. Der Sauerstofftransport ist ein Prozess, der bei allen Substanzen beeinflusst wurde, jedoch mit unterschiedlichen Anteilen. Bei einer Exposition gegenüber Methyltestosteron war der Anteil des Sauerstofftransports an den beteiligten Prozessen mit 84,6% am größten und mit 10,5% bei Fluoxetin am geringsten. Die veränderte Genexpression der Globine kann möglicherweise aufgrund der schadstoffspezifischen Veränderungen als Biomarker für das Monitoring von Freilandgewässern angewendet werden. Da Tubulin und Aktin häufig nach einer Exposition gegenüber Stressoren differenziell exprimiert wird (bei Tributylzinn und CBZ in der vorliegenden Arbeit und bei Antidepressiva und Östrogenen in anderen Studien) wären die beiden Proteine möglicherweise ebenfalls als Biomarker für Chemikalienstress geeignet. Vor der Verwendung des ChiroChips als Screeninginstrument für die Chemikalienuntersuchung und das Biomonitoring müssen noch Untersuchungen zur konzentrationsabhängigen Genexpression und zur Expression in unbehandelten Larven und weiteren Lebensstadien erfolgen. Des Weiteren müssen die vorliegenden Daten verifiziert und die Funktion der differentiell regulierten Gene vertieft untersucht werden.
In dieser Arbeit wurden potentielle Mitglieder des Proteinnetzwerks um Ataxin-2 untersucht, um Rückschlüsse auf die bisher unbekannte Funktion von Ataxin-2 machen zu können. Ataxin-2 ist das Krankheitsprotein der Spinozerebellären Ataxie Typ 2, einer Polyglutaminerkrankung, bei der die Expansion eines Polyglutamintraktes zur Degeneration von Purkinje-Neuronen führt. Da die Funktion von Ataxin-2 bisher nicht ermittelt werden konnte, sollte die Charakterisierung seiner Protein-Interaktoren es ermöglichen, Einblicke in seine Funktion zu gewinnen. Dazu wurden die drei Kandidaten „Similar to golgin-like“, TRAP und alpha-Actinin-1 untersucht, die alle drei mit Hilfe von Hefe-2-Hybrid Screens identifiziert worden waren. Im Fall von „Similar to golgin-like“, einem aus Genom und cDNA-Fragmenten hervorgesagten Protein unbewiesener Existenz, konnte eine mutationsabhängige Modulation der Bindungsstärke an Ataxin-2 im Hefe-2-Hybrid-System gezeigt werden, die sich allerdings mit rekombinanten Proteinen in Koimmunpräzipitationen in Säuger-Zellen nicht reproduzieren ließ. Beide Proteine kolokalisierten am ER, unabhängig von der Länge des pathogenen Polyglutamintraktes-2 in Ataxin. Gegen ein SIM-Peptid hergestellte Antikörper zeigten eine exklusive Expression im menschlichen Gehirn und wurden erfolgreich zum Nachweis eines endogenen Komplexes aus Ataxin-2 und SIM-IR im krankheitsrelevanten Gewebe eingesetzt. Allerdings war es nicht möglich, mittels 5’-RACE und 2D-Gel Massenspektrometrie die potentiellen Isoformen von SIM näher zu charakterisieren. Zur funktionellen Analyse von SIM wurden intrazelluläre Transportvorgänge am Golgi-Apparat untersucht, aber ein Einfluss von SIM / Ataxin-2 ließ sich nicht belegen. Im Fall des Interaktions-Kandidaten TRAP wurden Antikörper hergestellt und mit einem bereits publizierten polyklonalen Antikörper, der TRAP in rattus norvegicus erkennt, verglichen. Die Expressionsmuster zeigten eine identische Expression im Hirn und der Testis. Eine Kolokalisations-Studie wies sowohl TRAP als auch Ataxin-2 am ER nach. Allerdings erwiesen sich alle verwendeten Antikörper als ungeeignet für Immunpräzipitationen, so dass die physiologische Existenz des endogenen TRAP-Ataxin-2 Komplexes nicht bewiesen werden kann. Im Fall des Interaktor-Kandidaten alpha-Actinin-1 ließ sich die Interaktion mit Ataxin-2 sowohl für die endogenen Proteine in der zytosolischen Fraktion von Mausgehirnen als auch für die rekombinanten Proteine in Säuger-Zellen belegen. Beide Proteine konnten im Zytosol und zu kleineren Anteilen an der Plasmamembran kolokalisiert werden. Als verantwortliche Subdomänen im Fall von Ataxin-2 wurde der N-terminale Bereich des Proteins in der Nähe der pathogenen Expansion, im Fall von alpha-Actinin-1 die Aktin-bindende Domäne durch GST-pulldown Analysen identifiziert. Darauf aufbauend wurde in Patienten-Fibroblasten das Aktinzytoskelett und die Dynamik von alpha-Actinin-1 in Anwesenheit der Ataxin-2-Polyglutamin-Expansion untersucht, wobei allerdings kein Unterschied zu erkennen war. Anschließend an die Analyse des Zytoskeletts wurde ein möglicher Einfluss von Ataxin-2 und seiner Polyglutamin-Expansion auf die EGF-Rezeptorinternalisierung studiert, da eine Rolle von Ataxin-2 auf die Endozytose in parallelen Analysen der Arbeitsgruppe wahrscheinlich wurde. Hierzu wurden Säuger-Zellen mit alpha-Actinin-1 transfiziert und die Internalisierung mikroskopisch und mittels Analyse der ERK1/2 Aktivierung verfolgt. Ergänzt wurden die Experimente durch Analysen zur ERK1/2 Aktivierung in Patienten- und Kontroll-Fibroblasten. Entgegen den Erwartungen hatte die Überexpression von alpha-Actinin-1 keinen Einfluss auf die Internalisierung, und bei keinem der Ansätze zeigte sich eine signifikante Veränderung der ERK1/2 Aktivierung. Auch Transkriptombefunde aus SCA2-KO Gewebe, nach denen einzelne Gene des Zytoskeletts oder der Rezeptor-Endozytose ihre Expression ändern, ließen sich nicht mit Konsistenz validieren. Abschließend wurden Experimente zur subzellulären Lokalisation von Ataxin-2 durchgeführt, die eine Lokalisation am ER und nicht wie bisher berichtet am Golgi-Apparat sicherten und Ergebnisse zur Assoziation mit Polyribosomen bekräftigten. Obwohl somit bei allen drei Proteininteraktor-Kandidaten glaubwürdige Befunde für eine Ataxin-2 Bindung sprechen, ist derzeit eine funktionelle Analyse der Assoziationen nicht möglich und eine klare Definition der physiologischen Rolle von Ataxin-2 lässt sich aus diesen Daten nicht ableiten, wenn auch die prominente Lokalisation von Ataxin-2 am rauen endoplasmatischen Retikulum mit einem Einfluss von Ataxin-2 auf die ribosomale Translation und die Sekretion in Cisternen kompatibel ist.
This paper develops a framework for TAG (Tree Adjoining Grammar) semantics that brings together ideas from different recent approaches.Then, within this framework, an analysis of scope is proposed that accounts for the different scopal properties of quantifiers, adverbs, raising verbs and attitude verbs. Finally, including situation variables in the semantics, different situation binding possibilities are derived for different types of quantificational elements.
This paper presents an LTAG analysis of reflexives like himself and reciprocals like each other. These items need to find a c-commanding antecedent from which they retrieve (part of) their own denotation and with which they syntactically agree. The relation between anaphoric item and antecendent must satisfy the following important locality conditions (Chomsky (1981)).
Relative quantifier scope in German depends, in contrast to English, very much on word order. The scope possibilities of a quantifier are determined by its surface position, its base position and the type of the quantifier. In this paper we propose a multicomponent analysis for German quantifiers computing the scope of the quantifier, in particular its minimal nuclear scope, depending on the syntactic configuration it occurs in.
This paper investigates the relation between TT-MCTAG, a formalism used in computational linguistics, and RCG. RCGs are known to describe exactly the class PTIME; simple RCG even have been shown to be equivalent to linear context-free rewriting systems, i.e., to be mildly context-sensitive. TT-MCTAG has been proposed to model free word order languages. In general, it is NP-complete. In this paper, we will put an additional limitation on the derivations licensed in TT-MCTAG. We show that TT-MCTAG with this additional limitation can be transformed into equivalent simple RCGs. This result is interesting for theoretical reasons (since it shows that TT-MCTAG in this limited form is mildly context-sensitive) and, furthermore, even for practical reasons: We use the proposed transformation from TT-MCTAG to RCG in an actual parser that we have implemented.
This paper sets up a framework for LTAG (Lexicalized Tree Adjoining Grammar) semantics that brings together ideas from different recent approaches addressing some shortcomings of TAG semantics based on the derivation tree. Within this framework, several sample analyses are proposed, and it is shown that the framework allows to analyze data that have been claimed to be problematic for derivation tree based LTAG semantics approaches.