Refine
Year of publication
- 2003 (198) (remove)
Document Type
- Doctoral Thesis (198) (remove)
Language
- German (164)
- English (33)
- Portuguese (1)
Has Fulltext
- yes (198)
Is part of the Bibliography
- no (198)
Keywords
- Deutschland (2)
- AFLPs (1)
- Algonquian (1)
- Alternative (1)
- Alvin ; Rechtfertigung <Philosophie> (1)
- Alzheimer Demenz (1)
- Amsterdam (1)
- Ananasgewächse (1)
- Antiproton (1)
- Apoptose (1)
Institute
- Medizin (49)
- Biochemie und Chemie (35)
- Biowissenschaften (27)
- Physik (23)
- Pharmazie (19)
- Geowissenschaften (7)
- Neuere Philologien (5)
- Gesellschaftswissenschaften (4)
- Mathematik (4)
- Sportwissenschaften (4)
Im Rahmen der erarbeiteten Dissertation konnte aufbauend auf naßchemischen und Festphasen-Synthesemethoden eine Vielzahl von pharmakologisch interessanten Verbindungen hergestellt werden, die als Liganden an der Polyamin-Bindungsstelle des NMDA-Rezeptors wirken. Diese wurden mit Hilfe von Radioligand-Bindungsstudien sowohl als agonistisch, invers-agonistisch und partiell invers-agonistisch wirkende Liganden identifiziert. Durch die iterative Entwicklung kleiner Substanzbibliotheken konnten sowohl Liganden mit gesteigerter Affinität, als auch Verbindungen mit erhöhter Selektivität zur Polyaminbindungsstelle synthetisiert werden. Ausgehend von einer Thiophendialkandiamin-Leitstruktur 1 wurden sowohl Strukturderivate mit verkürzten Alkylseitenketten, als auch Verbindungen mit bioisosteren Substrukturen hergestellt. Hierbei konnte analysiert werden, daß das Vorhandensein einer einfachen p-Donor-Substruktur durchaus für eine ausreichende Ligand-Rezeptor-Interaktion sorgt, während ein vollständiges Fehlen der Substruktur nicht toleriert wird. Aufbauend auf der Basis weiterentwickelter Festphasensynthesetechniken konnten Ligandenbibliotheken durch Insertion amidischer Strukturelemente in die C8-Seitenkette erzeugt werden, wobei die Amidfunktionen durch je zwei Aminosäuren mit unterschiedlichen Seitenresten gebildet wurden. Die pharmakologische Wirkung der Liganden ließ sich mit den Aminosäureresten der gekoppelten Aminosäuren korrelieren. Hierbei konnten sowohl invers-agonistische, partiell invers-agonistische, als auch agonistisch wirkende Liganden identifiziert werden. Einer der potentesten inversen Agonisten, die identifiziert wurden, wird durch die Aminosäurekombination (L)-Tryptophan/(L)-Tryptophan 2 mit einem IC50-Wert von 15 µM und einem Sperminfaktor von 4,66 repräsentiert. Speziell bei der ein- oder zweifachen Anwesenheit der Aminosäure (L)-Tryptophan zeigte sich eine Verschiebung zu niedrigeren IC50-Werten, während Liganden mit insertierter Aminosäure (L)-Histidin einen schwächer ausgeprägten inversen Agonisrnus aufwiesen. Ein starker Agonismus wurde bei Verbindungen beobachtet, die mindestens eine basische Aminosäure in Form von Lysin enthielten. Struktur 3 mit der Kombination (D)-Lysin/(L)-Arg repräsentiert mit einem EC50-Wert von 0,97 µM einen der affinsten agonistisch wirkenden Liganden an der Polyamin-Bindungsstelle des NMDA-Rezeptors.
GPCRs and ligand-gated ion channels mediate a great variety of physiological effects within the human brain and periphery. The search for selective ligands at these target sites as pharmacological tools or new drug candidates is of great interest. With increasing knowledge of the great diversity of some receptor families, compounds formerly considered to be selective, turned out to be non-selective with regard to recently identified subtypes, splice variants or additional receptor subunits. This work provides SAR studies by means of radioligand binding experiments at serotonergic h5-HT3A and h5-HT4(b) receptors, histamine hH1 receptors and muscarinic hM1-5 receptors. ...
Die exzessive Bildung und Ablagerung von aggregiertem Amyloid beta-Peptid im Gehirn von Alzheimer Patienten wird allgemein als zentrales Ereignis im Rahmen des Neurodegenerationsprozesses der Alzheimer Demenz betrachtet. Der Amyloid-Stoffwechsel ist dabei in sehr vielfältiger Weise mit dem zellulären Cholesterol-Stoffwechsel verknüpft. Hohe Cholesterolspiegel in spezifischen Membrandomänen wie Lipid-Rafts forcieren sehr wahrscheinlich die zelluläre Produktion als auch die Fibrillogenese von Amyloid beta-Peptid. Umgekehrt schützt ein hoher Membrancholesterol-Gehalt aber auch vor den toxischen Effekten von aggregiertem Aß. Durch Modulation des Cholesterolgehalts von Hirnmembranen mit MßCD und seinen Cholesterol-Komplexverbindungen in vitro sowie mit Statinen in vivo konnten wir zeigen, daß beide Substanzklassen verschiedene membranäre Cholesterol-Pools beeinflussen, die gleichfalls an der Vermittlung zytotoxischer Amyloid- Effekte in unterschiedlicher Weise beteiligt sind. Wir konnten weiterhin erstmals nachweisen, daß sowohl hydrophile als auch lipophile Statine in vivo einen unmittelbaren Einfluß auf die zerebrale Membrancholesterol-Homöostase nehmen und dabei vermutlich membranäre Raft- Strukturen im exofacialen Membranblatt verändern, die favorisierte Orte der zellulären APP-Prozessierung bzw- Amyloidbildung sind. Aus diesem Wirkmechanismus leitet sich womöglich der für bestimmte Statine berichtete neuroprotektive Effekt bei AD in retrospektiven Humanstudien ab, der sich durch eine reine Cholesterolsenkung in spezifischen Bereichen des ZNS nicht erklären läßt. Ob einzelne Statine in ausreichender Konzentration direkt ins Gehirn vordringen und dort teilweise Isoprenoid-abhängige Signalkaskaden induzieren, oder ihre zentralen Effekte indirekt an der BHS vermitteln, ist unklar. Unsere Daten stützen nachhaltig die Hypothese, daß die sporadische Alzheimer Demenz vergleichbar der Niemann-Pick Typ C-Krankheit auf einer Dysregulation der zellulären Cholesterolverteilung beruht, die durch spezifische Risikofaktoren wie das Alter oder den apoE4-Genotyp gefördert wird. Substanzen, die gezielt in Mechanismen der fehlgesteuerten zellulären Lipid-Distribution und Kompartimentierung eingreifen, sind somit potentielle Wirkstoffe in der Therapie der Alzheimer Demenz.
Resistive Plate Chambers (RPCs) are gaseous parallel plate avalanche detectors that implement electrodes made from a material with a high volume resistivity between 10 high 7 and 10 high 12 omega cm. Large area RPCs with 2mm single gaps operated in avalanche mode provide above 98% efficiency and a time resolution of around 1 ns up to a flux of several kHz/cm high 2. These Trigger RPCs will, as an example, equip the muon detector system of the ATLAS experiment at CERN on an area of 3650 m high 2 and with 355.000 independent read out channels. Timing RPCs with a gas gap of 0.2 to 0.3mm are widely used in multi gap configurations and provide 99% efficiency and time resolution down to 50 ps. While their performance is comparable to existing scintillator-based Time-Of-Flight (TOF) technology, Timing RPCs feature a significantly, up to an order of magnitude, lower price per channel. They will for example equip the 176 m high 2 TOF barrel of the ALICE experiment at CERN with 160.000 independent read out cells. RPCs were originally operated in streamer mode providing large signals which simplifies readout electronics and gap uniformity requirements. However, high rate applications and detector aging issues made the operation in avalanche mode popular. This was also facilitated by the development of new highly quenching C2F4H2-based gas mixtures with small contents of SF6. While the physics of streamers is difficult to study, the avalanche mode opened the possibility for a detailed simulation of the detector physics processes in RPCs. Even though RPCs were introduced in the early eighties and have been (will be) used in experiments, there are still disagreements about the explanation of several aspects of the RPC performance. The high efficiency of single gap RPCs would require a large ionization density of the used gases, which according to some authors contradicts measurements. Even in the case of a large ionization density the gas gain has to be extremely large, in order to arrive at the observed RPC efficiency. This raises other questions: A very strong space charge effect is required to explain the observed small avalanche charges around 1 pC. Doubts have been raised whether an avalanche can progress under such extreme conditions without developing into a streamer. To overcome these difficulties, other processes, like the emission of an electron from the cathode, were suggested. Moreover, the shape of measured charge spectra of single gap RPCs differs largely from what is expected from the statistics of the primary ionization and the avalanche multiplication. In this thesis we discuss the detector physics processes of RPCs, from the primary ionization and the avalanche statistics to the signal induction and the read out electronics. We present Monte-Carlo simulation procedures that implement the described processes. While the fundament of the described model and some results were already published elsewhere [1], the subject of this thesis is the implementation of the space charge effect. We present analytic formulas for the electrostatic potential of a point charge in the gas gap of an RPC. These formulas were developed in collaboration with the University of Graz [2] and were published in [3, 4]. The simulation model presented in [1] is completed by the dynamic calculation of the space charge field using these formulas. Since the gas parameters like drift velocity and the Townsend and attachment coefficients depend on the electric field, they are calculated dynamically as well. The functional dependence of these parameters on the field is obtained with the simulation programs MAGBOLTZ and IMONTE. For the primary ionization parameters, we use the values that are predicted by the program HEED. While the described procedure only simulates the longitudinal avalanche development towards the anode of the RPC, we also present more dimensional models that allow a careful study of the transverse repulsive and attractive forces of the space charge fields, and of the consequences for the avalanche propagation. We shall show that the efficiencies of single gap Timing RPCs is indeed explained by the high primary ionization density (about 9.5 /cm as predicted by HEED) and a large effective Townsend coefficient (around 113 /mm as predicted by IMONTE). We show that the space charge field reaches the same magnitude as the applied electric field in avalanches at large gas gain. This strong space charge effect effectively suppresses large values for the avalanche charges. The shape of the simulated charge spectra is very similar to the measurements. Also the simulated average charges are close to the experimental results. RPCs are operated in a strong space charge regime over a large range of applied voltage, contrary to wire chambers. We apply only standard detector physics simulations to RPCs. The performance of Timing and Trigger RPCs is well reproduced by our simulations. The results concerning the space charge effect were presented and discussed at the 'RPC 2001' workshop [5] and on the '2002 NSS/MIC' conference [6].
In meiner exemplarischen Untersuchung stelle ich drei Hauptwerke in den Vordergrund, die jeweils für eine literarische Epoche repräsentativ sind, in denen die Auseinandersetzung um die industriegeprägte Technik eine besondere Schärfe erreicht. In dem biedermeierlich geprägten Fabrikroman "Das Engelchen" von Robert Prutz erscheint 1851 zu Beginn der Industrialisierung die Technik als ein bedrohliches, weil unverständliches Prinzip, das die zunftgeregelte Gesellschaftsordnung und mit ihr das moralische Wertesystem untergräbt. Maschinen werden mit Bildern bedrohlicher urzeitlicher Tiere belegt. Technische Kompetenz wird im Roman nicht dazu genutzt, Maschinen humaner zu gestalten - technische Kompetenz ist hier Mittel, um Technik gezielt außer Kraft zu setzen - indem der Konstrukteur die Maschinen durch Überhitzen zerstört und dabei selbst umkommt. Die reale industrielle Entwicklung ignorierend sieht Prutz eine Lösung darin, zum Agrarsystem zurückzukehren - also ein Leben ganz ohne industrielle Technik. Zu Beginn des 20. Jahrhunderts dann, als sich der erste technologisch bestimmte Weltkrieg abzeichnet, erscheint dieses frühe Lösungsmuster als nicht mehr möglich. Technik wird hier auch als Erweiterung soziokultureller Handlungsmöglichkeiten gesehen, weit stärker zeigt sich in der Dramentrilogie "Die Koralle", "Gas" und "Gas. Zweiter Teil" von Gerhard Kaiser aber das destruktive Potential technischer Anwendungen. Aus dem nutzbringenden Energieträger Gas wird unter staatspolitischer Machtausübung in "Gas II" das Massenvernichtungsmittel Giftgas. Nach Faschismus und Zweitem Weltkrieg, nach einer beispiellos-naiven literarischen Technikverherrlichung vor und während der nationalsozialistischen Gewaltherrschaft aber auch dem gleichzeitigen Warnen vor einer atomaren Katastrophe, rückt nun in der Nachkriegsliteratur die ent-industrialisierte Technik in den Vordergrund. Statt Artefakten beschreibt Max Frisch den technischen Menschen, der sein Denken und Handeln in einem kontinuierlichen Prozeß immer weiter zu optimieren versucht. Ziel ist es, ähnlich wie bei einer Rechenmaschine, Fehler immer weiter auszuschließen. Der Mensch erscheint so als Analogon zur Maschine, der sein Denken lediglich nach rationalen Faktoren hin ausrichtet: Eine psychische Technologik wird im "Homo faber" einer sog. weiblichen Logik gegenübergestellt. In allen drei Werken, die repräsentativ für eine literarische Epoche sind, scheinen sich Technik und Leben auszuschließen. Die Skizzierung eines verantwortungsvollen Umgangs mit der Technik steht für die deutsche Literatur bislang aus.
Die Arbeit thematisiert den postulierten Zusammenhang zwischen Informationstechnologie (IT) und gesellschaftlichem Wandel. Von Interesse ist hier, wie das Paradigma technologiegetriebenen Wandels in unterschiedlichen Gesellschaften aufgenommen wird. Grundlage der vorliegenden Ergebnisse sind ethnographische Forschungen zwischen 1999 und 2002 in der Republik Zypern (Nicosia), Kolumbien (Bogotá), Rumänien (Timisoara), Indien (Mumbai, Pune, Bangalore) und den Vereinigten Staaten (San Francisco, Silicon Valley). Es wurden insgesamt achtzig Experten im IT-Sektor als Mitglieder transnationaler Berufsgemeinschaften in Technologiezentren und Innovationsregionen unter einer vergleichenden Perspektive zur Bedeutung von IT für Wandel in ihren Gesellschaften befragt. Aus kulturanthropologischer Perspektive kann der Begriff Informationstechnologie als Teil eines dichten "konzeptionellen Feldes" betrachtet werden, ausgestattet mit "kulturellen Logiken", in denen Konzepte wie Modernität, Entwicklung und Fortschritt zentral sind. Experten machen Eingaben in "konzeptionelle Konfigurationen" von Informationstechnologie und können als Akteure an "kulturellen Schnittstellen" identifiziert werden, die kulturelle Diskurse über Informationstechnologie als Werkzeug zur gesellschaftlichen Restrukturierung herstellen und transportieren. Unter dem Ansatz von akteursgetriebenen Wandlungsdynamiken können sie als konstitutiv für die Erzeugung kultureller Logiken der Veränderung und der Erneuerung, und damit einer "Kultur des Wandels" gelten. Die Untersuchung versteht sich als Beitrag zum Wissensfortschritt in der Kulturanthropologie zur Analyse von gegenwärtigen Modernisierungs- und Entwicklungsprozessen in gegenwärtigen Gesellschaften unter der Perspektive von Transnationalisierung.
Diese Arbeit besteht aus zwei Teilen. Im ersten Teil wurde der Einfluss der anthropogen verursachten Erhöhung der atmosphärischen Konzentration von Treibhausgasen auf beobachtete Klimaelemente für die letzten 100 bis 120 Jahre untersucht. Die bodennahe Lufttemperatur wurde in unterschiedlicher räumlicher Auflösung und Abdeckung analysiert: Globales und hemisphärische Mittel, 84 flächengleiche Gebietsmittel globaler Abdeckung und 5°x5°-Gitterpunkte für die europäische Region, für die außerdem der auf Meeresniveau reduzierte Luftdruck und der Niederschlag untersucht wurden. Es wurde ein empirisch-statistischer Ansatz verwendet, der die Datenfelder zunächst in ihre räumlichen und zeitlichen Hauptstrukturen zerlegt (EOF-Zerlegung) und nachfolgend Regressionsbeziehungen zwischen den zeitlichen Hauptstrukturen (Zielgrößen) und den potenziellen Einflussgrößen mittels einer Selektionsstrategie (schrittweise Regression) findet, was zu einer Signaltrennung bezüglich der unterschiedlichen anthropogenen sowie natürlichen Einflüsse führt. Durch eine Abschätzung der Überzufälligkeit der Signal-Rausch-Verhältnisse wurden die Signifikanzen der einzelnen Signale berechnet. Als anthropogene Einflussgrößen wurden neben der logarithmierten Treibhausgaskonzentration (GHG) noch die Konzentration von troposphärischem Sulfat (SUL) aus anthropogenen Quellen verwendet. Die natürlichen Einflussgrößen umfassen Schwankungen der Solarkonstanten (SOL), Strahlungsantrieb explosiver Vulkanausbrüche (VUL), den Southern Oscillation Index (SOI, als Maß für das El-Nino-Phänomen) und den Nord-Atlantik-Oszillations-Index (NAO). In der globalen und den hemisphärischen Mitteltemperaturen dominiert das GHG-Signal. Es unterscheidet sich dabei hochsignifikant vom Zufall und von der natürlichen Variabilität und weist eine mittlere Signalamplitude von etwa 0,5 K auf. Das SUL-Signal ist hier, wie auch in den anderen Datensätzen, unplausibel, was an den fragwürdigen verwendeten Einflüssen liegt, welche die zugrundeliegenden Prozesse nicht hinreichend erfassen. In den räumlich differenzierten Datensätzen ist der zufallsartige Anteil in den Zeitreihen generell höher als in den gemittelten, was die Signifikanzen der GHG-Signale herabsetzt. In Europa ist vor allem im Winter die NAO dominant, was dort zusätzlich den Nachweis des GHG-Signals erschwert. Im europäischen Luftdruck und Niederschlag werden zwar ebenfalls GHG-Signale gefunden, die jedoch aufgrund der hohen Rauschkomponente nur sehr schwach signifikant sind. Des Weiteren ist die Wirkung der anthropogenen Erhöhung der Treibhausgase auf diese Klimaelemente indirekter als bei der Temperatur, wodurch die statistische Ähnlichkeitsbetrachtung hier eventuell auch natürlich verursachte Trendkomponenten irrtümlich als anthropogen selektiert. Im zweiten Teil der Arbeit wurden Witterungseinflüsse auf Ernteerträge in der BRD (West) von 1950-1998 untersucht. Die Ertragsdaten der 21 untersuchten Fruchtarten sind mit ausgeprägten Trends behaftet, die wahrscheinlich zum weitaus überwiegenden Teil durch gewollte Ertragssteigerungen verursacht worden sind. Diese sog. Züchtungsvarianz wurde daher mittels eines Gaußschen Tiefpassfilters von der interannulären Variabilität getrennt, welche Umwelteinflüssen zugeordnet wird. Hierdurch können keine Wirkungen langfristiger Klimatrends auf die Erträge untersucht werden. Als meteorologische Parameter wurden Bundeslandmittel der bodennahen Lufttemperatur und des Niederschlages in monatlicher Auflösung verwendet. Die quadrierten Klima- Zeitreihen sind ein Maß für extreme Anomalien. Durch Bildung von Produkten bzw. Quotienten aus Temperatur und Niederschlag erhält man Zeitreihen, welche die kombinierte Wirkung beider Klimaelemente beschreiben. Die Witterungsabhängigkeiten der Erträge wurden durch Korrelation und Regression (schrittweise Regression) mit den meteorologischen Parametern quantifiziert. Hierbei zeigte sich unter anderem ein negativer Einfluss feucht-warmer April-Anomalien auf Getreide-Erträge. Des Weiteren konnten Ernteeinbrüche verschiedener Fruchtarten mit extrem trocken-heißen Witterungsperioden im Sommer in Verbindung gebracht werden. Korrelationen und Regressionskoeffizienten von quadratischen Einflussreihen sind fast ausschließlich negativ. Somit wirken sich vor allem extreme Anomalien der meteorologischen Parameter ertragsmindernd aus. Mit Hilfe einer Monte-Carlo-Simulation konnte die Überzufälligkeit der durch die meteorologischen Parameter erklärten Varianzen an den Erträgen qualitativ bewertet werden. In etwa 40% der untersuchten Beziehungen ist ein Witterungsein deutlich sichtbar. Des Weiteren ist eine Untersuchung der Veränderungen (Intensität und Häufung) extremer Witterungen, vor allem sommerlicher Hitzeperioden, nötig, um den Klima-Impakt auf deutsche Ernteerträge besser abzuschätzen. Auch ist die Frage noch offen, ob langfristige anthropogene Klimaänderungen, wie sie hier detektiert worden sind, mit Änderungen des Extremwertverhaltens verknüpft sind.
This thesis presented the measurement of antideuteron and antihelium-3 production in central AuAu collisions at V SNN = 200 GeV center-of-mass energy at RHIC. The analysis is based on STAR data, about 3 x 10 high 6 events at top 10% centrality. Within the data sample a total number of about 5000 antideuterons and 193 antihelium-3 were observed in the STARTPC at mid-rapidity. The specific energy loss measurement in the TPC provides antideuteron identification only in a small momentum window, antihelium-3 however can be identified nearly background free with almost complete momentum range coverage. Following the statistical analysis of the hadronic composition at chemical freeze-out of the fireball, the antinuclei abundances were analyzed in terms of the same statistical description. Now applied to the clusterization of the fireball, the statistical analysis yields a fireball temperature of (135+-10) MeV and chemical potential of (5+-10) MeV at kinetic freeze-out. In the same way as the hadronization, the clusterization process is phase-space dominated and clusters are born into a state of maximum entropy. The large sample of observed antihelium-3 allowed for the first time in heavy-ion physics to calculate a differential multiplicity and invariant cross section as a function of transverse momentum. As expected, the collective transverse flow in the fireball flattens the shape of the transverse momentum spectrum and leads to the high inverse slope parameter of (950+-140) MeV of the antihelium-3 spectrum. With the extracted mean transverse momentum of antihelium-3, the collective flow velocity in transverse direction could be estimated. As the average thermal velocity is small compared to the mean collective flow velocity for heavy particles, the mean transverse momentum of antihelium-3 by itself constrains the flow velocity. Here, a simple ideal-gas approximation was fitted to the distribution of the mean transverse momentum as a function of particle mass and provided direct access to the kinetic freeze-out temperature and the flow velocity. A concept, which is complementary to the combined analysis of momentum spectra and two-particle HBT correlation methods commonly used to extract these parameters, and a cross check for the statistical analysis. The upper limit for the transverse collective flow velocity from the antihelium-3 measurement alone is v flow <= (0.68+-0.06)c, whereas the ideal-gas approximation yields a temperature of (130+-40) MeV and v flow = (0.46+-0.08)c. The results indicate, that the kinetic freeze-out conditions at SPS and RHIC are very similar, except for a smaller baryon chemical potential at RHIC. The simultaneous inclusive measurement of antiprotons allowed to study the cluster production in terms of the coalescence picture. With the large momentum coverage of the antihelium-3 momentum spectrum, the coalescence parameter could be calculated as a function of transverse momentum. Due to the difference between antiproton and antihelium-3 inverse slopes, increases with increasing transverse momentum - again a direct consequence of collective transverse flow. Both B2 and B3 follow the common behavior of decreasing coalescence parameters as a function of collision energy. According to the simple thermodynamic coalescence model, this indicates an increasing freeze-out volume for higher energies and is confirmed by the interpretation of the coalescence parameters in the framework of Scheibl and Heinz. Their model includes a dynamically expanding source in a quantum mechanical description of the coalescence process and expresses the coalescence parameter as a function of the homogeneity volume V hom accessible also in two-particle HBT correlation analyzes. The values for the antideuteron and antihelium-3 results agree well with the homogeneity volume from pion-pion correlations, but do not seem to follow the same transverse mass dependence. A comparison with proton-proton correlations may clarify this point and provide an important cross check for this analysis. Compared to SPS the homogeneity volume increases nearly by a factor of two. The analysis of the antinuclei emission at RHIC allowed to study the kinetic freeze-out of the created fireball. The results show, that the temperature and mean transverse velocity in the expanding system does not change significantly, when the collision energy increases by one order of magnitude. Only the source volume, i.e. the homogeneity volume, increases. That leaves open questions for the theoreticians to the details of the system evolution from the initial hot and dense phase - the initial energy density is a factor of two to three higher at RHIC than at SPS - to the final kinetic freeze-out with similar conditions. At the same time, the results are important constraints for the theoretical descriptions. The successful implementation of the Level-3 trigger system in STAR opens the door for the measurement of very rare signals. Indeed, in the coalescence physics perspective, the first observations of anti-alpha 4 He nuclei and antihypertritons 3/Delta H will come within the reach of STAR, in addition to a high statistics sample of antihelium-3.
Zur Phänomenologie der Obduktionen im Zentrum der Rechtsmedizin in Frankfurt am Main 1993 - 1995
(2003)
Das Sektionsgut des Zentrums der Rechtsmedizin in Frankfurt am Main der Jahre 1993 bis 1995 wurde anhand der entsprechenden Sektionsprotokolle und -bücher mit Hilfe eines eigens für den rechtsmedizinischen Bereich entwickelten Datenerfassungsprogrammes erfasst und ausgewertet (MÜLLER und BRATZKE, 1993). Im Untersuchungszeitraum wurden insgesamt 4115 Leichen in das Zentrum der Rechtsmedizin eingeliefert, von denen 79,5% (3271 Leichen) obduziert wurden. Bezüglich der Geschlechtsverteilung des gesamten Sektionsgutes betrug der Anteil der Männer 66% und der Frauen 34%. Sowohl bei den natürlichen Todesfällen (62,3%) als auch bei den nichtnatürlichen Todesfällen (70,5%) überwog der Anteil der Männer deutlich. Das Durchschnittsalter aller Obduzierten lag bei 50,7 Jahren. Im Auftrag der Staatsanwaltschaften Frankfurt am Main, Darmstadt mit der Zweigstelle Offenbach, Hanau und Wiesbaden wurden innerhalb der drei Jahre 2031 Leichen obduziert. In 937 Fällen fand eine Feuerbestattungssektion und in 278 Fällen eine Verwaltungssektion statt. Neun Obduktionen wurden im Auftrag einer Versicherung und 16 Obduktionen im Auftrag von Privatpersonen durchgeführt. 53 Todesfälle fielen unter die Kategorie "Sonstiges". Hierunter wurden sowohl 44 "Irrläufer", die zunächst in die Rechtsmedizin eingeliefert wurden, eigentlich aber in der Pathologie seziert werden sollten, sieben amerikanische Staatsbürger, die nach Kenntnis der Nationalität ohne Obduktion oder Besichtigung den amerikanischen Stellen überantwortet wurden, und zwei Fälle von Organteilen zusammengefaßt. 791 Leichen wurden besichtigt. In 50,7% (1660) der Fälle wurde ein nichtnatürlicher Tod, in 43,8% (1432) ein natürlicher Tod festgestellt, in 5,1% (168) blieb die Todesart auch nach der Obduktion unklar. Unter den nichtnatürlichen Todesfällen befanden sich 333 Verkehrstote, 75% waren Männer. In 35% der Fälle handelte es sich bei den Unfallopfern um Fußgänger, die durch einen Pkw, ein anderes Kfz oder ein Schienenfahrzeug erfaßt und getötet wurden. 28% der Todesfälle waren Fahrer und 11% Insassen eines Pkw. Weitere 11% kamen als Radfahrer und 9% als Motorradfahrer ums Leben. 49,5% der Verkehrsunfallopfer starben an den Folgen eines Polytraumas und bei 31% führte ein isoliertes Schädelhirntrauma zum Tode. Die Selbsttötungen stellten mit 30% (492 Fälle) die häufigste Art des nichtnatürlichen Todes dar. Der Suizid durch Erhängen bzw. Strangulation war die meist gewählte Methode (28%), gefolgt vom Tod durch "stumpfe Gewalt" bedingt Sprung aus dem Fenster oder vor einen Zug (24%). Bei 404 Todesfällen handelte es sich um einen Unglücksfall. Hier standen die sog. Drogentoten mit 239 Todesfällen deutlich im Vordergrund. Anhand der rückläufigen Tendenz der Anzahl der Drogentoten werden Chancen und Möglichkeiten einer integrativen gegenüber einer restriktiven Drogenpolitik deutlich. 80 Personen kamen bei einem Haushaltsunfall und 45 Personen, unter ihnen eine Frau, bei einem Arbeitsunfall ums Leben. In den Jahren 1993 bis 1995 wurden 243 Personen Opfer eines Tötungsdeliktes. Der Anteil von 39% Frauen entspricht dabei dem bundesweiten Durchschnitt. Die Zahl der Tötungsdelikte nahm im Untersuchungszeitraum um 15% zu, wobei der weibliche Anteil relativ konstant blieb. Der Vergleich des Sektionsgutes mit den Verstorbenen der Stadt Frankfurt am Main zeigte, daß im Betrachtungszeitraum durchschnittlich 7,2% der verstorbenen Frankfurter Bürger im Zentrum der Rechtsmedizin obduziert wurden. Die Obduktionsfrequenz lag bei den natürlichen Todesfällen bei 4,5% und bei den nichtnatürlichen Todesfällen bei 50,4%. Die vorliegenden Ergebnisse zeigen Enwicklungstendenzen und Auswirkungen bestimmter Maßnahmen in Bereichen wie Straßenverkehr und Drogenpolitik auf und können für andere epidemiologische Untersuchungen zum Vergleich herangezogen werden, ebenso kann durch systematische Sektion ein "Frühwarnsystem" etabliert werden, das zu rechtzeitigen präventiven Maßnahmen Anlass gibt.