Refine
Year of publication
- 2005 (252) (remove)
Document Type
- Doctoral Thesis (252) (remove)
Has Fulltext
- yes (252)
Is part of the Bibliography
- no (252)
Keywords
- Gentherapie (3)
- Messung (3)
- Nanopartikel (3)
- ABC-Transporter (2)
- Apoptose (2)
- Arzneimittel (2)
- Ciclosporin (2)
- Dirac-Gleichung (2)
- Dirac-Vakuum (2)
- Doxorubicin (2)
Institute
- Medizin (68)
- Biochemie und Chemie (46)
- Pharmazie (31)
- Biowissenschaften (30)
- Physik (27)
- Geowissenschaften (7)
- Philosophie (7)
- Erziehungswissenschaften (6)
- Biochemie, Chemie und Pharmazie (5)
- Geschichtswissenschaften (5)
Während sich das deutsche Erziehungs-, Bildungs- und Sozialsystem durch Achtung und Expansion „institutioneller Vielfalt“ auszeichnet, wird in Spanien spätestens seit 1990 mit unterschiedlicher Intensität, je nach Regierung, ausgehend von der LOGSE Reform an einer „Schule für alle“ gearbeitet. Es werden vergleichsweise wenige Kinder in Sondereinrichtungen beschult. Die Strategien und die dahinter liegenden Vorstellungen, wie Partizipation zu realisieren sei, waren Ende letzten Jahrhunderts in beiden Ländern deutlich verschieden. Die in der Dissertation vorgestellten Daten zeigen jedoch, dass zu wenige Kinder die Kompetenzen für eine gegenwärtige und zukünftige persönlich und wirtschaftlich erfolgreiche Lebensführung erwerben. Zentral für die Arbeit ist die von Urie Bronfenbrenner entwickelte systemökologische Theorie der menschlichen Entwicklung. Im Kern geht es bei dieser Theorie immer um die Suche, das Finden und Gestalten optimaler Bedingungen für menschliche Entwicklung. Die Fragestellung der Arbeit ist, wie in Deutschland und Spanien, aber auch wie Professionelle, interdisziplinär die Aufgabe der Integration und Partizipation im Rahmen ihrer Vorgaben bewältigen. Die Arbeit ist in zwei große Teile unterteilt. Die ersten Kapitel sind eine Sammlung von Daten, Theorien, Praxen, Diskussionen und geschichtlichen Entwicklungen, die die schulische Integration von Kindern mit Behinderungen bzw. mit schwierigen Lebenslagen, darstellt. Ab Kapitel sieben wird dann mit Methoden der qualitativen Sozialforschung nach Ressourcen und Kompetenzen, die in Spanien wie in Deutschland vorliegen bzw. entwickelt werden müssen gesucht, um auch Kindern mit Schwierigkeiten eine für sie persönlich erfolgreiche Bildung zur ermöglichen. Nach einem Einführungskapitel werden im zweiten Kapitel Theorien und Modelle der Integrationspädagogik und der an ihr beteiligten Disziplinen diskutiert. Das folgende Kapitel stellt ausgewählte Studien vor, die sich mit Lern- und Lebenslagen von Kindern befassen, denn der gesellschaftliche wie der wissenschaftliche Blick auf die Kindheit hat sich gewandelt. Ein integratives bzw. inklusives Erziehungs- und Bildungssystem wäre eine passende Antwort auf den Wandel. Das vierte Kapitel gibt einen Einblick in das bundesdeutsche Bildungssystem und stellt statistische Daten zur integrativen Beschulung in den Bundesländern vor. Das fünfte Kapitel befasst sich mit dem spanischen Bildungssystem. Das starke Engagement der Katholischen Kirche im 19. und auch noch im 20. Jahrhundert, die Francozeit und die Transición sind die Basis, auf der in den 90 ziger Jahren des letzten Jahrhunderts die, auf 10 Jahre angelegte LOGSE Reform geplant und teilweise umgesetzt wurde. Diese als top-down zu bezeichnende systemische Reform, wird mit ihren Elementen der integrativen und der kompensatorischen Erziehung dargestellt. Die Beschreibung der spanischen Reformentwicklungen endet im Jahr 2004. Der empirische Teil der Arbeit beginnt im Kapitel sechs mit Gedanken zur Qualitativen Sozialforschung. Im Kaptitel sieben wird die Gegenstandsnahe Theoriebildung vorgestellt. Das achte Kapitel befasst sich mit dem Zirkulären Dekonstruieren. Im neunten Kapitel werden die deutschen und die spanischen Interviewpartner in ihrer professionellen Expertenrolle als Grundschullehrerin, Sozialarbeiterin, Erziehungswissenschaftler, Psychologe, Unterstützungslehrerin, Physiotherapeut und Förderschullehrerin vorgestellt. Sechs Interviews fanden Ende 1999, also zu einer Zeit in der die LOGSE Reform bereits fast abgeschlossen sein sollte, statt. Das siebte Interview mit der Förderschullehrerin wurde 2001 geführt. Verständigung und Bewertung konnten aus den Kategorien der Interviews als wichtige Ressourcen für integrative schulische Arbeit erkannt werden. Im Kaptitel zehn wird der ökosystemische Ansatz vertieft dargestellt. Im elften Kapitel werden dann systematisch die Definitionen der Ökosystemischen Theorie auf die Lebensbereiche, die ein Kind betreffen, bzw. die herausgearbeiteten Kategorien angewendet. In diesen Lebensbereichen werden interdisziplinär und über die Ländergrenzen hinweg, die Kategorien diskutiert, um zu Aussagen über gute Entwicklungsbedingungen zu kommen. Die Kapitel zwölf bis vierzehn verbinden die Ergebnisse der Auswertung mit den zusammengetragenen Daten und Fakten zur Situation in Deutschland und Spanien. Als förderlich für die Integration, die auf allen Systemebenen angelegt sein sollte, werden beispielhaft folgende Kriterien beschrieben: eine integrative Grundhaltung, ein moderat konstruktivistischer Unterricht, die Anerkennung und Förderung aller Kompetenzen der Kinder, die Arbeit mit dem entwicklungsfördernden Potential, Kontinuität in den Beziehungen, Strukturen und Räumen, Bestreben nach müheloser Kommunikation. Seitenzahl: 400 Abbildungen: 55 Tabellen: 52
Im Rahmen der vorliegenden Arbeit werden zum ersten Mal die Ökologie, Morphologie und Systematik von Pilzen untersucht, die assoziiert mit Haut- und Nagelläsionen von ambulanten Patienten sowie von Patienten dermatologischer Praxen in der Provinz Chiriquí im Westen Panamas nachgewiesen wurden. Die Pilze werden klassifiziert nach dem klinischen D-H-SSystem von Rieth und entsprechend ihrer Position im phylogenetischen System der Pilze. Die Morphologie der verschiedenen Arten wird dokumentiert auf der Grundlage von Kulturen und lichtmikroskopischer Untersuchungen durch Beschreibungen sowie Zeichnungen und Fotographien charakteristischer Strukturen. Die Pathogenität der einzelnen Pilzstämme wurde nicht nachgewiesen, sondern auf der Grundlage von Angaben aus der Literatur diskutiert. Außerdem lieferte die Literatur Daten zum Vorkommen der Pilze an Pflanzen und anderen Substraten in der Natur.
In Panama wurden zahlreiche klinische Proben untersucht, von denen ca. 100 Pilzstämme nach Deutschland geschickt wurden. Dort konnten 80 Stämme weiter kultiviert und detailliert untersucht werden. Mehr als 22 verschiedene Arten wurden beobachtet, die 17 verschiedenen Gattungen angehören. Sie entsprechen drei verschiedenen Arten von Dermatophyten, mindestens drei Arten von Hefen und 16 verschiedenen Schimmel- oder sonstigen Pilzarten.
Mit Ausnahme von Hormographiella verticillata wurden ausschließlich imperfekte Stadien beobachtet, und zwar überwiegend von verschiedenen Vertretern der Ascomycota: Dothideales: Scytalidium dimidiatum (6 Stämme), Eurotiales: Aspergillus spp. (4), Paecilomyces lilacinus (2), Penicillium sp. (2), Hypocreales: Fusarium lichenicola (3), F. solani (4), F. subglutinans (1), Microascales: Scopulariopsis brevicaulis (2), Onygenales: Trichophyton mentagrophytes (2), T. rubrum (9), T. tonsurans (7), Ophiostomatales: Sporothrix schenckii (1), Pleosporales: Curvularia geniculata (1), Polystigmatales: Colletotrichum gloeosporioides (1), Sordariales: Nigrospora sphaerica (1), Saccharomycetales: Candida spp. (12), Geotrichum candidum (8), incerte sedis: Pestalotiopsis cf. tecomicola (1), Tritirachium oryzae (1). Vertreter der Basidiomycota sind: Agaricales: Hormographiella verticillata bzw. Coprinellus domesticus (3), Polyporales: Unbekannter Basidiomycet (1), Trichosporonales: Trichosporon cutaneum (6).
Im Rahmen dieser Studie waren Schimmelpilze die am häufigsten bei Haut- und Nagelläsionen angetroffenen Pilze. Unter diesen waren Fusarium-Arten und Scytalidium dimidiatum besonders häufig vertreten. Candida-Arten wurden ebenfalls oft isoliert. Die wichtigste Art unter den Dermatophyten war Trichophyton rubrum. Die prozentualen Anteile der verschiedenen Gruppen entsprechen gut den von anderen Autoren aus anderen Regionen publizierten Ergebnissen. Dies erklärt sich aufgrund der ökologischen Tatsache, dass die Sporen der Schimmelpilze fast überall in der Natur vorhanden sind und diese Pilze viele verschiedene Substrate nutzen können. Candida-Arten gehören zur normalen Flora des Menschen, können aber bei immunodefizienten Patienten, Diabetikern u.a. schwere Haut- und Schleimhautinfektionen, sowie Organerkrankungen verursachen. Dermatophyten sind als Krankheitserreger oberflächlicher Hautmykosen bekannt.
Zum ersten Mal wird das Vorkommen von Hormographiella verticillata in Amerika nachgewiesen. Dieses imperfekte Stadium eines Basidiomyceten hat in Kultur Fruchtkörper gebildet, die als Coprinellus domesticus bestimmt wurden. Damit wurde zum ersten Mal die Anamorph-Teleomorph-Verbindung zwischen diesen beiden Arten festgestellt, die durch eine molekular-phylogenetische Analyse von LSU rDNA (große Untereinheit der ribosomalen DNA) unterstützt wird. Für diese Analyse wurden andere Stämme und Genbank-Daten zum Vergleich herangezogen.
In den Kulturen von H. verticillata entstehen vor der Entwicklung der Fruchtkörper asexuelle sterile Hyphen, die als Ozonium-Stadium bezeichnet werden können. Zum Vergleich wurden Herbarbelege von verschiedenen Arten dieser Gattung bearbeitet. Die Arten sind morphologisch nicht unterscheidbar, weshalb vorgeschlagen wird, nur den Gattungsnamen zur Bezeichnung des entsprechenden Entwicklungsstadiums zu benutzen.
Es war nicht möglich, aufgrund morphologischer Merkmale den Stamm des Unbekannten Basidiomyceten zu bestimmen. Erst eine molekular-phylogenetischer Analyse von LSU rDNA mit Vergleichssequenzen aus der Genbank zeigte, dass der Pilz nahe verwandt ist mit Vertretern der Polyporales.
In der vorliegenden Arbeit soll der Ursprung der typischen Hirn-Gliederung bei Wirbeltieren (die sich auch beim Gehirn des Menschen findet) untersucht werden. Es wurde der Versuch gemacht, die evolutive Entwicklung des Wirbeltier-Gehirns bis zu einem sehr frühen Zeitpunkt zurückzuverfolgen. Zu diesem Zweck wurde das vordere (rostrale) Ende des Zentralnervensystems (ZNS) des adulten Lanzettfisches (Branchiostoma lanceolatum, B. lanceolatum), einem Verwandten der Wirbeltiere, mit verschiedenen histologischen Methoden (diverse Färbungen, Tracing, Rasterelektronenmikroskopie) untersucht. Mittels der gewonnenen Daten konnten die Zytoarchitektur und die topografischen Beziehungen der Zellgruppen in diesem Bereich beschrieben werden. Der histologische Aufbau des erwachsenen ZNS gab Hinweise darauf, wie sich einzelne Strukturen im larvalen ZNS durch die Metamorphose verändern. Embryonale Genexpressions-Muster, die bei Wirbeltieren bestimmte, morphologisch unterscheidbare Abschnitte des Gehirns charakterisieren, finden sich auch bei der Branchiostoma-Larve. Ihnen konnte ein charakteristisches Muster im histologischen Aufbau des ZNS bei erwachsenen Tieren zugeordnet werden. Die Unterteilung und die gefundenen Zellgruppen zeigen teilweise Gemeinsamkeiten zu Strukturen im Wirbeltier-Gehirn, eine direkte Homologisierung ist allerdings problematisch. Es wurde daher auf kladistischer Grundlage der Versuch gemacht, über eine Zusammenschau von Merkmalen das ancestrale ZNS des letzten gemeinsamen Vorfahren von Lanzettfischen und Wirbeltieren zu rekonstruieren.
Die Studie befasst sich mit Formenschatz, Sedimenten und Böden des Komadugu-Flusssystems. Neben einer grundsätzlichen Inventarisierung des bislang kaum erforschten Landschaftskomplexes lag der Schwerpunkt auf der Rekonstruktion von Systemveränderungen im Kontext des spätquartären Klimawandels. So sind die schmalen rezenten Auen teilweise in eine weitgespannte reliktische Überschwemmungsebene eingeschnitten, die möglicherweise synchron zu ehemaligen früh- bis mittelholozänen Tschadsee-Maxima bei Rückstau der Flüsse außerhalb der prominenten Bama-Beach-Ridge-Begrenzung entstand. Während die rezente Aue ein deutlich ausgeprägtes Mäandersystem aufweist, liegen in der Paläoschwemmebene komplexere fluviodeltaische Strukturen mit fließenden Übergängen der klassischen Gerinnebettmuster vor, deren häufige sprunghafte Verlagerung unter Ausräumung und Wiederverfüllung sich auch in der fluvialen Architektur des älteren Alluviums widerspiegelt. Bei Korngrößenanalysen ergab sich eine generelle Dominanz gut sortierter, feinsandiger Substrate. Darüber hinaus reflektieren die rezenten Alluvionen mit schluffigen Hochflut-, feinsandigen Uferbank- und mittel- bis grobsandigen Flussbettsedimentabfolgen sowie feinsandigen bis tonigen Gerinnefüllungen an Altarm-Standorten die fraktionierte Sedimentation in der modernen Aue. Demgegenüber sind die gradierten, feinsandigen Gerinnebett- und gerinnebettnahen Ablagerungen der Terrasse mit ihren äolisch überprägten Tops recht uniform ausgeprägt. Es zeichnen sich jedoch bestimmte Körnungsprovinzen ab, indem im Westen vor allem Feinstsande und Grobschluffe, in östlicher Richtung dann zunehmend sehr gut sortierte grobe Feinsande vertreten sind, wobei letztere aufgearbeitete lokale Dünensande repräsentieren. Der enge genetische Zusammenhang zeigt sich auch in Kornformen, Oberflächenbeschaffenheit und Schwermineralbestand der Sande, die von einer generellen Überlagerung der Transportmechanismen und polyzyklischen Aufarbeitung künden. Die Klimaxböden der östlichen Terrasse stellen offenbar luvic Arenosols/weakly leached ferruginous tropical soils dar, wenngleich aufgrund jüngerer Translokationsprozesse, ebenso wie im Westteil, lithomorphe Braunerden vorherrschen. Die Mehrzahl der durchgeführten OSL-Datierungen weist auf die Sedimentation des älteren Alluviums zur Wende des Pleistozäns zum Holozän hin. Sie markiert den geomorphologisch besonders aktiven Umbruch von ariden zu humiden Bedingungen, der im Einzugsgebiet des Komadugu spätestens gegen 12,5 ka erfolgte. Damit steht das fluviale Verhalten im ehemaligen Unterlaufbereich des Yobe-Systems in einem klaren Gegensatz zu einem für den trockenzeitlich-feuchtzeitlichen Übergang oftmals diagnostizierbaren morphodynamischen Wandel von instabilen zu stabilen Verhältnissen. Die zahlreichen wenig festgelegten Paläofließrinnen und feinsanddominierte Lithofazies als mutmaßliches Resultat einer durch Schichtfluten ausgelösten Dünenpediplanation künden von einem schwankendem, teilweise hoch energetischen Abflussverhalten, wie es am ehesten unter einem längerfristig wechselfeuchten Klimaregime vorgeherrscht haben könnte. Demgegenüber war die fluviale Formung zur Zeit der vollhumiden Maxima des Früh- und Mittelholozäns stark eingeschränkt, wobei es weder zu einer großflächigeren Sedimentation quasi-lagunaler Fazies noch zu kräftigeren Bodenbildungen kam. Die Einschneidung der rezenten Aue fand schließlich im Anschluss an das mittelholozäne Optimum bei Einsatz einer fortschreitenden Aridisierung statt.
Die posturale Instabilität wird bei Morbus Parkinson neben Rigor, Tremor und Bradykinese als viertes Kardinalsymptom angeführt (GERLACH et al. 2003). Diese Störung der Gleichgewichtskontrolle führt im Vergleich zu gleichaltrigen Personen ohne neurologische Erkrankung zu einem erhöhten Sturzrisiko und zu Einschränkungen in der Mobilität (WOOD et al. 2002). JANKOVIC et al. (1990) beschreiben eine schlechtere Prognose für den allgemeinen Krankheitsverlauf, wenn eine markante posturale Instabilität vorliegt. Die posturale Instabilität gehört daher zu den Hauptfaktoren, die die Lebensqualität der Patienten beeinträchtigen (COMELLA et al. 1995, WADE et al. 2003, SCHRAG et al. 2000). Im Klinikalltag wird die posturale Instabilität nach wie vor mit Verfahren erfasst, denen es an normativen Daten mangelt und die nur unzureichend zu standardisieren sind, z. B. der so genannte Retropulsionstest (BLOEM et al. 1998 und MARCHESE et al. 2003). Nach ROCCHI et al. (2002) zeigt dieser Test nur eine schwache Sensitivität für die Erfassung von posturalen Störungen. Daraus abgeleitet lautete das erste Untersuchungsziel der vorliegenden Arbeit: - Evaluierung eines biomechanischen Diagnoseverfahrens, das die Gleichgewichtsregulation bei Morbus Parkinson unter dynamischen Bedingungen erfasst und auch im Klinikalltag eingesetzt werden kann. Zum Einfluss von Vibrationen und mechanischen Ganzkörperschwingungen liegen inzwischen zahlreiche Studien vor, die eine stimulierende Wirkung auf reflektorische Kontraktionsabläufe beschreiben (vgl. zur Übersicht HAAS et al. 2004a); es existieren dagegen kaum Ergebnisse zu den Effekten mechanischer Ganzkörperschwingungen in der Trainingstherapie. Das zweite Untersuchungsziel lautete dementsprechend: - Evaluation einer neuen Trainingsmaßnahme mittels randomisierter mechanischer Ganzkörperschwingungen zur Therapie der posturalen Instabilität bei Morbus Parkinson. An der Untersuchung nahmen 52 Patienten mit der Diagnose idiopathisches Parkinson-Syndrom teil, die zur Zeit der Studie in der Parkinsonklinik in Bad Nauheim therapiert wurden. Die Zuordnung der Probanden erfolgte randomisiert in eine Experimental- und in eine Kontrollgruppe. Die sensomotorische Gleichgewichtsregulation wurde in drei standardisierten Testbedingungen erfasst. In zwei Tests wurde die posturale Stabilität in einer parallelen Fußstellung und in einer Schrittstellung überprüft (die Messdauer betrug jeweils 32 Sekunden pro Versuch). In einem weiteren Test wurde ein posturaler Reflex auf einen standardisierten Störreiz evaluiert. Die kinematischen Messungen erfolgten auf einer federgelagerten, zwei-dimensional leicht auslenkbaren Standfläche. Es wurden in jeder Testbedingung drei Versuche vor dem Treatment bzw. der Pause für die Kontrollgruppe (Pre-Tests) und drei im Anschluss (Post- Tests) durchgeführt. Das Studiendesign fokussierte somit die Erfassung von adhoc Effekten und nicht von Langzeitadaptationen. Zwei Beschleunigungsaufnehmer zeichneten die Bewegungen der Standfläche auf, wobei der erste die Beschleunigungen der Plattform in Richtung anteriorposterior (ant-post) und der zweite in Richtung medial-lateral (med-lat) erfasste. Zur Quantifizierung der posturalen Stabilität wurden die Auslenkungen der Standfläche bestimmt. Beim posturalen Reflex galt die initiale Dämpfung der Standflächenschwingungen, die mit Hilfe des Abklingkoeffizienten bestimmt wurde, als Auswertungsparameter. Zudem wurde die elektromyographische Muskelaktivität mit bipolaren Oberflächenelektroden an den folgenden antagonistisch wirksamen Muskeln des rechten Unterschenkels erfasst: - M. Tibialis anterior - M. Gastrocnemius (pars lateralis) Zur Quantifizierung der elektromyographischen Aktivität wurde das Integral des gleichgerichteten EMGs berechnet. Beim posturalen Reflex wurde zusätzlich die Reaktionszeit des M. Tibialis bestimmt, d. h. die Verzögerung der muskulären Antwort auf den mechanischen Störreiz. Das Treatment bestand aus mechanischen Ganzkörperschwingungen, die das medizinische Trainingsgerät SRT-medical® (Firma Human mobility, Frankfurt) mit einer gewissen Zufallsgenerierung produziert. Die Vibrationen erfolgen nicht gleichmäßig bzw. sinusförmig, sondern variieren permanent um eine eingestellte Frequenz (+/- 1Hz). Die Schwingungscharakteristik beruht auf dem Phänomen der stochastic resonance. Das Treatment bestand aus fünf Serien à eine Minute mit einer Frequenz von 5-6Hz. Die Hauptergebnisse der vorliegenden Studie sind - die Bestätigung, dass mit der vorgestellten dynamischen Messung der Gleichgewichtsregulation und den hierfür ausgewählten Standpositionen die posturale Stabilität bei Parkinson-Patienten quantitativ und reliabel erfasst werden kann. Diese Ergebnisse korrelieren nicht mit den klinischen Daten des Retropulsionstests. Ferner konnte in einem weiteren Teil der Untersuchung aufgezeigt werden, dass - das Treatment der randomisierten mechanischen Ganzkörperschwingungen die Gleichgewichtskontrolle sowohl bezüglich der posturalen Stabilität als auch hinsichtlich des posturalen Reflexes spontan verbessern kann. In der Überprüfung der posturalen Stabilität ist der Nachweis dieses Effektes aber abhängig von der eingesetzten Messbedingung bzw. von der Standposition. Die kinematischen Ergebnisse konnten allerdings statistisch nicht mit den elektromyographischen bestätigt werden. Die analysierten Effekte werden in der Diskussion mit folgenden Erklärungsansätzen interpretiert: - eine Modifizierung der neuromuskulären Koordination - eine Reduktion des Parkinson-typischen Rigors - eine mögliche Modifikationen der Regulation auf kortikaler und subkortikaler Ebene und - eine Verschiebung der selektiven Aufmerksamkeit auf die Anforderungssituation bzw. eine optimierte Informationsselektion. Ferner wird eine Verbesserung der Propriozeption als Treatmenteffekt ausgeschlossen. Einen besonderen Stellenwert erhalten die aufgezeigten Treatmenteffekte, wenn man berücksichtigt, dass die herkömmliche Medikation bei Morbus Parkinson zwar eine wirkungsvolle Therapie hinsichtlich der meisten Symptomausprägungen bietet, aber nach wie vor nicht zur Verbesserung der posturalen Instabilität beiträgt bzw. hier sogar einen negativen Einfluss ausüben kann (KLAWANS 1986, KOLLER et al. 1990, MARSDEN und OBESO 1994, BLOEM et al. 1996, FRANK et al. 2000, JANKOVIC 2002, GUTTMAN et al. 2003, ROBERTS-WARRIOR et al. 2000, BRONTE-STEWART et al. 2002). Basierend auf den Ergebnissen dieser Studie kann das Treatment als zusätzliches Element in der Therapie von Morbus Parkinson zum Einsatz kommen, wobei es nicht als Alternative, sondern als Ergänzung zu den herkömmlichen trainings- und physiotherapeutischen Behandlungsstrategien zu sehen ist.
Zur Phänomenologie der Obduktionen im Zentrum der Rechtsmedizin in Frankfurt am Main 1996 – 1998
(2005)
Das Sektionsgut im Zentrum der Rechtsmedizin in Frankfurt am Main der Jahre 1996 bis 1998 wurde nach eingehender Analyse der Todesfallakten, mit einem speziell für die rechtsmedizinischen Belange entwickelten Datei-Erfassungsprogramm (MÜLLER, 1992) erfasst und ausgewertet. Es wurden von 1996 bis 1998 insgesamt 3 663 Leichen in das Zentrum der Rechtsmedizin eingeliefert. Davon wurden 2 795 Leichen obduziert (76%). Der männliche Obduktionsanteil überwog mit 64% deutlich dem weiblichen Anteil mit 36%. Das Durchschnittsalter aller obduzierten Leichen lag bei 64 Jahren, während das Durchschnittsalter der gerichtlich Obduzierten 45 Jahre betrug. Gerichtliche Obduktionen lagen im Auftrag der Staatsanwaltschaften Darmstadt, Frankfurt am Main, Hanau, Wiesbaden und Darmstadt / Zweigstelle Offenbach mit 1 707 Fällen vor. In 1023 Fällen fand eine Feuerbestattungssektion statt. In weiteren 38 Fällen kam es zu einer Transplantationssektion. In 14 Fällen wurde eine private Sektion veranlasst. Hinzu kamen 8 Versicherungs- und 5 Verwaltungssektionen. 847 Leichen wurden lediglich besichtigt. 21 Leichen wurden irrtümlich in das Zentrum der Rechtsmedizin eingeliefert (sog. „Irrläufer“). Bei den obduzierten Leichen lag in 48,6% ein natürlicher Tod, in 47,9% ein nichtnatürlicher Tod vor. Eine Kombination aus beiden wurde in 1,1% der Fällen diagnostiziert. Bei 2,4% der Todesfälle konnte die Todesart nicht geklärt werden. Unter den nichtnatürlichen Todesfällen standen 439 Selbsttötungen im Vordergrund, wobei die Todesumstände überwiegend durch Stürze aus der Höhe („stumpfe Gewalt“) bestimmt war (24% der Fälle), gefolgt von Strangulationen und Vergiftungen (jeweils 21%). Bemerkenswert war der Rückgang der obduzierten tödlichen Verkehrsunfälle auf 272 Fälle. Am häufigsten waren Kfz-Fahrer mit 27,5% betroffen. An zweiter Stelle standen Fußgänger / PKW-Unfälle (22,8%). Die Verkehrsunfallopfer verstarben zum größten Teil (42%) an den Folgen eines Polytraumas, in weiteren 37% führte ein isoliertes Schädel-Hirn-Trauma zum Tode. Im Untersuchungszeitraum wurden 170 Opfer von Tötungsdelikten obduziert, wobei 83% durch Mord bzw. Totschlag verstarben (143 Fälle). Die restlichen 17% verteilten sich auf Kindestötung bzw. Tod durch Kindesmisshandlung, tödliche Körperverletzung und Sexualmord (27 Fälle). An Haushaltsunfällen (im eigentlichen Sinne „Unglücksfälle im häuslichen Bereich“) verstarben 101 Personen. Eine Hauptrolle spielte mit 47% die Einwirkung von stumpfer Gewalt durch Stürze an Treppen (weniger von Leitern und aus Fenstern) und Wohnungsbränden in 28% der Fälle, die restlichen 26% verteilten sich auf Haushaltsunfälle durch Einwirkung von Strom, Vergiftungen, Ertrinken, Ersticken und Glasssplitterverletzung. Bei der Analyse von Arbeitsunfällen konnte mit 41 Fällen eine rückläufige Tendenz beobachtet werden. In dieser Auswertung waren Männer betroffen. Die Phänomenologie der Drogentodesfälle verdeutlicht den gesellschaftlichen Panoramawandel der siebziger Jahre. Im Untersuchungszeitraum zeigten sich 151 drogenbedingte Todesfälle. Während 1972 bis 1974 nur 20 Drogentodesfälle obduziert wurden, kam es bereits 1978 bis 1980 zu einem Anstieg auf 147 Todesfälle. Allerdings ist zu beobachten, dass die Drogenfälle zunehmend durch Medikamentenmissbrauch abgelöst werden. Seit 1994 wird der Gebrauch von Amphetaminderivaten (Ecstasy) beschrieben, dessen Konsum eine deutlich steigende Tendenz zeigt (bis 1996 Anstieg auf das dreifache). Bei den natürlichen Todesursachen beherrscht der plötzliche Herztod nach wie vor mit einem Obduktionsanteil von 61% die Sterblichkeitsrate. Einen nicht unwesentlichen Anteil mit 13% nahmen die Lungenerkrankungen ( Pneumonie, Embolie, Tumore ) ein. Tuberkulose spielt im Gegensatz zu früher keine Rolle mehr. Auf plötzliche Säuglings- bzw. Kleinstkindtode entfiel ein Obduktionsanteil von 4%. Der Vergleich des Sektionsgutes mit den Verstorbenen der Stadt Frankfurt am Main zeigte, dass in den Jahren 1996 bis 1998 durchschnittlich 7% der verstorbenen Frankfurter Bürger im Zentrum der Rechtsmedizin obduziert wurden. Der Anteil der außergerichtlichen Obduktionen (in der Regel Feuerbestattungssektion) betrug 4%, im Auftrag der Staatsanwaltschaft Ffm wurden 3% untersucht. Das Durchschnittsalter dieser Obduzierten lag im Mittel 13 Jahre unter dem der gesamten Frankfurter Sterbefälle. Nach Auswertung besonderer nichtnatürlicher Todesfälle ist festzustellen, dass im Untersuchungszeitraum offensichtlich alle Opfer von entdeckten Tötungsdelikten, jedoch nur 63% der in Frankfurter verunglückten Verkehrsunfallopfer, obduziert wurden. Die ausgewerteten Obduktionen geben Einblick über die Entwicklung im Straßenverkehr und der Drogenszene in den betreffenden Jahren und können für andere epidemiologischen Untersuchungen zum Vergleich herangezogen werden.
Holzkohlen aus archäologischen Grabungen im Sahel von Burkina Faso belegen die regionale Geschichte der Gehölzvegetation über die letzten 2000 Jahre. Der Bodenbau, den die sesshaft lebende Bevölkerung seit Beginn unserer Zeitrechnung intensiv betreibt, veränderte die Zusammensetzung der Gehölzvegetation vor allem auf den Dünen der Region. Im Vergleich mit der heutigen Vegetation lassen sich zudem klimatische Veränderungen nachweisen. Untersucht wurden über 9000 Fragmente aus sieben verschiedenen archäologischen Grabungen. Sechs Inventare stammen aus Siedlungshügeln. Bei einem Fundplatz handelt es sich um einen Hausgrundriss. Insgesamt wurden 37 Holzkohletypen erkannt und dokumentiert. Die untersuchten Inventare der Siedlungshügel zeigen, dass vor allem die Gehölzvegetation der Dünen und der Galeriewälder zur Brennholzentnahme genutzt wurde. Je nach Lage der Siedlung und dem Schwerpunkt der Wirtschaftsweise können verschiedene Taxa mit höheren Anteilen vertreten sein, möglicherweise zusätzlich verstärkt durch die anthropogene Auswahl von verfügbarem Brennholz. Im Vergleich der Holzkohleinventare lassen sich für die Eisenzeit regionale Entwicklungen erkennen. Die natürlichen Gehölzbestände auf den Dünen, unter anderem aus verschiedenen Akazienarten, wurden, zumindest in der Umgebung der Siedlungen, verdrängt. Stattdessen nahmen aufgrund der selektiven Förderung durch den Menschen die Anteile der Gehölze der Kulturbaumparks, Vitellaria paradoxa und Faidherbia albida zu. Die Landwechselwirtschaft förderte zudem Brachearten insbesondere aus der Familie der Combretaceae. In der späten Eisenzeit nahm Guiera senegalensis zu, die von starker Beweidung der Brachen profitiert. Der Unterwuchs der Galeriewälder an den mares und Wasserläufen wurde mit zunehmender Besiedlungsdauer in der Umgebung der einzelnen Fundplätze aufgelichtet, die Anteile von Combretum micranthum gehen in den Inventaren der einzelnen Siedlungsplätzen jeweils zurück. Klima und Vegetation waren während der Eisenzeit sudano-sahelisch. Auf feuchteres Klima verweisen Vitellaria paradoxa und Detarium microcarpum, die deutlich höhere Niederschläge benötigen, als sie die Region heute erhält. Der hohe Anteil von Taxa, die heute weiter südlich verbreitet sind, belegt zudem den sudanischen Aspekt der Gehölzvegetation. Der Vergleich der anthrakologischen mit den palynologischen und karpologischen Ergebnissen zeigt, dass die Gehölzvegetation sich unter zunehmend arideren Bedingungen in den letzen 2000 Jahren anthropozoogen stark verändert hat. Das Klima scheint aber während der Eisenzeit von 0-1500 AD vergleichsweise stabil gewesen zu sein. Erst danach haben die Niederschläge sich soweit verringert, dass in den letzten 500 Jahren einige sudanische Taxa aus der Region verschwanden, die noch während der Eisenzeit zur regionalen Flora gehört hatten, zum Beispiel Vitellaria paradoxa, Detarium microcarpum und Lannea sp. Der Vergleich der eisenzeitlichen Holzkohleflora mit der rezenten Dynamik der Vegetation und mit der Verbreitung einiger Arten um die Mitte des 20. Jahrhunderts zeigt, dass einige Taxa, wie Terminalia sp. möglicherweise erst in den letzten fünfzig Jahren aus der Region verschwunden sind.
Wertigkeit des intraoperativen Neuromonitorings bei Re- und Rezidiveingriffen an der Schilddrüse
(2005)
Ziel der Studie: In der vorliegenden prospektiven, nicht randomisierten Untersuchung wurde der Einfluß des intraoperativen Neuromonitorings im Rahmen der Operation an der Rezidivstruma und dem Re-Eingriff an der Schilddrüse und den Nebenschilddrüsen herausgearbeitet. Ergebnisse: In der Zeit von Januar 2000 bis August 2002 wurden im Bürgerhospital 110 konsekutive Patienten an 167 Halsseiten an der Rezidivstruma oder einem Re-Eingriff am Hals wegen eines im Primäreingriff entdeckten Karzinoms, eines Rezidiv-Karzinoms, eines Karzinoms im Rezidiv oder einem Hyperparathyreoidismus in einer Rezidiv-Situation operiert. Es erfolgte die systematische, prospektive Dokumentation der anatomischen Situation des Nervus Recurrens (s.u.) und des intraoperativen Neuromonitorings neben den üblichen, im OP-Bericht dokumentierten Details mittels Protokollbögen. Bei allen Patienten wurde das intraoperative Neuromonitoring zur elektromyographischen Überprüfung des Nervus laryngeus recurrens angewendet. 73 (66%) Patienten wurden aufgrund einer benignen Ursache erneut an der Schilddrüse operiert, in 38 (34%) Fällen lag eine maligne Erkrankung als Operationsindikation zugrunde. Hiervon waren 28 (73%) der Operationen Komplettierungs-Eingriffe, 4 (11%) ein Rezidiv-Karzinom und 6 (16%) ein Karzinom im Rezidiv. 150 (90%) zu operierende Schilddrüsenlappen lagen cervikal, 8 (5%) retrosternal, 7 (4) intrathorakal und 2 (1%) retrotracheal. Die 17 nicht cervikal gelegenen Schilddrüsenlappen oder Nebenschilddrüsen konnten in 16 Operationen (94%) von cervikal operiert werden, 1 mal (6%) war eine Sternotomie erforderlich. Hinsichtlich der Verläufe des Nervus recurrens in Beziehung zum Narbengewebe wurde eine in unserer Klinik übliche Einteilung getroffen: Typ X (10 (6%)) bedeutet, daß der Nerv sich nicht darstellen ließ. Verlaufstyp A (47 (28%)) beschreibt einen in anatomisch normaler Lage befindlicher Nerv. Von Typ B (110 (66%)) spricht man, wenn der Nerv ins Narbengewebe einbezogen ist. Findet man ihn dorsal in der Narbe, liegt ein Typ B1 (64 (58% von n=110)) vor, laterale in der Narbe gelegene Verläufe nennt man B2 (38 (35%)) und ein ventral in der Narbe befindlicher Nerv wird als B3 (8 (7%)) klassifiziert. Es traten folgende Komplikationen auf: tödliche Verläufe und Wundinfekte gab es keine, Tracheotomien waren nicht erforderlich. Eine revisionsbedürftige Nachblutung wurde beobachtet sowie 13 (11%) permanente Hypocalcämien und 7 (6,4%, n=110 Pat., 4,2%, n=167 N.a.R.) permanente Recurrensparesen mit einer Resektion des Nerven aus oncologischer Notwendigkeit (ergibt 6, entsprechend 5,5%, n=110 Pat., 3,6%, n=167 N.a.R.). Das intraoperative Neuromonitoring wurde bei allen Operationen angewandt. Von 150 Stimulationen über den Nervus recurrens ergaben 136 ein positives Signal, 14 mal konnte kein elektrisches Potential ausgelöst werden. 126 Nerven mit intraoperativ positivem Signal waren intakt, 11 waren trotz fehlendem elektrischem Impuls gesund. 10 Nerven hatten frühpostoperative Paresen trotz Vorhandensein eines Signals, 3 mal trat eine Parese auf bei Nerven, die intraoperativ kein Signal weitergeleitet hatten. War ein elektrisches Potential auslösbar, bildeten sich von den 10 Lähmungen 8 zurück, ohne blieben alle drei bestehen. 61 mal wurde allein der Nervus vagus stimuliert. 54 Signale standen 7 stummen Stimulationsversuchen gegenüber. Von den stimulierbaren Nerven hatten 50 keine Parese, 4 mal waren auch die ohne EMG-Signal gesund. Frühpostoperative Lähmungen wurden 4 mal trotz positiver Stimulation beobachtet, wobei davon eine permanent war. Wurde kein Signal ermittelt, war der Nerv 3 mal passager und 2 mal permanent gelähmt. Die Ergebnisse zeigen, daß ein gesunder Nerv relativ sicher als solcher erkannt wird. Allerdings ist die Wahrscheinlichkeit, einen geschädigten Nerven intraoperativ wirklich als defekt zu erkennen, relativ gering. Schlußfolgerung: Eine sichere Prognose hinsichtlich der postoperativen Recurrensfunktion ist nicht möglich, wohl aber eine prognostische Aussage bezüglich der Rückbildungs-Wahrscheinlichkeit einer Parese. Die Methode konnte im vorliegenden Kollektiv keine Senkung der Recurrenspareserate bewirken. Allerdings wurde die Notwendigkeit der visuellen Darstellung des Nervus recurrens als Goldstandard bekräftigt.
2,2’-Bipyridylboroniumkationen IIA stellen analog dem organischen Elektronenakzeptor Diquat vollständig reversible Zwei-Elektronen-Redoxsysteme dar. Da sie sich darüber hinaus leicht in luft- und wasserstabile Derivate überführen lassen, sind sie potentiell interessante Bausteine für die Entwicklung neuartiger Elektronenspeichermedien. Im Rahmen der vorliegenden Arbeit galt es, Wege zu Makromolekülen aus 2,2’-Bipyridylboroniumeinheiten zu finden. Dabei sollte die spontane Adduktbildung zwischen bor- und stickstoffhaltigen Bausteinen als zentraler Reaktionsschritt ausgenutzt werden. Um möglichst monodisperse Produkte zu erhalten, befasste sich die Arbeit im Schwerpunkt mit der Synthese von Dendrimeren, für die eine Reihe divergenter Synthesestrategien erarbeitet und auf ihre Praktikabilität hin untersucht wurden. Ein Teilprojekt widmete sich dem Aufbau linearer Polymere durch Kopolymerisation von bor- und stickstoffhaltigen Monomeren. In allen Fällen bildeten borylierte Benzolderivate wesentliche Bausteine, da sie nicht nur als Kernfragmente für Dendrimere sondern auch als Monomere in Polymerisationsreaktionen eingesetzt werden sollten. Über eine Silicium-Bor-Austauschreaktion konnten ausgehend von (Trimethylsilyl)substituierten Arylen und BBr3, die dargestellten Dibromoborylaryle 1 – 4 in guten Ausbeuten synthetisiert und anschließend über etablierte Verfahren in die Derivate 1a – 4a sowie 1b und 2b überführt werden. Erstmals gelang es dabei, die Festkörperstrukturen von 1 – 4 zu bestimmen. Der nächste Teilschritt bestand darin, das Potential borylierter Aryle als Kernfragmente für 2,2’-Bipyridylboronium-Dendrimere zu untersuchen. Zu diesem Zweck wurden 1a – 4a mit käuflichem 4,4’-Dimethyl-2,2’-bipyridyl umgesetzt, um Modellsysteme für Dendrimere der nullten Generation (G0-Dendrimere) zu schaffen. Dabei zeigte sich, dass bis zu drei 2,2’-Bipyridylboroniumeinheiten problemlos um einen Benzolring herum gruppiert werden können. Um schließlich Dendrimere aufzubauen, wurden verschiedene divergente Synthesestrategien angewendet. Umsetzung der borylierten Aromaten mit speziellen 4,4’-disubstituierten 2,2’-Bipyridylderivaten, die in ihrer Peripherie borylierbar sind, führt entsprechend dem oberen Reaktionschritt zu den jeweiligen G0-Dendrimeren. Diese gilt es im folgenden zweiten Reaktionsschritt an den Bipyridylseitenketten zu borylieren. Anschließende Umsetzung der so erhaltenen borylierten Spezies mit weiterem 2,2’-Bipyridyl führt dann zur Bildung von Bipyridylboronium-Dendrimeren der ersten bzw. jeweils höheren Generation. Im Rahmen dieser Doktorarbeit wurden fünf verschiedene 2,2’-Bipyridylliganden entwickelt, die sich durch Umsetzung mit den borylierten Aromaten 1a – 3a in die entsprechenden Dendrimere der nullten Generation überführen lassen und anschließend an ihren Seitenketten durch Anwendung der Hydroborierung (5 und 6) oder des Silicium-Bor-Austausches (7 – 9) boryliert werden können. Zur Synthese von G1-Dendrimeren über die Hydroborierungsroute eignet sich aus HSiEt3 und BBr3 in situ erzeugtes HBBr2 besonders. Umsetzung der olefinischen 2,2’-Bipyridylboroniumkationen 30Br und 31Br mit diesem Reagenz führte schon bei tiefen Temperaturen zur vollständigen Hydroborierung der olefinischen C-C-Doppelbindungen. Die nachfolgende Reaktion mit 4,4’-Dimethyl-2,2’-bipyridyl lieferte die entsprechenden Dendrimere 36Br3 und 37Br3 der ersten Generation, welche nachfolgend mit MeOH / NEt3 behandelt wurden, um alle am Bor verbliebenen Bromosubstituenten durch Methoxygruppen zu ersetzen. Die Bildung von 36Br3 und 37Br3 ließ sich mittels ESI-Massenspektrometrie eindeutig nachweisen. Allerdings gelang es nicht, die G1-Spezies analysenrein zu isolieren, da die Alkyl-2,2’-bipyridylboroniumfragmente unter den Bedingungen der HPLC-Trennung nicht stabil sind. Ein weiterer Nachteil besteht darin, dass die Hydroborierungsreaktion stets Gemische aus Regio- (Edukt 30Br) bzw. Stereoisomeren (Edukt 31Br) liefert. Diese Probleme lassen sich in der Silicium-Bor-Austausch-Variante der Dendrimersynthese unter Einsatz der Liganden 8 und 9 vermeiden. Bei beiden Monokationen 38Br (Ligand 8) und 45Br (Ligand 9) gelang durch Reaktion mit BBr3 der vollständige Austausch der endständigen Trimethylsilylgruppen durch Dibromoborylfunktionen. Nachfolgende Umsetzung dieser borylierten Kationen mit 4,4’-Dimethyl-2,2’-bipyridyl führte zu den entsprechenden G1-Dendrimeren, die durch Behandlung mit MeOH / NEt3 in die luft- und wasserstabilen Derivate 45Br3 und 50Br3 überführt und über HPLC-Trennverfahren isoliert werden konnten. Ein Teilprojekt der vorliegenden Arbeit widmete sich der Synthese linear polymerer Makromoleküle. Im Rahmen dieser Studien wurden dipodale 2,2’-Bipyridyle, bei denen zwei 2,2’-Bipyridyleinheiten über eine Ethylen- bzw. Ethenylenbrücke miteinander verbunden sind, mit dem diborylierten Aryl 2b umgesetzt und so die löslichen Polymere (57Br2)n und (58Br2)n erhalten, welche eine intensiv violette ((57Br2)n) bzw. nahezu schwarze Farbe ((58Br2)n) besitzen. Im Rahmen dieser Doktorarbeit wurden mehrere Wege zu Dendrimeren und Polymeren aus 2,2’-Bipyridylboroniumkationen erschlossen, wobei die spontane B-N-Adduktbildung als zentraler Verknüpfungsschritt eingesetzt wurde. Dieses Synthesekonzept erwies sich als äußerst vielseitig, da durch einfache Derivatisierung der bor- und stickstoffhaltigen Bausteine, die chemischen und physikalischen Eigenschaften der resultierenden Makromoleküle gezielt verändert werden konnten. Beispielsweise zeigen die ausgehend von 9 dargestellen 2,2’-Bipyridylboroniumsalze 45Br und 50Br aufgrund des vergrößerten π-Elektronensystems gegenüber Basissystemen wie 28Br3 bathochrom verschobene Absorptionsbanden und eine intensive Lumineszenz bei einer Wellenlänge von 488 nm.
Webbasierte Bildverteilung in der Radiologie : Performanzmessungen und Anforderungen an die Hardware
(2005)
Meßmethodik für Anzeigezeiten Unsere Ergebnisse zeigen, daß die auf dem Auslesen von Bildschirmpixeln basierende Methode 3 sehr stabil läuft und leicht zu interpretierende Resultate liefert. In dieser Hinsicht ist sie allen anderen Methoden überlegen. Der Zusatzaufwand der Softwareentwicklung machte sich bezahlt. Die auf Leistungsindikatoren (perfmon) basierende Methode 1 wird für Vortests empfohlen. Sie ist leicht zu implementieren, allerdings sind die Ergebnisse schwerer auszuwerten. Zusätzlich kann jedoch die Analyse von Leistungsindikatoren interessante Einblicke in die inneren Abläufe des BVS liefern. Phototransistoren (Methode 2) können angewendet werden, um jeden Einfluß auf das gemessene System auszuschließen. Ergebnisse der Messungen Unsere Ergebnisse zeigen, daß bei der Einführung eines Bildverteilungssystems der pro Zeiteinheit auf den Server übertragenen Datenmenge besondere Beachtung geschenkt werden muß. Folgende Aussagen gehen von einer maximalen Anzeigezeit von 5 Sekunden aus, die für klinische Anwendungen als ausreichend erachtet wird. 1. Hochleistungsfähige Hardware ist auf dem Klient-PC nicht nötig. 2. Rechner, die älter als ein Pentium II mit 350 MHz sind, sollten nur für gelegentliches Nachschlagen verwendet werden. In diesem Fall sollte verlustbehaftete Sekundärkompression verwendet werden, die Auflösung sollte 1280 x 1024 Pixel nicht überschreiten. 3. Auf schnelleren PCs sollte verlustbehaftete Sekundärkompression nur dann verwendet werden, wenn die verfügbare Netzwerkbandbreite unterhalb von 10 Mbit/s liegt. Generell sind 128 MB Arbeitsspeicher oder mehr zu bevorzugen und eine Bildschirmauflösung über 1280 x 1024 kann verwendet werden. 4. Windows 2000 ist auf modernen Rechnern (>PII/350MHz) Windows NT überlegen, auf älteren Rechnern ist Windows NT schneller. Daraus ist abzuleiten, daß zum Erzielen optimaler Ergebnisse auf moderneren Rechnern moderne Betriebssysteme eingesetzt werden sollten. 5. Die Hochladekapazität wird von simultanem Herunterladen geringfügig beeinflußt, hängt aber maßgeblich vom hochgeladenen Bildtyp und der Serverkonfiguration ab. Mit unserem Standardserver kann eine Hochladekapazität von 4 GB/h (96GB/t) erreicht werden. Dies scheint sogar für große Institutionen ausreichend. 6. Das gleichzeitige Hochladen von Bildern bremst die Anzeigezeiten deutlich. Während des Hochladens können nur vier bis sechs Klienten mit Anzeigezeiten von fünf Sekunden versorgt werden. Mit leistungsfähigerer Hardware scheint die Versorgung einer größeren Zahl von Klienten möglich. 7. Da Hochladekapazität und Anzeigezeit von einer stärkeren leistungsfähigeren Serverhardware deutlich profitieren, scheint ein Server mit zwei aktuellen Prozessoren und mindestens 1 GB RAM empfehlenswert. 8. Verlustbehaftete Primärkompression bringt gewisse Vorteile für Hochladekapazität und Anzeigezeit, wird aber nicht empfohlen, um die volle Bildqualität nicht zu verfälschen. Die Entscheidung für oder gegen verlustbehaftete Primärkompression ist jedoch von organisatorischen und rechtlichen Fragen überlagert. 9. Der Prozeß des Hochladens kann mehrere Stunden in Anspruch nehmen, was letztendlich klinisch inakzeptabel wird. Dies kann durch verbesserte Hardware oder eine veränderten BVS-Architektur oder mehrere intelligent zusammenarbeitende Server angegangen werden. 10. Webbasierte Bildverteilungssysteme sollten dezidierte Server für Empfang, Umwandlung und Verteilung der Bilder verwenden, um Hochverfügbarkeit, Performanz und spätere Erweiterbarkeit zu gewährleisten. Auf Empfangsserver kann verzichtet werden, wenn das BVS voll in das PACS integriert wird.
Im Kapitel 1 "Einleitung" wird aufgezeigt, wie die rasante technologische Entwicklung der Mikroelektronik nicht nur die Mikroskopie vorantreibt, sondern auch anderen, neuen Verfahren, wie z. B. dem Laser Scanning Mikroskop, zum Durchbruch verhilft. Damit verbunden ist ein Bedarf an neuen, geeigneten Messverfahren. Dazu stellt diese Arbeit ein neues, im Rahmen einer linearen Näherung arbeitendes, dreidimensionales Messverfahren vor, und demonstriert es am Beispiel des Lichtmikroskops im Hellfelddurchlichtbetrieb, wobei hier die 3. Dimension durch die Aufnahme einer Fokusserie entsteht. Im Kapitel 2 "Modellbildung" wird zuerst ein detailliertes, physikalisches Modell des experimentellen Aufbaus gebildet, um darauf aufbauend ein dreidimensionales, system-theoretisches Modell anzufertigen, anhand dessen das neue Messverfahren erarbeitet werden kann. Dabei wird auch die Berechnung der dreidimensionalen Übertragungsfunktionen des Lichtmikroskops für die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter beschrieben. Innerhalb des Kapitels 3 "Messverfahren" werden im Kapitel 3.1 zunächst die bekannten Verfahren skizziert. Anschließend, dies ist der Kern der Arbeit, wird im Kapitel 3.2 das neue Messverfahren beschrieben. Es verwendet als Anregung zweidimensionales Rauschen, hier ein Rauschen um eine Ebene senkrecht zur optischen Achse. Das Verfahren wird zunächst für absorbierende Objekte, anschließend auch für Phasenobjekte ausgearbeitet, und dabei experimentell demonstriert. Von zentraler Beutung ist, dass das neue Messverfahren in der Lage ist, auch die Phase der dreidimensionalen Übertragungsfunktion aus den Bildern der Rauschanregung zu berechnen, falls die Übertragung durch die Aufnahmeeinheit gewisse, häufig bei einem vernachlässigbaren Fehler vorliegende, Symmetrieeigenschaften besitzt. Es werden verschiedene Fälle von Symmetrieeigenschaften berücksichtigt, um unterschiedliche experimentelle Gegebenheiten und die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter abzudecken. Das Kapitel 4 "Messungen" vergleicht die mit dem neuen Messverfahren, mit einem bekannten Messverfahren und durch Berechnung ermittelten Übertragungseigenschaften auch bei Modifikationen des Strahlengangs durch Einfügen von Zentralblenden in die Pupille des Objektivs und in die Pupille des Kondensors. Die auf unterschiedlichen Wegen ermittelten Übertragungseigenschaften werden miteinander verglichen. Der Vergleich veranschaulicht die Leistungsfähigkeit des neuen Messverfahrens. Das Kapitel 5 "Die Bildgewinnung" stellt verschiedene, mehr oder weniger bekannte Ansätze zur Nutzung des vorgestellten Messverfahrens zusammen, darunter vor allem auch die Wiener-Inversfilterung.
Während seiner mittlerweile über 30jährigen Auseinandersetzung mit dem Porträt gelangte Vollrad Kutscher zu der Erkenntnis, dass es unmöglich ist, in unserer Zeit ein gültiges Bild von sich selbst und in der Folge von anderen zu erstellen. Dass Kutscher dennoch immer wieder Porträts herstellt, zeigt einen Widerspruch auf, der sich leitmotivisch durch die Arbeiten zieht und in ihnen selbst formal manifestiert ist. ...
Virtual screening of potential bioactive substances using the support vector machine approach
(2005)
Die vorliegende Dissertation stellt eine kumulative Arbeit dar, die in insgesamt acht wissenschaftlichen Publikationen (fünf publiziert, zwei eingerichtet und eine in Vorbereitung) dargelegt ist. In diesem Forschungsprojekt wurden Anwendungen von maschinellem Lernen für das virtuelle Screening von Moleküldatenbanken durchgeführt. Das Ziel war primär die Einführung und Überprüfung des Support-Vector-Machine (SVM) Ansatzes für das virtuelle Screening nach potentiellen Wirkstoffkandidaten. In der Einleitung der Arbeit ist die Rolle des virtuellen Screenings im Wirkstoffdesign beschrieben. Methoden des virtuellen Screenings können fast in jedem Bereich der gesamten pharmazeutischen Forschung angewendet werden. Maschinelles Lernen kann einen Einsatz finden von der Auswahl der ersten Moleküle, der Optimierung der Leitstrukturen bis hin zur Vorhersage von ADMET (Absorption, Distribution, Metabolism, Toxicity) Eigenschaften. In Abschnitt 4.2 werden möglichen Verfahren dargestellt, die zur Beschreibung von chemischen Strukturen eingesetzt werden können, um diese Strukturen in ein Format zu bringen (Deskriptoren), das man als Eingabe für maschinelle Lernverfahren wie Neuronale Netze oder SVM nutzen kann. Der Fokus ist dabei auf diejenigen Verfahren gerichtet, die in der vorliegenden Arbeit verwendet wurden. Die meisten Methoden berechnen Deskriptoren, die nur auf der zweidimensionalen (2D) Struktur basieren. Standard-Beispiele hierfür sind physikochemische Eigenschaften, Atom- und Bindungsanzahl etc. (Abschnitt 4.2.1). CATS Deskriptoren, ein topologisches Pharmakophorkonzept, sind ebenfalls 2D-basiert (Abschnitt 4.2.2). Ein anderer Typ von Deskriptoren beschreibt Eigenschaften, die aus einem dreidimensionalen (3D) Molekülmodell abgeleitet werden. Der Erfolg dieser Beschreibung hangt sehr stark davon ab, wie repräsentativ die 3D-Konformation ist, die für die Berechnung des Deskriptors angewendet wurde. Eine weitere Beschreibung, die wir in unserer Arbeit eingesetzt haben, waren Fingerprints. In unserem Fall waren die verwendeten Fingerprints ungeeignet zum Trainieren von Neuronale Netzen, da der Fingerprintvektor zu viele Dimensionen (~ 10 hoch 5) hatte. Im Gegensatz dazu hat das Training von SVM mit Fingerprints funktioniert. SVM hat den Vorteil im Vergleich zu anderen Methoden, dass sie in sehr hochdimensionalen Räumen gut klassifizieren kann. Dieser Zusammenhang zwischen SVM und Fingerprints war eine Neuheit, und wurde von uns erstmalig in die Chemieinformatik eingeführt. In Abschnitt 4.3 fokussiere ich mich auf die SVM-Methode. Für fast alle Klassifikationsaufgaben in dieser Arbeit wurde der SVM-Ansatz verwendet. Ein Schwerpunkt der Dissertation lag auf der SVM-Methode. Wegen Platzbeschränkungen wurde in den beigefügten Veröffentlichungen auf eine detaillierte Beschreibung der SVM verzichtet. Aus diesem Grund wird in Abschnitt 4.3 eine vollständige Einführung in SVM gegeben. Darin enthalten ist eine vollständige Diskussion der SVM Theorie: optimale Hyperfläche, Soft-Margin-Hyperfläche, quadratische Programmierung als Technik, um diese optimale Hyperfläche zu finden. Abschnitt 4.3 enthält auch eine Diskussion von Kernel-Funktionen, welche die genaue Form der optimalen Hyperfläche bestimmen. In Abschnitt 4.4 ist eine Einleitung in verschiede Methoden gegeben, die wir für die Auswahl von Deskriptoren genutzt haben. In diesem Abschnitt wird der Unterschied zwischen einer „Filter“- und der „Wrapper“-basierten Auswahl von Deskriptoren herausgearbeitet. In Veröffentlichung 3 (Abschnitt 7.3) haben wir die Vorteile und Nachteile von Filter- und Wrapper-basierten Methoden im virtuellen Screening vergleichend dargestellt. Abschnitt 7 besteht aus den Publikationen, die unsere Forschungsergebnisse enthalten. Unsere erste Publikation (Veröffentlichung 1) war ein Übersichtsartikel (Abschnitt 7.1). In diesem Artikel haben wir einen Gesamtüberblick der Anwendungen von SVM in der Bio- und Chemieinformatik gegeben. Wir diskutieren Anwendungen von SVM für die Gen-Chip-Analyse, die DNASequenzanalyse und die Vorhersage von Proteinstrukturen und Proteininteraktionen. Wir haben auch Beispiele beschrieben, wo SVM für die Vorhersage der Lokalisation von Proteinen in der Zelle genutzt wurden. Es wird dabei deutlich, dass SVM im Bereich des virtuellen Screenings noch nicht verbreitet war. Um den Einsatz von SVM als Hauptmethode unserer Forschung zu begründen, haben wir in unserer nächsten Publikation (Veröffentlichung 2) (Abschnitt 7.2) einen detaillierten Vergleich zwischen SVM und verschiedenen neuronalen Netzen, die sich als eine Standardmethode im virtuellen Screening etabliert haben, durchgeführt. Verglichen wurde die Trennung von wirstoffartigen und nicht-wirkstoffartigen Molekülen („Druglikeness“-Vorhersage). Die SVM konnte 82% aller Moleküle richtig klassifizieren. Die Klassifizierung war zudem robuster als mit dreilagigen feedforward-ANN bei der Verwendung verschiedener Anzahlen an Hidden-Neuronen. In diesem Projekt haben wir verschiedene Deskriptoren zur Beschreibung der Moleküle berechnet: Ghose-Crippen Fragmentdeskriptoren [86], physikochemische Eigenschaften [9] und topologische Pharmacophore (CATS) [10]. Die Entwicklung von weiteren Verfahren, die auf dem SVM-Konzept aufbauen, haben wir in den Publikationen in den Abschnitten 7.3 und 7.8 beschrieben. Veröffentlichung 3 stellt die Entwicklung einer neuen SVM-basierten Methode zur Auswahl von relevanten Deskriptoren für eine bestimmte Aktivität dar. Eingesetzt wurden die gleichen Deskriptoren wie in dem oben beschriebenen Projekt. Als charakteristische Molekülgruppen haben wir verschiedene Untermengen der COBRA Datenbank ausgewählt: 195 Thrombin Inhibitoren, 226 Kinase Inhibitoren und 227 Faktor Xa Inhibitoren. Es ist uns gelungen, die Anzahl der Deskriptoren von ursprünglich 407 auf ungefähr 50 zu verringern ohne signifikant an Klassifizierungsgenauigkeit zu verlieren. Unsere Methode haben wir mit einer Standardmethode für diese Anwendung verglichen, der Kolmogorov-Smirnov Statistik. Die SVM-basierte Methode erwies sich hierbei in jedem betrachteten Fall als besser als die Vergleichsmethoden hinsichtlich der Vorhersagegenauigkeit bei der gleichen Anzahl an Deskriptoren. Eine ausführliche Beschreibung ist in Abschnitt 4.4 gegeben. Dort sind auch verschiedene „Wrapper“ für die Deskriptoren-Auswahl beschrieben. Veröffentlichung 8 beschreibt die Anwendung von aktivem Lernen mit SVM. Die Idee des aktiven Lernens liegt in der Auswahl von Molekülen für das Lernverfahren aus dem Bereich an der Grenze der verschiedenen zu unterscheidenden Molekülklassen. Auf diese Weise kann die lokale Klassifikation verbessert werden. Die folgenden Gruppen von Moleküle wurden genutzt: ACE (Angiotensin converting enzyme), COX2 (Cyclooxygenase 2), CRF (Corticotropin releasing factor) Antagonisten, DPP (Dipeptidylpeptidase) IV, HIV (Human immunodeficiency virus) protease, Nuclear Receptors, NK (Neurokinin receptors), PPAR (peroxisome proliferator-activated receptor), Thrombin, GPCR und Matrix Metalloproteinasen. Aktives Lernen konnte die Leistungsfähigkeit des virtuellen Screenings verbessern, wie sich in dieser retrospektiven Studie zeigte. Es bleibt abzuwarten, ob sich das Verfahren durchsetzen wird, denn trotzt des Gewinns an Vorhersagegenauigkeit ist es aufgrund des mehrfachen SVMTrainings aufwändig. Die Publikationen aus den Abschnitten 7.5, 7.6 und 7.7 (Veröffentlichungen 5-7) zeigen praktische Anwendungen unserer SVM-Methoden im Wirkstoffdesign in Kombination mit anderen Verfahren, wie der Ähnlichkeitssuche und neuronalen Netzen zur Eigenschaftsvorhersage. In zwei Fällen haben wir mit dem Verfahren neuartige Liganden für COX-2 (cyclooxygenase 2) und dopamine D3/D2 Rezeptoren gefunden. Wir konnten somit klar zeigen, dass SVM-Methoden für das virtuelle Screening von Substanzdatensammlungen sinnvoll eingesetzt werden können. Es wurde im Rahmen der Arbeit auch ein schnelles Verfahren zur Erzeugung großer kombinatorischer Molekülbibliotheken entwickelt, welches auf der SMILES Notation aufbaut. Im frühen Stadium des Wirstoffdesigns ist es wichtig, eine möglichst „diverse“ Gruppe von Molekülen zu testen. Es gibt verschiedene etablierte Methoden, die eine solche Untermenge auswählen können. Wir haben eine neue Methode entwickelt, die genauer als die bekannte MaxMin-Methode sein sollte. Als erster Schritt wurde die „Probability Density Estimation“ (PDE) für die verfügbaren Moleküle berechnet. [78] Dafür haben wir jedes Molekül mit Deskriptoren beschrieben und die PDE im N-dimensionalen Deskriptorraum berechnet. Die Moleküle wurde mit dem Metropolis Algorithmus ausgewählt. [87] Die Idee liegt darin, wenige Moleküle aus den Bereichen mit hoher Dichte auszuwählen und mehr Moleküle aus den Bereichen mit niedriger Dichte. Die erhaltenen Ergebnisse wiesen jedoch auf zwei Nachteile hin. Erstens wurden Moleküle mit unrealistischen Deskriptorwerten ausgewählt und zweitens war unser Algorithmus zu langsam. Dieser Aspekt der Arbeit wurde daher nicht weiter verfolgt. In Veröffentlichung 6 (Abschnitt 7.6) haben wir in Zusammenarbeit mit der Molecular-Modeling Gruppe von Aventis-Pharma Deutschland (Frankfurt) einen SVM-basierten ADME Filter zur Früherkennung von CYP 2C9 Liganden entwickelt. Dieser nichtlineare SVM-Filter erreichte eine signifikant höhere Vorhersagegenauigkeit (q2 = 0.48) als ein auf den gleichen Daten entwickelten PLS-Modell (q2 = 0.34). Es wurden hierbei Dreipunkt-Pharmakophordeskriptoren eingesetzt, die auf einem dreidimensionalen Molekülmodell aufbauen. Eines der wichtigen Probleme im computerbasierten Wirkstoffdesign ist die Auswahl einer geeigneten Konformation für ein Molekül. Wir haben versucht, SVM auf dieses Problem anzuwenden. Der Trainingdatensatz wurde dazu mit jeweils mehreren Konformationen pro Molekül angereichert und ein SVM Modell gerechnet. Es wurden anschließend die Konformationen mit den am schlechtesten vorhergesagten IC50 Wert aussortiert. Die verbliebenen gemäß dem SVM-Modell bevorzugten Konformationen waren jedoch unrealistisch. Dieses Ergebnis zeigt Grenzen des SVM-Ansatzes auf. Wir glauben jedoch, dass weitere Forschung auf diesem Gebiet zu besseren Ergebnissen führen kann.
Für diese retrospektive Studie wurden 157 Sportlerinnen in den Sportarten Fußball, Handball und Basketball über ihre Verletzungen und Fehlbelastungsfolgen in einem Erfassungszeitraum von 4 Jahren befragt. Die Sportlerinnen wurden in die Leistungsklassen Hochleistungssport und Leistungssport eingeteilt.
Die Probandinnen waren im Fußball durchschnittlich 22,2 Jahre alt, hatten im Schnitt 12,7 Trainingsjahre hinter sich und trainierten 7,9 Stunden in der Woche mit einem prozentualen Krafttrainingsanteil von 23%. Die Wettkampfanzahl pro Jahr lag bei durchschnittlich 32,7. Die relativ kleine Anzahl von 7 Hochleistungsfußballerinnen kann diese Werte als zu niedrig verfälscht haben.
Im Handball lag das Durchschnittsalter bei 25,1 Jahren, 16,3 Trainingsjahren und 8,9 Wochenstunden Training mit 16% Krafttrainingsanteil. Die Zahl der Wettkämpfe betrug durchschnittlich 33,4 pro Jahr.
Die Basketballerinnen waren durchschnittlich 23,6 Jahre alt, seit 12,7 Jahren im Training und von 9,7 Stunden Wochentraining zu 18% im Kraftraum. Sie absolvierten 41,6 Wettkämpfe im Jahr.
Im Erfassungszeitraum von 4 Jahren trat bei fast allen Sportlerinnen, bis auf 4 Leistungssportlerinnen im Fußball, mindestens einmal akut eine Verletzung auf, bei allen jedoch mindestens einmal eine Fehlbelastungsfolge. Das heißt, dass 97% der Befragten mindestens einmal akut verletzt waren, in Sportarten aufgeteilt, dass zu 100% im Handball und Basketball jede Sportlerin mindestens einmal verletzt war.
Im Fußball ergab sich eine Verletzungshäufigkeit von 2,18 akuten Verletzungen, bzw. 2,25 Fehlbelastungsfolgen pro Jahr. Auf je 100 Belastungsstunden gab es 0,47 Verletzungen bzw. 0,50 Fehlbelastungsfolgen pro Jahr. Die Handballerinnen hatten eine Verletzungshäufigkeit von 2,55 pro Jahr und 2,12 Fehlbelastungsfolgen. Auf 100 Belastungsstunden entspricht dies einer Verletzungshäufigkeit von 0,53 akuten Verletzungen pro Spielerin und 0,43 Fehlbelastungsfolgen pro Jahr.
Im Basketball lag die Verletzungshäufigkeit bei 1,89 akuten Verletzungen und bei 1,71 Fehlbelastungsfolgen, bzw. bei 0,35 akuten Verletzungen und bei 0,32 Fehlbelastungsfolgen bezogen auf 100 Belastungsstunden.
Hochleistungssportlerinnen waren aufgrund des relativ hohen Trainingsumfanges und der Wettkampfbelastung gegenüber den Leistungssportlerinnen pro Jahr absolut gesehen häufiger verletzt und mussten mit mehr Fehlbelastungsfolgen rechnen.
Pro Belastungsstunde zeigten jedoch die Leistungssportlerinnen mehr
Sportverletzungen und auch Fehlbelastungsfolgen. Ein erhöhtes Trainingspensum bzw. Wettkampfpensum bedeuten also nicht gleichviel mehr Verletzungen.
Rund 52% aller akuten Verletzungen waren leichte Verletzungen ohne notwendige Sportpause oder ärztliche Behandlung, etwa 28% waren mittelschwer, d.h. sie machten eine Sportpause von kürzer als 2 Wochen und/oder eine Behandlung durch einen Arzt notwendig und etwa 19% waren schwerer Art mit ärztlicher Behandlung und einer Sportpause von länger als 2 Wochen.
77% aller Fehlbelastungsfolgen waren leichte, rund 20% mittelschwer und lediglich ca. 3% aller Fehlbelastungsfolgen schwer. Todesfälle oder Invaliditätsfälle konnte diese Studie nicht erfassen.
Die meisten Verletzungen ereigneten sich im Wettkampf mit ca. 52% im Vergleich zu etwa 48% im Training. Da nun aber die Wettkampfzeit deutlich geringer ist als die Trainingszeit, ergab sich in den einzelnen Sportarten folgende Relation: im Fußball liegt der Faktor, der eine Aussage über die erhöhte Verletzungswahrscheinlichkeit im Wettkampf macht, bei 9, im Basketball bei 17 und im Handball ergab sich der Faktor 20. Diese Zahlen verdeutlichen die erhöhte Risikobereitschaft und damit
Verletzungsgefahr im Wettkampf.
Die häufigsten Verletzungen betrafen die Muskeln mit über 30% aller Verletzungen, insbesondere im Fußball und Handball, gefolgt von Gelenkverletzungen wie Supinationstraumata im oberen Sprunggelenk, besonders im Fußball und Basketball, und Distorsionen der Finger, besonders Handball und Basketball. Die meisten Fehlbelastungsfolgen zeigten sich an Gelenken, wie Hüftgelenk und Sprunggelenk im Fußball, Schulter-, Ellenbogen- und Kniegelenk im Handball und Sprung- und Kniegelenk im Basketball.
Die meisten der oben aufgeführten Beschwerden zogen keine weiteren
Konsequenzen wie Trainingsausfall oder Notwendigkeit einer ärztlichen Behandlung nach sich, sie sollten jedoch Anlass dafür sein, diese als erste Warnsymptome des Körpers zu erkennen, um weitere Schäden vermeiden zu können. Rund 3% aller Verletzungen oder Fehlbelastungsfolgen waren Frakturen, insbesondere im Fußball traten Zehen-, Clavicula-, Nasenbein- und Kieferfrakturen auf. 10% aller Frakturen waren Stressfrakturen.
Die meisten akuten Verletzungen ereigneten sich an der unteren Extremität mit über 50, in allen drei Sportarten, am häufigsten im Fußball (66% im Leistungssport und 59% im Hochleistungssport) und Basketball (67% im Hochleistungssport und 55% im Leistungssport). Auch die Fehlbelastungsfolgen waren an der unteren Extremität am häufigsten, im Basketball 67%, im Handball über 50% und im Fußball 48%.
Die obere Extremität war bei allen drei Sportarten (Fußball 18%, Handball und Basketball je 35%) am zweithäufigsten Ort akuter Verletzungen. Nur im Handball waren auch die Fehlbelastungsfolgen am zweithäufigsten betroffen. Dies war der Rumpf mit 36% im Fußball und 20% im Basketball.
Akute Verletzungen in der Kopfregion traten mit 14% im Fußball, mit 12% im Handball und mit knapp 5% im Basketball auf. Fehlbelastungsfolgen waren nur im Fußball mit fast 10% erwähnenswert.
Der Rumpf war in allen drei Sportraten selten akut verletzt, im Fußball mit fast 3% Anteil an allen akuten Verletzungen noch am häufigsten. Fehlbelastungsfolgen in der Rumpfregion traten bei den Handballerinnen mit fast 11% am seltensten auf.
Die meisten akuten Verletzungen pro Spielerin und Jahr zogen sich die Hochleistungsspielerinnen im Vergleich zu den Leistungssportlerinnen zu, im Fußball mit 2,68, im Handball mit 2,55 und Basketball mit 2,42 pro Spielerin und Jahr. Bei den Leistungssportlerinnen verletzten sich akut pro Jahr mit 2,54 Verletzungen die Handballerinnen, mit 2,08 die Fußballerinnen und mit 1,7 Verletzungen die Basketballerinnen.
Auf je 100 Belastungsstunden, Trainings- und Wettkampfstunden addiert, verletzten sich mit 0,58 akuten Verletzungen pro Jahr am häufigsten die Handballerinnen aus dem Leistungsbereich, gefolgt von den Fußballerinnen mit 0,48 Verletzungen im Leistungs- und 0,45 im Hochleistungsbereich. Die Handballerinnen im Spitzenbereich waren 0,34mal im Jahr akut verletzt. Mit 0,31 im Hochleistungsbereich bzw. 0,37 im Leistungsbereich verletzten sich die Basketballerinnen am seltensten.
Insgesamt gesehen verletzten sich am häufigsten pro Jahr und Spielerin die Handballerinnen mit durchschnittlich 2,55 Verletzungen, die Fußballerinnen mit 2,18 und die Basketballerinnen mit 1,89 Verletzungen.
Auf 100 Belastungsstunden ergab sich die gleiche Reihenfolge.
Die meisten Fehlbelastungsfolgen traten mit 2,54 pro Spielerin und Jahr im Hochleistungsbereich der Fußballerinnen auf und mit 2,48 im Handball des Spitzenbereichs. Mit 1,79 im Leistungsbereich bzw. 1,48 im Hochleistungsbereich waren die Basketballerinnen am seltensten verletzt.
Auf 100 Belastungsstunden zeigt sich mit 0,52 pro Spielerin und Jahr bei den Fußballleistungsspielerinnen die größte Verletzungshäufigkeit, gefolgt von den Handballerinnen im gleichen Leistungsniveau. Mit 0,19 Fehlbelastungsfolgen waren die Basketballerinnen im Hochleistungsbereich am seltensten verletzt.
Alle Sportlerinnen in der jeweiligen Sportart, zusammen betrachtet, zeigen, dass die Fußballerinnen mit 2,48 Fehlbelastungsfolgen pro Jahr zu rechnen haben, Handballerinnen mit 2,12 und Basketballerinnen mit 1,71 Fehlbelastungsfolgen.
Der überwiegende Teil aller akuten Verletzungen und Fehlbelastungsfolgen blieb für die Spielerinnen ohne Konsequenzen, d.h. sie hatten keine Sportpause und benötigten keinen Arztbesuch, in dieser Studie als leichte Verletzungen/Fehlbelastungsfolgen definiert.
Etwa jede vierte Verletzung bei den Basketballerinnen war von schwerer Art, d.h. eine Sportpause von länger als 2 Wochen und eine ärztliche Behandlung waren notwendig, darunter z. Bsp. Außenbandrupturen am oberen Sprunggelenk und Meniskusschäden. Etwa jede fünfte akute Verletzung, wie z. Bsp. Commotio cerebri, Nasenbeinfrakturen oder Distorsionen des Schultergelenkes, zwang die Fußballerinnen und Handballerinnen zu einer zweiwöchigen Sportkarenz.
Schwere Fehlbelastungsfolgen, wie z.B. Stressfrakturen der Tibia, hatten in allen drei Sportarten nur einen verschwindend geringen Anteil.
Vor Beginn eines leistungsmäßig-betriebenen Sports sollte eine sportärztliche Untersuchung durchgeführt werden, um Verletzungen und Überlastungsschäden, die aufgrund von anatomischen Varianten oder pathologischen Bewegungsmustern entstehen könnten, zu vermeiden, bzw. zu reduzieren. Pathologische Befunde bei Jugendlichen können Grund dafür sein, dass vom leistungsmäßigen Spiel abzuraten ist, um Sportschäden zu vermeiden.
Am Anfang sollte die Sportlerin für Materialbeschaffung fachkundigen Rat einholen, um mit optimalem Schutz (z. Bsp. Schienbeinschützer, hohe Basketballschuhe) einer Verletzung vorzubeugen.
Anatomische Varianten und Fehlstellungen des Bewegungsapparates sollten durch entsprechendes Material (z. Bsp. Einlagen, Sprunggelenksorthesen, Tape), aber auch durch ein gezieltes, individuelles Kraft-, Koordinations- und Techniktraining ausgeglichen werden. Besonders der Ausgleich einer muskulären Dysbalance im Bereich der Sprunggelenke (z. Bsp. Supinationstraumata) könnte das Verletzungsrisiko in dieser Region reduzieren.
Das Tapen bestimmter Gelenke (z. B. twin-taping an den Fingern) oder das sog. „physiologische Tapen“ sollte fachkundig angeleitet und ausgeführt werden.
Fehlerhafte Technik, mangelnde Kondition und mangelnder Trainingsaufbau sind ebenfalls Ursache für Verletzungen und Überlastungsschäden.
Somit ist die Zusammenarbeit von Ärzten, Trainern, Sportpsychologen und Physiotherapeuten von großer Bedeutung, um auf ausreichende Regenerationszeiten, realistische Zielsetzungen in der Rehabilitation, gesunde und richtige Ernährung sowie auf einen gutstrukturierten Trainingsaufbau achten zu können.
Im leistungsmäßig-betriebenen Sport ist die Risikobereitschaft immer hoch, so dass besonders im Auftreten von weiteren Faktoren wie Konzentrationsschwäche, Müdigkeit, mangelhaften Materials, fehlerhafter Ernährung etc. ein erhöhtes Verletztungspotential vorliegt.
Der überwiegende Anteil aller in dieser Studie erfassten Verletzungen trat während eines Wettkampfes auf, auch durch den Einfluss des Gegners. Um den Anteil an den Verletzungen, die aufgrund von Regelwidrigkeiten entstanden sind, zu reduzieren, sind von den Schiedsrichtern diese Regelverstöße konsequent zu ahnden, bzw. die Spielregeln durch die Sportverbände zu ändern.
Atherosklerotische Stenosen der Karotiden sind eine häufige Erkrankung mit variablem Verlauf und stellen durch ihre potentielle Emboligenität einen wichtigen Risikofaktor für zerebrale Ischämien dar. Klinische und paraklinische Parameter helfen, das individuelle Schlaganfallrisiko bei Patienten mit hochgradigen ACI-Stenosen einzuschätzen, das unmittelbar nach einem thrombembolischen Ereignis besonders hoch ist. Als histomorphologisches Korrelat dieser "Vulnerabilität" wird die Ruptur der fibrotischen Deckplatte der Plaque propagiert, die häufiger bei symptomatischen Patienten nachzuweisen ist. Sie korreliert mit der Infiltration der Gefäßwand durch aktivierte Leukozyten, die über molekulare und zelluläre Interaktionen die Zell- und Bindegewebskomposition der Plaque verändern können. Die strukturelle Integrität atherosklerotischer Läsionen beruht auf der extrazellulären Vernetzung von kollagenem Bindegewebe, das überwiegend von phänotypisch veränderten glatten Gefäßmuskelzellen produziert wird. Eine Hypothese besagt, dass die im Rahmen der Inflammation stattfindende Zunahme proapoptotischer Mediatoren über eine Ausdünnung der zellulären und bindegewebigen Strukturen zu einem Verlust an mechanischer Stabilität führt und somit eine symptomatische Ruptur begünstigt. Da der Nachweis einer Ruptur mit Exponierung des thrombogenen nekrotischen Kerns allerdings nur in einem Teil der symptomatischen Plaques und umgekehrt auch in einem Teil der asymptomatischen nachgewiesen werden kann, ist aber bislang unklar, ob o.g. Abläufe in der humanen Karotis-Atherosklerose tatsächlich mit einer klinischen Relevanz einhergehen. In der vorliegenden Arbeit wurde daher das Auftreten der Apoptose von glatten Gefäßmuskelzellen (mittels DNA in situ end labeling Technik, TUNEL-Färbung) in 38 prospektiv gesammelten Endarterektomie-Präparaten hochgradiger Karotisstenosen quantitativ erfasst und statistisch in Beziehung gesetzt zu Parametern der Plaque-Instabilität, klinisch definiert durch kürzliche (< 60 Tage zurückliegende) ischämische Ereignisse (n=19) und histopathologisch definiert über den Nachweis einer Plaque-Ruptur (n=14). Außerdem wurde eine morphometrische Analyse der einzelnen Plaque-Komponenten durchgeführt und deren Ergebnisse zu den zellulären und klinischen Parametern in Beziehung gesetzt. Die Morphometrie ergab keine signifikanten Unterschiede zwischen symptomatischen vs. asymptomatischen und rupturierten vs. unrupturierten Plaques was die Größe der fibrotischen Deckplatte, die durchschnittliche Dicke (Kern-Lumen-Distanz) und die dünnsten bzw. dicksten Stellen der Deckplatte anbelangt. Anzahl und Konzentration apoptotischer glatter Muskelzellen war deutlich (p<0,001) erhöht in symptomatischen, klinisch instabilen, Karotisplaques. Allerdings waren die Apoptose-Raten in Präparaten, die eine Plaque-Ruptur aufwiesen, nicht signifikant erhöht. Darüber hinaus fand sich kein Hinweis darauf, dass erhöhte Apoptose-Raten zu einem quantifizierbaren Verlust glatter Gefäßmuskelzellen in der fibrotischen Deckplatte führen. Auf dem Boden dieser Ergebnisse kann gefolgert werden, dass erhöhten Apoptose-Raten glatter Gefäßmuskelzellen in der humanen Atherosklerose offenbar eine tragende Bedeutung bei der Entwicklung thrombembolischer Ereignisse zukommt. Allerdings wird die Annahme, dass erhöhte Apoptose-Raten über einen Verlust an glatten Gefäßmuskelzellen Einfluss auf die morphometrischen Eigenschaften der fibrotischen Deckplatte atherosklerotischer Karotis-Läsionen nehmen und zu deren Ausdünnung führen durch die vorliegende Untersuchung nicht gestützt. Vielmehr scheint es plausibel, dass die Apoptose glatter Muskelzellen im Rahmen inflammatorischer Prozesse Einfluss auf die Komposition der Karotisplaque nimmt und so über eine Desintegration der zellulären und bindegewebigen Bestandteile zu reduzierter mechanischer Widerstandskraft und Rupturneigung führt.
Das Ziel der vorliegenden Studie war die vergleichende morphometrische Untersuchung der Molarenmorphologie rezenter Hominoidea. Im Mittelpunkt der Fragestellung stand die dreidimensionale Analyse des hominoiden Facettenmusters, neben dem quantitativen Vergleich der Relieftopographie und der konstruktiven Veränderung der Kauflächen mit zunehmender Abnutzung, im Hinblick auf die funktionellen Möglichkeiten zur effektiven Nahrungsaufschließung.
Die qualitative Analyse umfasst, neben der dentalmorphologischen Beschreibung, die digitale Fotodokumentation und die Klassifizierung der verschieden weit abgenutzten Molaren in vergleichende Abkauungsgrade.
Die quantitative Auswertung der virtuellen Zahnmodelle schließt die Vermessung der größten Länge, Breite und Höhe, die Berechnung des prozentualen Dentin- und Facettenflächenanteils, des Relief-Index sowie die Neigung und Orientierung der antagonistischen Facetten des Oberund Unterkiefers mit ein. Die Berechnung der korrespondierenden Facettenwinkel in einem einheitlichen Koordinatensystem erlaubt die Kalibrierung der okkludierenden Flächenareale und die Berechnung dreidimensionaler Richtungsvektoren, die die buccale und linguale Mandibelbewegung widerspiegeln. Je nach der Art der Verzahnung der in Okklusion tretenden Höckerflanken lassen sich aus dem räumlichen Zusammenspiel der Funktionselemente quetschende und scherende Komponenten differenzieren.
Die Ergebnisse, die am Rezentmaterial (244 Einzelzähne) gewonnen wurden, sind auf 16 ausgewählte Einzelzähne aus Sangiran und Punung (Java, Indonesien) der Sammlung VON KOENIGSWALD der Abteilung Paläoanthropologie und Quartärpaläontologie des Forschungsinstituts Senckenberg, übertragen worden.
Entsprechend der zu Anfang aufgeworfenen Fragestellung konnte ein für jede Gattung charakteristisches Reliefmuster der Okklusalfläche und dessen Veränderung im Laufe der Abkauung etabliert werden. Infolge des Abschleifens der konvexen Höckerspitzen kommt es zu einer unterschiedlich schnellen und intensiven Reliefverflachung. Die Reliefunterschiede zwischen den Gattungen bleiben im Laufe der Abnutzung erhalten. Gorilla besitzt das am stärksten ausgeprägte okklusale Relief und zeigt die intensivste Abnutzung der Kauflächen und grenzt sich von Pan und Hylobates und insbesondere von Pongo deutlich ab. Pongo besitzt das flachste okklusale Relief und zeigt eine geringere Abnutzung der Kauflächen.
Auf der Grundlage der rekonstruierten Facettenwinkel lässt sich das homologe Facettengrundmuster der Hominoidea weiter differenzieren. Alle Gattungen stimmen in der Position der Facettenareale weitgehend überein. Dieses homologe Facettenmuster resultiert aus der relativ zyklischen Kaubewegung. Die Relieftopographie und Profilierung der Kaufläche sind für die individuelle Bewegungsführung entscheident. Es konnte gezeigt werden, dass aus der unterschiedlichen Steilheit der Zahn-zu-Zahn-Kontakte, unter Berücksichtigung der auf der dreidimensionalen Orientierung der Facetten basierenden Bewegungsbahnen, verschiedene Funktionalitäten resultieren. Durch die Unterschiede in der räumlichen Facettenausdehnung prägt sich ein gattungsspezifisches Grundmusters aus, welches direkt mit der Funktion korreliert und die hohe Effizienz bei der unterschiedlichen Nahrungsaufbereitung bewirkt. Jene quantitativ erfassten Flächen und Bewegungen können funktionell interpretiert werden und stellen eine eindeutige Verbindung zu den in der Literatur aufgeführten Ernährungsweisen der Hominoidea her. Die Kauflächen der vier rezenten Gattungen können unter unterschiedlichen Nutzungsbedingungen im Hinblick auf eine spezifische Ernährungsweise verstanden werden.
Es wurde gezeigt, dass die dreidimensionale Ausrichtung homologer Facetten zu unterschiedlicher Funktionalität führen kann und demzufolge über die zweidimensionale Analyse hinausgeht.
Gorilla nutzt die Vielzahl steiler und kleiner Kontaktflächen zum Zerschneiden der überwiegenden faserigen Nahrungsbestandteile durch hohe Scherkräfte. Aufgrund der stark profilierten Kaufläche folgt die Bewegungsführung restriktiv dem Furchungsverlauf.
Pongo besitzt infolge der Konstruktion der Kaufläche große Kontaktareale, die in flachem Winkel aufeinandertreffen und so ein effizientes Quetschen oder Zermahlen der überwiegenden Früchtenahrung erlauben. Das flache Kauflächenprofil ermöglicht einen größeren Spielraum in der Bewegungsführung.
Pan und Hylobates besitzen ein Repertoire aus schneidenden und quetschenden Funktionselementen und somit einen geringeren Spezialisierungsgrad.
Die Beurteilung der Konstruktion und Funktion der pleistozänen Einzelmolaren im Vergleich mit den erarbeiteten Rezentmodellen ergibt eine Ähnlichkeit mit dem modernen Pongo. Die flache Relieftopographie, die geringe Steilheit der Winkel und die zusätzlichen Schmelzrunzelungen lassen auf ein Quetschen der Nahrung schließen. Eine phylogenetische Aussage zur Differenzierung zwischen Homo oder Pongo konnte aufgrund der kleinen und als exemplarisch anzusehenden Zahl fossilen Materials nicht eindeutig erfolgen.
Das Ziel der vorliegenden Untersuchung war die Analyse der Eignung von vier unterschiedlichen topischen Anästhesiemethoden für die Kleinschnittkataraktchirurgie. Hierzu wurden 100 Patienten (41 Frauen, 59 Männer, Durchschnittsalter: 67,3 Jahre) randomisiert vier gleich großen Gruppen zugewiesen: A: Ophtocain®-Tropfen + intrakamerale Anästhesie mit 1ml unkonserviertem Lidocain 1%, B: Ophtocain®-Tropfen, C: Xylocain®-Gel 2% + intrakamerale Anästhesie mit 1 ml unkonserviertem Lidocain 1%, D: Xylocain®-Gel 2%. Die vier Gruppen unterschieden sich nicht statistisch signifikant bezüglich Bulbuslänge, Vorderkammerlänge, Dioptrien, Operationsdauer und Phakointensität (d.h. Geräteleistung * Zeit). An Hand der perioperativen Überwachung des systolischen und diastolischen Blutdrucks sowie der Pulsfrequenz zeigten sich keine Unterschiede zwischen den vier Gruppen. Bei der Auswertung der subjektiven Eindrücke der Patienten mittels einer zehnstufigen visuellen Analogskala traten bei insgesamt fünf Patienten aus allen vier Gruppen Missempfindungen oder Schmerzen des Grades 2 oder mehr auf. Es bestanden keine statistisch signifikanten Unterschiede zwischen den Gruppen. Die bivariate Analyse zeigte einen signifikanten Zusammenhang zwischen Bulbuslänge, Schmerzen und Anästhesiemethode: Nur bei Patienten mit einer Bulbuslänge über 25 mm senkte die zusätzliche intrakamerale Anästhesie das Schmerzrisiko. Die multiple logistische Regression zeigte, dass eine höhere Phakointensität die Wahrscheinlichkeit eines intraoperativen Druckempfindens senkt. In allen vier Anästhesiegruppen traten bei der Mehrheit der Patienten transiente Epithelödeme auf. Auffällig war, dass Descemet-Falten ausschließlich bei drei Patienten der Gruppe A (Tropf- und intrakamerale Anästhesie) auftraten. Die Kleinschnittkataraktchirurgie unter topischer Anästhesie mit/ohne intrakamerale Anästhesie stellt für kooperative Patienten eine sichere und effektive Alternative zu herkömmlichen Anästhesieverfahren dar, die dem erfahrenen Operateur vorbehalten sein sollte. Die Verwendung gelförmiger Zubereitungen ist der Tropfanästhesie gleichwertig, bietet allerdings zusätzlich den Vorteil einer besseren Gleitfähigkeit und eines verringerten Risikos der Corneaaustrocknung.
Einleitung: Eine mehrtägige präoperative Einnahmepause von Thrombozytenaggregationshemmern, zu denen die weit verbreitete Acetylsalicylsäure (ASS) als auch die Thienopyridine (Clopidogrel, Ticlopidin) gehören, ist zur Minimierung des perioperativen Blutungsrisikos erwünscht, wird aber häufig nicht eingehalten. Patienten und Methoden: Im Krankenhaus Nordwest, Frankfurt, wurden an 123 urologischen Patienten nach Einnahme von ASS undIoder Thienopyridinen präoperativ die Arachidonsäure(AA)- und ADP-induzierte Thrombozytenaggregation (Methode nach Born) und die Blutungszeit (modifizierte Methode nach Mielke) durchgeführt und im Hinblick auf die Erkennung einer klinisch relevanten Thrombozytenfunktionsstörung mit erhöhtem Blutungsrisiko miteinander verglichen. Als Kontrollgruppe dienten 71 urologische Patienten ohne präoperative Einnahme von Thrombozytenaggregationshemmern. Ergebnisse: An 96 operierten und zusätzlich 49 nicht operierten Patienten, die ASS eingenommen hatten, wurde der Zusammenhang zwischen Testergebnissen und zeitlichem Abstand zur ASS-Einnahme untersucht: Eine ASS-bedingte Thrombozytenfunktionsstörung lässt sich nur anhand der AA-induzierten Thrombozytenaggregation zuverlässig erkennen, welche noch vier Tage nach ASS-Einnahme signifikant vermindert ist und deutlich außerhalb des Referenzbereichs liegt. Eine geringfügig verlängerte Blutungszeit und verminderte ADP-induzierte Aggregation sind nach ASS-Einnahme zwar kurzzeitig nachweisbar, die Messwerte befinden sich im Mittel jedoch innerhalb der Referenzbereiche. An allen operierten Patienten nach ASS- oder Thienopyridin-Einnahme wurde der Zusammenhang zwischen Testergebnissen und dem Auftreten verstärkter Blutungen untersucht. Als Kriterien für den intraoperativen Blutverlust wurden hierbei Hb-Abfall, Anzahl der transfundierten Erythrozytenkonzentrate und Beurteilung der Blutungsstärke durch den Operateur herangezogen. Sowohl für die AA- und ADP-induzierte Aggregometrie als auch für die Blutungszeit gilt: Nach pathologischem Testergebnis traten keine stärkeren intraoperativen Blutungen auf als nach normalem Ergebnis. Nicht eingeschlossen waren jedoch Patienten mit Blutungszeiten über 8 Minuten (n = 11) , da diese nach Entscheidung der Urologen aus ethisch-rechtlichen Gründen nicht sofort operiert wurden. Unter Einbezug dieser Patienten ist ein nachweisbarer Zusammenhang zwischen Testergebnis und intraoperativer Blutung nicht völlig auszuschließen. Ungeachtet der präoperativen Testergebnisse konnten bei Patienten nach Einnahme von Thrombozytenaggregationshemmern gegenüber dem Kontrollkollektiv keine stärkeren intraoperativen Blutungen nachgewiesen werden. Auch ein Zusammenhang zwischen dem zeitlichen Abstand zur letzten ASS-Einnahme und dem intraoperativen Blutverlust bestand nicht. Mit der bereits erwähnten Einschränkung (Ausschluss von 11 Patienten mit Blutungszeiten über 8 Minuten) ist anhand der vorliegenden Daten nicht mit einem erhöhten intraoperativen Blutungsrisiko nach kurzzeitig zurückliegender Einnahme von Thrombozytenaggregationshemmern zu rechnen. Schlussfolgerungen: Eine medikamentenbedingte Thrombozytopathie - im Vergleich der drei Testmethoden am ehesten anhand der AA-induzierten Thrombozytenaggregation erkennbar - ist nicht von klinischer Relevanz im Sinne eines erhöhten perioperativen Blutungsrisikos. Ohne einen weiteren Hinweis auf ein erhöhtes Blutungsrisiko erscheint daher in Ermangelung eines Goldstandards weder der präoperative Einsatz von Thrombozytenfunktionstests noch das Verschieben einer Operation zwingend notwendig.