Medizin
Refine
Year of publication
- 2010 (165) (remove)
Document Type
- Doctoral Thesis (132)
- Article (11)
- Part of Periodical (11)
- Contribution to a Periodical (4)
- Conference Proceeding (3)
- Working Paper (2)
- Book (1)
- Periodical (1)
Language
- German (165) (remove)
Is part of the Bibliography
- no (165)
Keywords
- NMR-Tomographie (2)
- - (1)
- Abruf (1)
- Acrylamid (1)
- Adrenalektomie (1)
- Angiographie (1)
- Anisotrope Diffusion (1)
- Anzapfsyndrom (1)
- Arbeitsgedächtnis (1)
- Arterielle Verschlusskrankheit (1)
Institute
- Medizin (165)
- Präsidium (4)
- Biowissenschaften (1)
- Georg-Speyer-Haus (1)
- Informatik (1)
Einleitung: Eine frühe Unterscheidung zwischen ischämischem Schlaganfall und intrazerebraler Blutung durch die Verwendung eines Biomarker-Tests könnte bereits in der prähospitalen Phase eine fallspezifische Akuttherapie ermöglichen. Basierend auf einzelnen Messungen in der Akutphase des Schlaganfalls konnten wir zeigen, dass ein Anstieg des sauren glialen Faserproteins (GFAP) im peripheren Blut von Patienten mit intrezerebraler Blutung wesentlich früher messbar ist als bei Patienten mit ischämischem Schlaganfall. Das Ziel der vorliegenden Studie war, das diagnostische Zeitfenster des Serum- GFAP- Spiegels zur Differenzierung zwischen intrazerebralen Blutung und ischämischen Schlaganfall zu charakterisieren. Materialien und Methoden: In diese prospektive Studie wurden 63 Schlaganfallpatienten eingeschlossen, die innerhalb von 6 Stunden nach Symptombeginn in der Klinik eintrafen. Mithilfe bildgebender Verfahren wurde bei 18 dieser Patienten eine intrazerebrale Blutung und bei 45 der Patienten ein ischämischer Schlaganfall diagnostiziert. Zu den Zeitpunkten von 1, 2, 3, 4, 6, 12, 24 und 48 Stunden nach Symptombeginn wurden den Patienten Blutproben entnommen (wenn sie zu dieser Zeit zur Verfügung standen). Im Serum dieser Proben wurde mittels eines ELISA-Tests die GFAP-Konzentration bestimmt. Ergebnisse: Innerhalb der ersten 24 Stunden nach Symptombeginn blieben die medianen GFAP-Werte im Serum der Ischämie-Patienten unterhalb der Nachweisgrenze. Die GFAP-Konzentrationen im Serum von Patienten mit intrazerebraler Blutung hingegen waren bereits im Zeitraum zwischen 2 und 6 Stunden nach Symptombeginn signifikant höher als beim ischämischen Schlaganfall. (p<0,001 für alle 4 Zeitpunkte). Unter der Verwendung der receiver operating characteristic curve Analyse lag die diagnostische Sicherheit von GFAP zur Differenzierung zwischen ischämischem und intrazerebraler Blutung bei >0,80 innerhalb des 2-6 Stunden Zeitfensters. Die GFAP-Werte von Patienten mit intrazerebraler Blutung korrelierten zum Zeitpunkt zwei Stunden nach Symptombeginn mit dem Blutungsvolumen (r=0,755, p=0,007). Zusammenfassung: In dieser Untersuchung konnte gezeigt werden, dass das Zeitfenster von 2-6 Stunden nach Symptombeginn bezüglich der Verwendung eines GFAP-Tests für die Differenzierung zwischen ischämischem Schlaganfall und intrazerebraler Blutung geeignet zu sein scheint. In der sehr frühen Phase des Schlaganfalls (etwa <2 Stunden) ist die Sensitivität des Tests zur Erkennung intrazerebraler Blutungen jedoch eher gering, was die Verwendung eines GFAP-Tests in der prähospitalen Phase limitiert.
Die Sicherung der Atemwege ist eine der wichtigsten Aufgaben des mit dem Atemwegsmanagement beauftragten Arztes, da eine fehlgeschlagene Intubation und sich über längere Zeit erstreckende Intubationsversuche schnell zu einer kritischen Hypoxie führen können. Gelingt eine endotracheale Intubation mittels konventioneller Larnygoskopie mit dem Macintosh-Spatel unerwartet nicht, stehen verschiedene supraglottische Atemwegshilfen wie z.B. die Larynxmaske zur Atemwegssicherung zur Verfügung. Falls sich jedoch aus verschiedenen Gründen der Einsatz eines supraglottischen Atemwegs verbietet und die Notwendigkeit einer endotrachealen Intubation besteht, muss eine andere Intubationsmethode als die konventionelle Laryngoskopie gewählt werden. Das Standardverfahren für den erwartet schwierigen Atemweg, die Intubation mit dem flexiblen Endoskop am spontan atmenden Patienten, eignet sich nicht für den unerwartet schwierigen Atemweg. Hierfür werden die Intubationslarynxmaske, Videolaryngoskope, Führungsstäbe mit Transillumination und verschiedene starre Fiberoptiken wie das Bonfils Intubationsfiberskop oder das Laryngoskop nach Bullard eingesetzt. Der Erfolg des Bonfils Intubationsfiberskops am unerwartet schwierigen Atemweg und am erwartet schwierigen Atemweg, basierend auf einer Reihe klinischer Faktoren, wurde bereits bewiesen. Es ist jedoch nicht bekannt, ob sich das Instrument für einen klar definierten schwierigen Atemweg im Sinne einer eingeschränkten Mundöffnung und eingeschränkten Beweglichkeit in der Halswirbelsäule eignet. Ziel der vorliegenden Studie war es zu untersuchen, ob sich das Bonfils Intubationsfiberskop für den Einsatz am schwierigen Atemweg, simuliert durch einen Immobilisationskragen, eignet. Nach Einwilligung der Ethikkommission wurde die Studie an 76 Patienten durchgeführt, die sich einem elektiven gynäkologischen Eingriff unterzogen. Nach der Simulation des schwierigen Atemwegs durch Anlegen eines Immobilisationskragens wurden jeweils 38 Patienten randomisiert entweder mittels direkter Laryngoskopie oder dem Bonfils Intubationsfiberskop intubiert. Die erfolgreiche Platzierung des Endotrachealtubus mit dem jeweiligen Instrument war der primäre Zielparameter der Studie. Nach Immobilisierung der Halswirbelsäule betrug die maximale Mundöffnung 2,6 cm ± 0,7 cm in der Macintosh-Gruppe und 2,6 cm ± 0,8 cm in der Bonfils-Gruppe. Mit dem Laryngoskop mit Macintosh-Spatel konnten 15/38 Patienten (39,5%) erfolgreich intubiert werden, mit dem Bonfils Intubationsfiberskop konnten 31/38 Patienten (81,6%) erfolgreich intubiert werden (P<0,05). Die benötigte Zeit bis zur erfolgreichen Platzierung des Endotrachealtubus war mit dem Laryngoskop geringer (53 ± 22 s) als mit dem Bonfils Intubationsfiberskop (64 ± 24 s), dieser Zeitunterschied besitzt jedoch weder statistische, noch klinische Relevanz. In der vorliegenden Studie konnte gezeigt werden, dass das Bonfils Intubationsfiberskop der direkten Laryngoskopie mit Macintosh-Spatel an Patienten mit eingeschränkter Mundöffnung und immobilisierter Halswirbelsäule überlegen ist.
Leben bedeutet eine fortdauernde Anpassung an Umweltbedingungen durch ein hoch entwickeltes Informationsverarbeitungssystem. Diese Anpassung wird durch das neuroendokrine und autonome Nervensystem gewährleistet. Eine tages- und jahreszeitliche Organisation des neuroendokrinen und autonomen Systems findet durch das Photoneuroendokrine System (PNS) statt. Erst in jüngster Zeit konnte gezeigt werden, dass neben peptidergen Substanzen auch lipiderge Signalmoleküle des Endocannabinoidsystems eine essentielle Rolle bei der interzelluären Kommunikation spielen. Hierbei zählen Anandamid (AEA) und 2-Arachidonoylglycerol (2-AG) zu den umfassend erforschten Endocannabinoiden. ...
Das Junior Temperament und Charakter Inventar (JTCI) ist ein auf C. R. Cloningers (Cloninger et al., 1993) psychobiologischem Persönlichkeitskonzept basierender Persönlichkeitsfragebogen für Jugendliche im Alter von 12 bis 18 Jahren. Er ist aus der Erwachsenenversion TCI (Temperament and Character Inventory) hervorgegangen und trennt „Persönlichkeit“ in die Konstrukte „Temperament“ (automatische emotionale Reaktionen beim Erleben, Verhaltensstil) und „Charakter“ (Selbstkonzepte und individuelle Unterschiede in Zielen und Werten, welche die Entscheidungsfreiheit, die Intentionen und die Bedeutung dessen, was im Leben erfahren wird, beeinflussen), welche sich wiederum aus insgesamt sieben Dimensionen zusammensetzen. In den letzten Jahren ist das internationale Interesse an Cloningers Konzept insbesondere in der Psychiatrie stark gestiegen, was sich in stetig zunehmenden Veröffentlichungen (insbesondere für das Erwachsenenalter) zeigt. Besonders ist an diesem rein theoriebasierten Inventar, dass in Abgrenzung zu den meisten gängigen Inventaren sowohl „normale“ als auch pathologische Persönlichkeitsvarianten gleichermaßen beschrieben werden können, wobei das Temperament den spezifischen Stil auffälligen Verhaltens aufklären soll, während anhand der Charakterausprägung eine Aussage darüber möglich sein soll, ob überhaupt eine psychische Auffälligkeit vorliegt. Da sich für die erste Jugendversion des Inventars JTCI 80 (Schmeck et al., 1995) trotz guter Konstruktvalidität eine nur geringe Skalenreliabilität zeigte, wurde eine grundlegende Revision zum in dieser Arbeit zentralen JTCI 12-18 (Goth, Schmeck, Meyenburg & Poustka, 2000) durchgeführt. Zur Überprüfung der inhaltlichen und diagnostischen Validität im Sinne einer inhaltlichen Lokalisation der erfassten Konstrukte sowie der Einflüsse sozio-demographischer Variablen (Alter, Geschlecht, Bildungsniveau, Nationalität, sozialer Status) auf die Persönlichkeit wurde neben einer umfangreichen Felduntersuchung an 715 Frankfurter Schülern eine klinisch / ambulante Stichprobe (N = 92) erhoben. Es ergab sich eine sehr gute Konstruktvalidität sowie eine überzeugende Kriteriumsvalidität. Der geringe Einfluß sozio-demographischer Faktoren insbesondere auf das Temperament konnte sich ebenfalls bestätigen. Sofern gleiche Außenkriterien vorhanden waren, wurde durch einen deskriptiven Vergleich mit den Ergebnissen der Vorgänger- und der mittlerweile erschienenen NachSeite 129 folgeversion des JTCI ein Versuch einer „differenzierten Nachuntersuchung“ der Äquivalenz der drei „Inventar-Generationen“ unternommen, um daraus wichtige Rückschlüsse zur weiteren Verwendbarkeit der einzelnen Versionen zu ziehen. Besonders wichtig ist dies, da auch heute noch aktuelle Forschungen mit den verschiedenen Versionen des Jugendfragebogens durchgeführt werden und eine ausreichende Äquivalenz für eine inhaltliche Übertragbarkeit der Ergebnisse unabdingbar ist. Es zeigten sich dabei zwischen den beiden jüngeren Versionen durchweg in Richtung und Höhe übereinstimmende Korrelationen im Vergleich mit verwandten und diagnostischen Inventaren. Ähnliche Ergebnisse erbrachte der Vergleich mit der ursprünglichen JTCI-Version, wobei hier die „Schadensvermeidung“ entgegen der Erwartung keine Beziehung zur IVE-Waghalsigkeit aufwies. Insgesamt sprechen die Ergebnisse jedoch für eine „generationsübergreifende“ stabile inhaltliche und klinische Validität, was die von Cloninger aufgestellte Theorie bekräftigt. Dennoch konnten die Skalenreliabilitäten des JTCI 12-18 nicht ausreichend verbessert werden, um den gängigen Kriterien zu genügen (Goth, 2008), weshalb in den letzten Jahren eine nochmalige Revision durchgeführt wurde, die sich speziell an Cloningers revidierter Operationalisierung im Erwachsenenbereich anlehnt. Heute existiert das JTCI / 12-18 R sowie eine komplette „JTCI-Familie“ (Goth & Schmeck, 2009), deren Verwendung ohne Einschränkung auch im Rahmen längsschnittlicher Erforschungen der Entwicklung von Persönlichkeit und Psychopathologie empfohlen werden kann, da hiermit erstmals eine fundierte Erfassung „der gleichen“ Persönlichkeitseigenschaften bei Kindern und Erwachsenen ohne Konzeptwechsel möglich ist (Goth, 2008). Aufgrund der verbesserten Skalenreliabilitäten und der Aktualität der Skalenoperationalisierung sollte heute ausschließlich die aktuellste Version JTCI/ 12-18 R Anwendung finden. Ergebnisse der Vorgängerversion JTCI 12-18 können in Anbetracht der durchweg guten Inhaltsäquivalenz jedoch durchaus berichtet werden, während die erste Version JTCI 80 insbesondere wegen der o.g. fehlenden Beziehungen nicht mehr verwendet werden sollte.
Die Entwicklung Philadelphia Chromosom-positiver (Ph+) chronischer myeloischer und
akuter lymphatischer Leukämie (CML und ALL) ist auf das Verschmelzen von ABL-und
BCR-Gensequenzen zurückzuführen. Die Bildung dieses BCR/ABL-Fusionsprotein führt
zu einer konstitutiv gesteigerten ABL-Tyrosinkinase-Aktivität mit der Folge einer
Deregulierung vielfältiger intrazellulärer Signalwege und der Induktion des
leukämischen Phänotyps.
Eine zielgerichtete Inhibierung von BCR/ABL mit Hilfe von ABL-Kinase-Inhibitoren
induziert Apoptose in BCR/ABL-transformierten Zellen und hat eine komplette
hämatopoetische Remission in Ph+ Leukämie-Patienten in der chronischen Phase zur
Folge. Eine große Zahl an Patienten mit fortgeschrittener Ph+ Leukämie erleidet
allerdings einen Rückfall und entwickelt Resistenzen gegen die molekularen
Therapeutika. Ein Hauptgrund für die Resistenzentwicklung sind Punktmutationen im
Bereich der ABL-Tyrosinkinase.
Die Punktmutation T315I ist als einzige Mutation gegen alle bisher entwickelten
Medikamente resistent. Sie ist auf eine Punktmutation von Threonin zu Isoleucin an
einer äußerst kritischen Stelle, der so genannten „Gatekeeper-Position“
zurückzuführen. Die T315I scheint nicht nur die Bindungsaffinität der Kinase-
Inhibitoren zu verhindern, sondern erzeugt zusätzliche Eigenschaften, die das
leukämogene Potential von BCR/ABL verstärken.
Ziel dieser wissenschaftlichen Arbeit war es daher, den Einfluss der T315I auf das
transformatorische Potential von BCR/ABL aufzuklären. Es konnte gezeigt werden, dass
die T315I sowohl bei p185BCR/ABL, als auch bei p210BCR/ABL zu einem gesteigerten und
Faktor-unabhängigen Wachstum führt. Zudem wurde im Rahmen einer Struktur-
Funktionsanalyse verdeutlicht, dass die T315I unabhängig von BCR-Sequenzen in der
Lage ist, Faktor-unabhängiges Zellwachstum in 32D- und Ba/F3-Zellen, aber nicht
klassisches Transformationspotential in Fibroblasten zu vermitteln.
106
Ebenfalls war Gegenstand der experimentellen Arbeiten die Untersuchung, ob die
durch die T315I-vermittelte Resistenz gegenüber der Hemmung der Oligomerisierung
durch kompetitive Peptide von der Präsenz von BCR-Funktionsdomänen abhängt,
welche für die Aktivierung der Ras-Signalwege unerlässlich sind.
Es konnte nachgewiesen werden, dass die T315I-Punktmutation nur dann Resistenz
gegenüber der Hemmung der Oligomerisierung induziert, wenn BCR-Sequenzen als
Ausgangspunkt für den Ras-Signalweg (Tyr 177), in den verwendeten Konstrukten
vorhanden sind. Fehlen BCR-Sequenzen, so hemmen die kompetitiven Peptide auch
T315I-positive BCR/ABL-Deletionsmutanten.
Darüber hinaus wurde im Rahmen dieser Arbeit versucht, neue Lösungsansätze in der
Grundlagenforschung aufzuzeigen, indem ein neuartiges Zellkultursystem mit drei BALL-
Patienten-abgeleiteten Langzeitkulturen (PDLTCs) angewendet wurde. Die CMPDLTC
trägt unmutiertes BCR/ABL, während die KÖ-PDLTC BCR/ABL-T315I positiv ist.
Als dritte PDLTC stand die CR als BCR/ABL-negative Zellkultur zur Verfügung.
Zum ersten Mal war es mit Hilfe dieses relevanten Zellmodells möglich, die
inhibitorische Wirkung des Helix-2-Peptids in primären ALL-PDLTCs zu überprüfen.
Es konnten die bisherigen Ergebnisse aus den murinen Zelllinien zur Wirkung der
Hemmung der Oligomerisierung bestätigt werden, da auch in diesem Modell die Zellen
mit T315I-BCR/ABL resistent gegenüber den kompetitiven Peptiden waren.
Zusammenfassend lassen die Daten dieser wissenschaftlichen Arbeit die
Schlussfolgerung zu, dass die Punktmutation T315I nicht zum Schwerpunkt in der
Erforschung weiterer molekularer Therapeutika erklärt werden sollte. Vielmehr scheint
es in naher Zukunft von äußerster Bedeutung zu sein, besonders die Kaskade der
aberranten Signaltransduktionswegen mit dem Ausgangspunkt in wesentlichen BCRFunktionsdomänen
zu inhibieren.
Außerdem stellen die primären Patienten-abgeleiteten Langzeitkulturen eine
Möglichkeit dar, die Wirkung neuer molekularer Therapeutika effektiv zu überprüfen
und die Pathogenese von Ph+ Leukämien noch besser zu verstehen.
Das Wiedemann-Beckwith-Syndrom (WBS, OMIM 130650) gehört zu den angeborenen
Übergrößensyndromen und tritt mit einer Häufigkeit von 1:8000 bis 1:14000 Neugeborene
auf. Das Syndrom wurde erstmals zwischen 1963 und 1964 von HR Wiedemann und JB
Beckwith beschrieben. In der vorliegenden Studie wurden 52 Betroffene (24 weibliche, 28
männliche) aus ganz Deutschland untersucht, welche größtenteils der WBS-Selbsthilfegruppe
angehörten, darunter auch Patienten aus dem Institut für Humangenetik der Universitätsklinik
Frankfurt am Main. Bisher basierte die Phänotypbeschreibung des Wiedemann-Beckwith-
Syndroms häufig auf Literaturbeschreibungen und Einzelfallanalysen. Diese Studie ist neben
den Studien von Pettenati et al. (1986) und Elliot et al. (1994) eine mit dem größten
Patientenkollektiv.
Die Makroglossie war mit 96,2% das häufigste Symptom, dem folgten mit 75% die
Bauchwanddefekte (darunter in 36,2% die Omphalozele) und mit 72,5% die Makrosomie.
Alle Patienten zeigten kraniofaziale Auffälligkeiten. Neben der Makroglossie waren dies:
Naevus flammeus im Gesicht (57,7%), Infraorbitalfalten (51,9%), Gesichtshemihypertrophie
(40,4%), antevertierte Nares (21,2%), Exophthalmus (15,4%), Gaumenspalte (9,8%),
Mittelgesichtshypoplasie (9,6%) und flache Wangenknochen (3,8%). 82,4% der Patienten
hatten Ohrauffälligkeiten wie Ohrkerben, Ohrgrübchen und Ohreindellungen.
45,1% der Betroffenen hatten eine postnatale Hypoglykämie, die nicht länger als 3 Monate
dauerte. Eine Viszeromegalie trat bei 73,9% der Patienten und eine Hemihypertrophie bei der
Hälfte der Patienten auf. 7 Patienten hatten einen Herzfehler.
In 48% der Fälle wurden bereits pränatal Ultraschallauffälligkeiten wie Makroglossie,
Gigantismus, Polyhydramnion und große Plazenta festgestellt. 53,8% der Kinder wurden vor
der 38. SSW geboren. Nach der Geburt mußten 78,8% der Neugeborenen wegen
Hyperbilirubinämie, Omphalozele, Hypoglykämie, Atemnotsyndrom durch Makroglossie
oder frühgeburtlichen Komplikationen intensivmedizinisch betreut werden. Die Omphalozele
wurde in den ersten Lebenstagen operativ behandelt. 78,8% der Betroffenen erhielten wegen
der Makroglossie eine Therapie, darunter 44,2% eine operative Zungenverkleinerung.
Die kraniofazialen Auffälligkeiten und die Hemihypertrophie verbesserten sich in 80% der
Fälle im Laufe der Kindheit. Die Wachstumsrate verlangsamte sich im Verlauf und die
Körperlänge näherte sich der 90. bzw. der 97. Perzentile bis zur Adoleszenz.
In unserer Studie wurden bei 9 Patienten 9 Tumoren diagnostiziert, wovon 6 Tumoren
bösartig (darunter 4 Wilm’s-Tumoren) und 3 Tumoren gutartig waren.
Aufgrund des erhöhten Risiko für embryonale Tumoren ist ein regelmässiges, engmaschiges
Tumorscreening indiziert.
Die geistige Entwicklung verläuft bei WBS-Patienten in der Regel normal. Es wurden aber
auch Entwicklungsverzögerungen beobachtet, die durch WBS-spezifische Komplikationen
wie z.B. unerkannte postpartale Hypoglykämie, Frühgeburtlichkeit, und Makroglossie
bedingte Apnoe-Anfälle entstehen können. In unserer Studie hatte ein Patient eine mentale
Retardierung, weitere 16 Patienten hatten mehr oder weniger ausgeprägte Sprachprobleme
und /oder eine motorische Entwicklungsverzögerung.
Die meisten Ergebnisse der vorliegenden Arbeit waren vergleichbar mit anderen
Studienergebnissen (z.B. Pettenati et al., 1986, Elliot et al., 1994) über das Wiedemann-
Beckwith-Syndrom. Jedoch kamen maligne Tumoren, Hemihypertrophie,
Entwicklungsverzögerung und Gaumenspalte bei unseren Patienten häufiger vor.
Das Wiedemann-Beckwith-Syndrom ist eine genetisch heterogene Störung, die durch
Mutationen, Epimutationen und veränderte Expression mehrerer benachbarter Gene auf
Chromosom 11p15 entsteht, die dem genomischen Imprinting unterliegen. Die an der
Ätiologie von WBS beteiligten Gene sind die väterlich exprimierten (wachstumsfördernden)
IGF2- und KCNQ1OT1-Gene und die mütterlich exprimierten (wachstumshemmenden) H19-,
CDKN1C- (P57KIP2) und KCNQ1-Gene.
Ca. 15% der WBS-Fälle treten familiär und ca. 85% der Fälle treten sporadisch auf. Bei
familiären Fällen erfolgt die Vererbung autosomal-dominant mit reduzierter Penetranz und
variabler Expressivität. Die familiären Fälle werden überwiegend mütterlich übertragen.
Chromosomenaberrationen sind nur für 1-2% der Patienten verantwortlich. Das individuelle
Wiederholungsrisiko hängt von der genetischen Ursache ab, so dass bei jedem Patienten eine
genetische Untersuchung und Beratung erfolgen sollte.
Die frühzeitige Diagnose (eventuell sogar pränatal) des Wiedemann-Beckwith-Syndroms ist
für das Management der Patienten und die Prognose sehr wichtig. Die primäre Diagnose
erfolgt anhand der klinischen Merkmale. Die genetische Diagnostik wird zur genaueren
Prognose für den zu erwartenden Krankheitsverlauf, Komplikationen (Tumorrisiko),
Möglichkeiten der Prävention und Einschätzung des Wiederholungsrisikos bei weiteren
Geschwistern bzw. eigenen Nachkommen durchgeführt.
Verschiedene Studien konnten bereits demonstrieren, dass Versuchspersonen dazu tendieren, ihre Aufmerksamkeit eher zu Gesichtern mit bedrohlichem Ausdruck als zu solchen mit neutralem Ausdruck zu orientieren. In der vorliegenden Studie wurde mittels neurokognitiver Verhaltensexperimente versucht, diesen als „Attentional Bias“ in Millisekunden messbaren Ef-fekt zu replizieren und unter Wahrnehmungsbedingungen von unbewusst bis bewusst zu un-tersuchen. Entscheidend war hierbei, in wie weit die verschiedenen Wahrnehmungsbedingun-gen zu einem Attentional Bias unterschiedlicher Stärke oder sogar verschiedener Polarität führen, i.e. einer Hinwendung oder einer Abwendung der Aufmerksamkeit gegenüber bedrohlichen Gesichtern. Die Gegenüberstellung von bewusster und unbewusster Wahrnehmung bedrohlicher Gesichter stand hierbei im Kontext der Hypothese, dass unbewusst und bewusst wahrgenommene bedrohliche Gesichter über zwei verschiedene neuroanatomische Wege verarbeitet werden und deshalb die Orientierung der Aufmerksamkeit unterschiedlich beeinflussen. Zur Messung des Attentional Bias wurde die „Dot-Probe-Aufgabe“ verwendet. Um die verschiedenen Wahrnehmungsbedingungen zu stellen wurden dabei vier verschiedene Präsenta-tionszeiten (17, 34, 100 und 400 ms) sowie die Technik der Rückwärtsmaskierung benutzt. Da in anderen Studien häufig ein Einfluss der Ängstlichkeit von Probanden auf deren Aufmerksamkeitsorientierung dargestellt werden konnte, wurde auch eine Gruppierung der Probanden in hoch-, niedrig- und durchschnittlich ängstliche vollzogen; dies jedoch primär in dem Interesse, die Ängstlichkeit als entscheidende Einflussgröße ausschließen und möglichst allgemeingültige Aussagen machen zu können. Unter unbewusster Wahrnehmung (17 ms Präsentationszeit) zeigte sich ein signifikanter, negativer Attentional Bias von -5,46 ms (t (29) = -2,57, p = 0,02), hingegen waren die Attentional Bias-Werte bei den längeren Präsentationszeiten nicht signifikant von Null verschieden. Für die Präsentationszeit als eigener Faktor zeigte sich ein marginal signifikanter Einfluss auf den Attentional Bias (F (3, 87) = 2,20, p = 0,09). Die nach Gruppierung der Probanden in über-, unter- und durchschnittlich ängstliche erfolgte Auswertung konnte sowohl für die unter- wie auch die überdurchschnittlich ängstlichen Probanden (nicht jedoch für die durchschnittlich ängstlichen) einen Trend zu einer Abwendung der Aufmerksamkeit von bedrohlichen Gesichtern bei unbewusster Wahrnehmung zeigen. Angesichts dieses Befundes bleibt offen, wie sehr die Gesamtergebnisse gerade durch diese Gruppen geprägt worden sind. Die Ergebnisse lassen darauf schließen, dass unter Bedingungen unbewusster Wahrnehmung bedrohliche Gesichter zu einer Abwendung der Aufmerksamkeit (negativer Attentional Bias) führen. Dies steht im klaren Kontrast zu den Ergebnissen von Mogg und Bradley (1999a) und Fox (2002). Es wird somit in Frage gestellt, dass bedrohliche Gesichter bei unbewusster Wahrnehmung Aufmerksamkeit auf sich ziehen und nicht zu einer Abwendung dieser führen. Weiter deuten die Ergebnisse darauf hin, dass bei zunehmendem Einfluss bewusster Wahrnehmung zwischen bedrohlichen und neutralen Gesichtern kein Unterschied bezüglich ihrer Wirkung auf die Aufmerksamkeitsorientierung besteht. Verschiedene Ansätze werden hier als mögliche Erklärung eines negativen Attentional Bias bei unbewusster Wahrnehmung diskutiert. Die unterschiedliche Richtung der Aufmerksamkeitsorientierung unter bewusster im Vergleich zu unbewusster Wahrnehmung spricht für eine frühe, unbewusst erfolgende, grobe Ver-arbeitung bedrohlicher Gesichter, sowie eine später erfolgende, komplexere Verarbeitung die-ser, welche mit einer Neubewertung einhergeht. Im Kontext der bestehenden Literatur macht das Ergebnis der Studie deutlich, dass die Zusammenhänge zwischen der Orientierung unserer Aufmerksamkeit, emotionalen visuellen Eindrücken und unserem Bewusstsein noch nicht ausreichend geklärt sind. Es bedarf weiterer Forschung
Ziele: In dieser Arbeit sollte die Wirkung von Cyclopamin auf das Wachstumsverhalten von Leukämiezellen untersucht werden. Dabei galt es zu klären, ob eine Hemmung des Wachstumsverhaltens über eine, durch Cyclopamin induzierte Inhibition des sogenannten Hedgehog-Signalweges erfolgt. Weiterhin war die Wirkung von Cyclopamin auf Lymphozyten gesunder Spender zu prüfen, um eine mögliche Selektivität auf maligne Zellen aufzuzeigen.
Zahlreiche Studien haben gezeigt, dass sich trotz der Verwendung von Dentinadhäsiven in deninbegrenzten Klasse-II-Kavitäten keine randspaltfreien Füllungen erzielen lassen. Die Ergebnisse dieser in-vitro-Studie zeigen dies ebenfalls, dass mit Dentinadhäsiven der fünften und sechsten Generation keine komplett spaltfreien Kompositfüllungen im Dentin hergestellt werden können. Zu diesem Schluss kam auch Manhart, J. et al 2000. Selbst bei Anwendung moderner Dentinadhäsivsysteme unter Einhaltung aller Verarbeitungsvorschriften lässt sich das Zustandekommen einer Komposit-Dentinhaftung in Klasse-II-Kavitäten nicht mit Sicherheit vorhersagen. Bei allen getesteten Dentinadhäsiven wurde an den Kavitätenrändern Farbstoffpenetration nachgewiesen. Die Farbstoffpenetration zeigte an den Kavitäten die Tendenz von approximal nach pulpal geringer zu werden. Optibond Solo mit Füllstoffgehalt erreichte in der Farbstoffpenetration am zervikalenFüllungsrand mit (54,54 %) und ohne (31,89 %) Liquorsimulation die besten Resultate. Auch am oralen Füllungsrand hatte Optibond Solo mit (36,38 %) und ohne (37,09 %) Liquorfluss die besten Ergebnisse. An der vestibulären Kavitätengrenze waren Optibond Solo und Syntac Sprint an der Spitze: mit Liquorsimulation Syntac Sprint 32,68 %, Optibond Solo 38,42 %; ohne Liquorsimulation Syntac Sprint 35,97 %, Optibond Solo 35,3 %. Alle Ränder zusammen betrachtet, wies ebenfalls Optibond Solo die geringste Farbstoffpenetration auf: mit Liquor 43,2 %, ohne Liquor 34,72 %. Das wasserhaltige Syntac SC belegte den letzten Platz bei Auswertung aller Ränder zusammen mit Liquor 82,89 %, ohne Liquorsimulation war hingegen Etch & Prime 3.0 absolutes Schlusslicht (80,03 %). Das schlechteste Ergebnis erreichte Syntac SC ebenfalls am vestibulären Füllungsrand ohne (75,59 %) und mit Liquorsimulation (81,16 %), sowie zervikal mit Liquor (95,32 %). Syntac SC konnte genauso mit der angewandten Moist-bonding-Technik in der REM (20 % "perfekte Ränder" vor und 8 % nach Thermocycling) nur den letzten Platz einnehmen. Das acetonbasierende Adhäsiv Syntac Sprint erlangte in der REM sowohl vor (77 %) als auch nach (76 %) Temperaturwechselbadbelastung den höchsten Anteil an "perfekten Rändern", gefolgt von Optibond Solo mit 65 % vor und 50 % nach Thermocycling. Die Temperaturwechselbadbelastung hatte Einfluss auf die Qualität der Randadaptation. Bei allen untersuchten Dentinadhäsiven reduzierte sich der prozentuale Anteil an perfekten Rändern nach Thermocycling im Vergleich zuvor. Die Qualität des Zustandekommens eines akzeptablen Füllungsrandes ist von der chemischen Zusammensetzung, insbesondere dem enthaltenen Lösungsmittel, dem Füllstoffgehalt und der Dentinfeuchtigkeit abhängig. Die Durchführung der Simulation des Liquors führte am zervikalen Rand bei Syntac SC (ohne: 92,54 %; mit: 95,32 %), Optibond Solo (ohne: 31,89 %; mit: 54,55 %) und Scotchbond 1 (ohne: 63,44 %; mit: 83,24 %) zur erhöhten Farbstoffpenetration - im Falle von Etch & Prime 3.0 (ohne: 93,11 %; mit: 86,42 %), Syntac Sprint (ohne: 81,98 %; mit: 73,75 %) und Prime & Bond NT (ohne: 88,86 %; mit: 81,01 %) jedoch zu einer verringerten Penetration des Methylenblaus.
Die vorliegende Studie beleuchtet Pathogenese, Klinik und Therapie lumbaler lateraler Bandscheibenvorfälle und stellt mit einem mittleren Follow-up von 12,2 Jahren erstmalig Langzeitresultate nach operativer Therapie vor. Untersucht wurde ein Kollektiv von 138 Patienten, die im Zeitraum von 1989 bis 2008 in der Klinik für Neurochirurgie der Goethe-Universität Frankfurt am Main an einem lumbalen lateralen Bandscheibenvorfall operiert wurden. Die prä- und unmittelbar postoperativen Daten sowie die Details der Operationen wurden den schriftlichen und elektronischen Aufzeichnungen des Krankenblattarchivs entnommen. Postoperativ konnten 87 Patienten des Kollektivs kontaktiert und mit Hilfe eines hierfür konzipierten Fragenbogens telefonisch interviewt werden (Rücklaufquote 63,0%). Im Rahmen dieses Follow-ups wurden noch eventuell vorhandene Beschwerden, die berufliche Situation und die subjektive Zufriedenheit der Patienten erfasst und ausgewertet. Das Durchschnittsalter der Patienten zum Zeitpunkt der Operation betrug im Mittel 55,9 Jahre, eine geschlechtliche Präponderanz fand sich nicht. Es wurden etwas mehr Männer operiert (54,3%), wobei sich jedoch kein statistisch relevanter Unterschied fand. Die am häufigsten betroffenen Lokalisationen waren LWK 4/5 und LWK 3/4 mit insgesamt 73,9%. In 82,6% der Fälle wurde der Vorfall über den lateralen Zugang, in 13,0% über einen medialen Zugang jeweils in mikrochirurgischer Technik entfernt, bei 4,4% kamen endoskopische Verfahren zum Einsatz. Präoperativ klagten 96,4% der Patienten über Lumbago. Bei der Befragung im Langzeitverlauf gaben 41,2% keinerlei Lumbago mehr an und nur 11,8% verspürten ständige Schmerzen im LWS‐Bereich. Radikuläre Schmerzen waren präoperativ ebenfalls bei 96,4%, zum Zeitpunkt der Befragung nur noch bei 22,1% vorhanden. Die Sensibilitätsstörungen gingen von präoperativen 79,0% auf 49,3% bei der Befragung zurück. Einen noch deutlicheren Rückgang erfuhren die Paresen: von 71,7% auf 29,3%. Weiterhin wurden die berufliche Situation und die körperliche Bewegungseinschränkung bewertet: 72,2% der erwerbstätigen Patienten konnten ihre Arbeit wieder aufnehmen und 7,4% haben ihre Arbeit gewechselt. Lediglich 16,7% der Patienten nahmen postoperativ ihre Tätigkeit nicht mehr auf. Etwa 10% der Patienten gaben eine Einschränkung ihrer täglichen Aktivitäten durch die Schmerzen an. Bei 10,9% der Patienten kam es zu erneuten Beschwerden ausgehend von der gleichen Höhe, so dass ein erneuter Eingriff indiziert war. Fast alle diese Reoperationen fanden bereits im ersten postoperativen Jahr statt. Bei drei Patienten (2,2%) wurde eine dritte Operation notwendig. Als wesentliches Kriterium für die Bewertung des Operationsergebnisses gilt die subjektive Zufriedenheit des Patienten. Hier konnte in der vorliegenden Studie eine Zufriedenheit von 94,3% nach einem mittleren Follow‐up von 12,2 Jahren nach Operation festgestellt werden. 75,9% der Patienten waren mit dem Ergebnis sogar sehr zufrieden. Die in der vorliegenden Studie erfassten und ausgewerteten Ergebnisse decken sich zum großen Teil mit kurz‐ und mittelfristigen Studien über laterale Vorfälle und mit vielen Studien über den weitaus häufigeren mediolateralen Vorfall. Sie bestätigen die mikrochirurgische Diskektomie über den lateralen Zugang als ein adäquates und sicheres Therapieverfahren mit langfristigem Erfolg für die Behandlung des lateralen Bandscheibenvorfalls. Bei richtiger Indikationsstellung bringt diese operative Behandlung, trotz ungewohnter und anspruchsvoller Operationstechnik, für die meisten Patienten mit therapieresistenten Lumboischialgien eine schnelle und deutliche Besserung. Diese Studie zeigt, dass die aus der Literatur bekannten Erfolgsraten auch nach einem Langzeitverlauf von über 12 Jahren konstant bleiben.
Das Ziel dieser Arbeit ist eine Darstellung der Etablierung des Films im Bereich der Medizin auf Universitätsebene am Beispiel von Prof. Karl Kleist, Leiter der Psychiatrie in Frankfurt am Main von 1920 bis 1950. Als Primärquellen wurden Akten, Briefe und Filme der Frankfurter Psychiatrie aus der damaligen Zeit gesichtet und ausgewertet. Zusammen mit den Sekundärquellen über Kleist und der Darstellung der politischen Rahmenbedingungen in diesem Zeitraum bildet dies die Grundlage der hier vorliegenden Arbeit. Kleist wurde am 31.Januar 1879 in Mühlhausen im Elsass geboren. Nach dem Medizinstudium in Straßburg, Heidelberg, Berlin und München begann er seine Arbeit 1903 als Assistenzarzt in Halle. Hier lernte er Carl Wernicke kennen, der ihn in seinem weiteren wissenschaftlichen Denken und Vorgehen stark prägte. Es entstand eine neue wissenschaftliche Schule, später bekannt als Wernicke- Kleist- Leonhard- Schule. Nach seiner fünfjährigen Assistenzarztzeit in Halle arbeitete er vorübergehend an Edingers Neurologischem Institut in Frankfurt am Main und im hirnpathologischanatomischen Laboratorium Alzheimers in München innerhalb der Klinik von Emil Kraepelin. Danach wechselte er als Oberarzt an die Nervenklinik in Erlangen, wo er bis 1914 arbeitete. Während des ersten Weltkrieges wurde er in einem Kriegslazarett eingesetzt. Dort sammelte er viele Erfahrungen mit Hirnverletzten. 1916 wurde er Direktor der Psychiatrie in Rostock. 1920 folgte er einem Ruf nach Frankfurt am Main. Kleist wurde Leiter der Städtischen und Universitätsklinik für Gemüts- und Nervenkranke in Frankfurt am Main. Auch nach seiner Emeritierung 1950 war er dort weiter wissenschaftlich tätig. Während der Zeit in Frankfurt am Main förderte er den Film als Lehr- und Forschungsmittel. Zu Beginn wurde er von privaten Stiftungen gefördert, später baute er einen Kontakt zum Medizinisch-Kinematographischen Universitätsinstitut in Berlin auf. Dieses arbeitete eng mit dem Verlag Wissenschaftlicher Filme zusammen. Mit Hilfe dieses Verlages stellte er viele Filme her; als Gegenleistung bekam der Verlag unter anderem die Negative seiner Aufnahmen. Nach dem Konkurs des Verlages kaufte die Deutsche Gesellschaft für wissenschaftliche Filme einen Großteil der Konkursmasse und damit auch Kleists Filme auf. Aufgrund der wirtschaftlichen Verhältnisse konnte das Unternehmen jedoch nicht florieren. Kleist wollte seine aufgenommenen Filme aber wissenschaftlich nutzbar machen und ein umfassendes Archiv von psychiatrischen und neurologischen Filmen erstellen. Kaufen konnte er das Material aufgrund mangelnder finanzieller Möglichkeiten nicht. Er schaffte es allerdings, seine Filme bei der Deutschen Gesellschaft für wissenschaftliche Filme zu vereinen und sie teilweise wissenschaftlich zu nutzen. Bald darauf wurden diese Bestände jedoch von der neu gegründeten Reichsstelle für den Unterrichtsfilm übernommen. Einerseits entsprach diese Zentralisierung Kleists Vorstellungen in Bezug auf eine bessere Übersicht und Nutzung der Filme seines Fachgebietes, andererseits stellte er aber ein fragwürdiges wissenschaftliches Interesse der Reichsstelle für den Unterrichtsfilm fest. Nach dem Krieg erlangte er über viele Umwege den Großteil seiner Filme zurück. Darunter befand sich der in dieser Arbeit exemplarisch analysierte Katatoniefilm. Die Fertigstellung der Filme benötigte damals oft Jahre. Wissenschaftliche Filme mit einer Länge von 15-20 Minuten mit mehreren Sequenzen benötigten bis zur Fertigstellung teilweise über zehn Jahre. Die Gründe hierfür waren vielschichtig. Abgesehen von den technischen Problemen waren Aufnahmen aufwändig und teuer. In die Planung mussten sehr viele Ressourcen investiert werden. Patienten mit seltenen Krankheiten waren für Aufnahmen nicht immer verfügbar und die wirtschaftlichen und politischen Gegebenheiten wie Wirtschaftsdepression und Krieg verminderten die Realisationschancen. Trotz dieser widrigen Umstände schaffte es Kleist eine beachtliche Anzahl an Filmen herzustellen und das Filmwesen zu fördern. Prof. Karl Kleist war ein Gründer des psychiatrischen und neurologischen Films. Er hatte das große Ganze im Blick und strebte stets danach seine Ideale auch im Detail zu verwirklichen.
Einleitung: Es kommt immer wieder vor, dass Patienten mit Schmerzen in der Brust, im Arm oder Rücken, mit Übelkeit oder anderen Symptomen eines möglichen Herzinfarktes zu ihrem Hausarzt oder dem Notärztlichen Dienst gehen und mit einer falschen Diagnose und der damit verbundenen falschen medizinischen Behandlung nach Hause geschickt werden. Tritt dann aufgrund solch einer fehlerhaften Diagnose der Tod ein, stellt sich hinterher die Frage warum der Herzinfarkt nicht schon früher erkannt wurde und ob eine fachgerechte, rechtzeitige Behandlung das Leben des Betroffenen hätte retten oder ihm zumindest unnötige Schmerzen ersparen können. Material und Methode: Grundlage der vorliegenden Arbeit sind die Sektionsprotokolle des Zentrums der Rechtsmedizin des Klinikums der Goethe-Universität Frankfurt am Main. Über die institutsinternen Datenprogramme „Obduktio“ und „Sektio“, wurden sämtliche Daten zu Todesfällen gesammelt, bei denen als Todesursache ein Herzinfarkt festgestellt werden konnte und die in dem Zeitraum vom 1.1.1994 bis 31.12.2007 durch Ärztinnen und Ärzte der Frankfurter Rechtsmedizin obduziert wurden. Zusätzlich standen für die Auswertung folgende Unterlagen zu Verfügung: Sektionsprotokolle mit allen rechtsmedizinischen Zusatzuntersuchungen, Ermittlungsergebnisse der Polizei (soweit diese aus den Akten hervorgehen), staatsanwaltschaftliche Akten (inklusiver klinischer Gutachten, soweit in Auftrag gegeben) und Gerichtsurteile (wenn diese bis zum Abschluss der Arbeit vorlagen). Auf diese Weise konnten 38 Fälle von verkannten Herzinfarkten festgestellt werden. Ergebnisse: Von den 38 Verstorbenen waren 16 Frauen und 22 Männer. 21 (55%) waren unter und 17 (44,7%) über 50 Jahre alt. Bei 20 der 38 Patienten (52,6%) erfolgte die ärztliche Konsultation an einem Freitagnachmittag, Samstag oder Sonntag. 20 Verstorbene wurden von einem Notarzt oder ärztlichen Notdienst behandelt. Von den untersuchten 38 Fällen verstarben 13 Patienten in den frühen Morgen- und Vormittagsstunden zwischen 6 und 12 Uhr. 9 Patienten verstarben zwischen 12 und 17 Uhr. 11 verstarben in den Abendstunden zwischen 17 und 22 Uhr und 4 Patienten in den Nachtstunden zwischen 22 und 6 Uhr morgens. Fünfmal wurde ein 12 Kanal-EKG entsprechend den Leitlinien der WMF abgeleitet. Bei 29 der 38 Fälle wurde eine Reanimation durchgeführt. Bei den untersuchten Fällen zeigte sich ein durchschnittliches Herzgewicht bei den Frauen von 370 g, wobei sich ein Durchschnittsalter von 50,1 Jahren und eine Durchschnittsgröße von 165 cm fanden, bei einem durchschnittlichen BMI von 25,5 kg/m2. Bei den untersuchten männlichen Fällen lag das durchschnittliche Herzgewicht bei 499 g und das Durchschnittsalter bei 51,6 Jahren bei einer Durchschnittsgröße von 172 cm und einem durchschnittlichen BMI von 22,4 kg/m2 Bei beiden Geschlechtern zeigt sich ein deutlich erhöhtes Herzgewicht im Vergleich zu den physiologisch Daten bei „Gesunden“. Diagnostisch wurden die Ursachen der Symptome von Seiten der Hausärzte am ehesten im muskuloskeletalen (fast 37% der untersuchten Fälle) oder gastrointestinalen Bereich (30% der bearbeiteten Fälle) vermutet, danach am ehesten an pulmonale Ursachen (5% der Fälle) gedacht. Ein psychischer Hintergrund als Auslöser für die Symptome wurde nur in einem Fall vermutet, allerdings war bei der Verstorbenen auch eine psychiatrische Grunderkrankung vorbekannt. Bei 21% der Fälle wurde keine klare Arbeitsdiagnose gestellt. Diese Patienten wurden hauptsächlich mit Schmerzmedikamenten meist nicht steroidale Antirheumatika (NSAR) behandelt, also am ehesten im Sinne einer möglichen muskuloskeletalen Erkrankung. In 11 Fällen wurde von Seiten der jeweilig zuständigen Staatsanwaltschaft Anklage erhoben. Von diesen 11 erhobenen Anklagen wurde in 9 Fällen das Ermittlungsverfahren nach § 170 Abs.2 StPO eingestellt. Ein Verfahren wurde am Landgericht Frankfurt verhandelt und es kam zu einem rechtskräftigen Urteil. Die angeklagte Ärztin wurde aufgrund eines unnötig aufrechterhaltenden Schmerzzustandes zu einer Geldstrafe von 1500,- DM sowie einer Bewährungsstrafe von einem Jahr verurteilt. Bei einem etwas länger zurückliegenden Verfahren aus dem Jahre 1994 waren die Akten bereits vernichtet worden und der Ausgang des Ermittlungsverfahrens war nicht mehr nachvollziehbar. Es ist aber davon auszugehen, dass auch dieses Verfahren eingestellt wurde. Diskussion: Herz-Kreislauf-Krankheiten sind weiterhin die häufigste Todesursachen bei Frauen und Männern in Deutschland. Zudem führen sie nicht selten durch einen vorzeitigen Tod unter 70 Jahren zu einem erheblichen Verlust (potenzieller) Lebensjahre. Die hier ermittelte Fallzahl von n= 38 erscheint nicht sehr repräsentativ, zumal auch noch die hohe Selektion bias mitbedacht werden muss. Allerdings muss man zusätzlich eine wahrscheinlich sehr hohe Dunkelziffer berücksichtigen, da es zu einer deutlichen Selektion der Verstorbenen bezüglich einer Obduktion durch die jeweiligen behandelnden Ärzte kommt. Insgesamt ist von einer relativ großen Anzahl verdeckter Fälle auszugehen, die nicht obduziert werden und somit die eigentlichen Gründe, die letztendlich zum Tod des Patienten führten oftmals unerkannt bleiben. Bezüglich der Anzahl der geschriebenen EKGs muss die Frage gestellt werden, ob die geringe Anzahl von geschriebenen EKGs nur einen Zufallsbefund der hier untersuchten Fälle darstellen und ansonsten bei vergleichbaren Fällen regelmäßig ein EKG geschrieben wird, oder ob wirklich in den meisten Fällen bei Patienten mit einer unklaren Symptomatik eher auf ein EKG verzichtet wird. Ein weiterer auffälliger Aspekt ist, dass sich das Durchschnittsalter der 38 Verstorbenen bei ca. 51,3 Jahren befindet, und damit deutlich unter dem bundesweiten Durchschnittsalter von > 65 Jahren bei Herzinfarktverstorbenen liegt. Bezüglich des Zusammenhanges zwischen BMI und Herzgewicht lässt sich interessanter Weise eine deutliche Auffälligkeit bzgl. des Herzgewichtes der untersuchten Verstorbenen feststellen. In beiden Geschlechtern fand sich bei über 80% der Untersuchten ein teilweise deutlich über das physiologische Herzgewicht reichendes Herzgewicht bei durchschnittlich normwertigem BMI. Im Zusammenhang mit den hier ermittelten Daten kann ansatzweise überlegt werden, ob evtl. Ultraschalluntersuchungen zur Bestimmung des Herzgewichtes und der Wanddicke zur Diagnostische Abklärung bei fraglichen Brustschmerzen und unauffälligem EKG gehören sollten, um die Gefahr eines evtl. drohenden Infarktes zeitnah eingrenzen zu können. Sicherlich bedarf es hierfür aber noch weiterer Untersuchungen mit größeren Fallzahlen. Bezüglich der strafrechtlichen Konsequenzen ist zu sagen, dass bisher ein verkannter Herzinfarkt mit tödlichen Ausgang ohne strafrechtliche Konsequenzen geblieben ist, da der kausale Zusammenhang zwischen ärztlichem Fehlverhalten und dem Tod des Patienten nicht mit an Sicherheit grenzender Wahrscheinlichkeit nachgewiesen werden konnte mit Ausnahme des einen erwähnten Falles am Landgericht Frankfurt/Main. Ein möglicher neuer Ansatz ist jedoch zunehmend erkennbar. In den letzten staatsanwaltlich untersuchten Fällen zeichnet sich ein Trend zur verstärkten Einzelfallanalyse, bei welcher ausdrücklich die Frage nach einer möglichen längeren Überlebenszeit in den Vordergrund gestellt wird, wenn durch erforderliche, mögliche und unverzügliche Intervention eingegriffen worden wäre. Im Oktober 2007 stellte der BGH erstmalig in einem offiziellen Urteil fest, dass jeden Bereitschaftsarzt klar umrissene diagnostische Pflichten treffen. Auch wenn weiterhin nicht mit an Sicherheit grenzender Wahrscheinlichkeit nachgewiesen werden kann, dass der Tod eines Patienten hätte vermieden werden können, so ist doch in Zukunft die Frage nach einer möglichen Pflichtverletzung bei der durchgeführten Diagnosestellung und –sicherung bei einem Behandlungsfehlervorwurf mit zu berücksichtigen.
Determinanten der Langzeitprognose von Patienten mit implantierbaren Cardioverter-Defibrillatoren
(2010)
Die Effektivität der ICD-Therapie in der Verhinderung des Plötzlichen Herztodes ist unbestritten. Implantierbare Defibrillatoren können ventrikuläre Tachykardien und Kammerflimmern mit hoher Sicherheit beenden und damit den Plötzlichen Herztod mit sehr hoher Wahrscheinlichkeit verhindern. Die vorliegende Studie untersuchte Determinanten der Langzeitprognose von Patienten nach ICD-Implantation. Dabei zeigte sich in unserer Studie bei einer jährlichen Mortalität von 7,2% eine Sterblichkeit am Plötzlichen Herztod von < 1% pro Jahr, was den Nutzen des ICD unterstreicht. Bei der Analyse der Mortalitätsparameter waren ein hohes Alter der Patienten, fortgeschrittene Herzinsuffizienz mit entsprechendem NYHA-Stadium sowie eine deutlich eingeschränkte linksventrikuläre Ejektionsfraktion gute Vorhersagevariablen für die Prognose nach ICD-Implantation mit hohem prädiktiven Wert für die Mortalität. Ebenso scheint die ICD-Indikation ein wichtiger Parameter für die Langzeitprognose zu sein (sekundärprophylaktisch ICD-implantierte Patienten verstarben signifikant häufiger als Patienten, die zur Primärprophylaxe mit einem ICD versorgt wurden), primärprophylaktische Patienten stellen ein Patientenkollektiv mit per se besserer Prognose dar. Bezüglich der Auswertung des Auftretens adäquater Therapien erwiesen sich männliches Geschlecht, hohes Alter, Einnahme antiarrhythmischer Medikation sowie die sekundärprophylaktische ICD-Indikation als bedeutsame Parameter für eine erhöhte ICD-Interventions-Wahrscheinlichkeit. Zur Frage der prognostischen Bedeutung adäquater Therapien zeigte sich, dass im Auftreten adäquater Therapien ebenfalls eine gute Vorhersagevariable für die Langzeitprognose zu sehen ist. Die Auftretenswahrscheinlichkeit von adäquaten ICD-Therapien korrelierte jedoch nichtsignifikant mit dem Plötzlichen Herztod und somit scheinen vorhergehende ICD-Interventionen kein erhöhtes Risiko für diesen darzustellen. Die technische Weiterentwicklung hat in den letzten Jahren zu einer Größenreduktion der ICD´s, zur Vereinfachung der Systemimplantation mit verschwindend geringen peri- und postoperativen Komplikations- und Mortalitätsraten sowie durch die Verlängerung der Systemlebensdauer zum zunehmenden Einsatz von implantierbaren Defibrillatoren als bevorzugte Therapieform mit unbestrittener Effektivität in der Terminierung lebensbedrohlicher Arrhythmien, geführt. Trotzdem wären zukünftig prospektive Studien zur weiteren Risikostratifizierung und Evaluation möglicher diagnostischer Marker zur noch genaueren Abgrenzung von Hochrisikopatienten wünschenswert. Zukünftiges Ziel sollte es zudem sein, diejenigen Patientenpopulationen sicher zu identifizieren, die zwar ein geringeres individuelles Risiko haben dem Plötzlichen Herztod zu erliegen, jedoch absolut gesehen häufiger daran versterben.
Einleitung: Diese Arbeit vergleicht den Goldstandard der Knochendichtemessung die dual x-ray absorptiometry mit Daten, die durch Vermessungen der Claviculae bds. eines Patientenkollektivs am Röntgenthorax zu dessen Evaluation bzw. zur eventuellen Frakturvorhersagbarkeit. Material und Methoden: Auf den Röntgenbildern wurde die Länge und die Mitte der Claviculae bestimmt, die ROI, die region of interest, befindet sich in der Mitte. Dort wurden mit einem Kaliper der äußere ( outer periostal width / OPW ) und der innere Durchmesser ( inner endostal width / IEP ) gemessen. Für den CCT subtrahiert man den IEW vom OPW, für den %CCT teilt man den CCT durch den OPW. Alle durch die DXA-Messung ermittelten Werte der LWS sowie der Hüften in Form von BMD, bone mineral density, und BMC, bone mineral concentration, wurden korreliert mit der CCT, der combined cortical thickness und der %CCT der rechten und der linken Claviculae, die durch das Vermessen des Röntgenbildes ermittelt wurden. Ergebnisse: Beim Vergleich aller Werte konnte eindeutig eine fehlende Korrelation, also weder eine negative noch eine positive Korrelation, festgestellt werden. Diskussion: Im Vergleich zu vorhergehenden Arbeiten ergibt sich die Bestätigung, dass das konventionelle Röntgenbild keine geeignete Methode ist, die Diagnose der Osteoporose allein zu stellen.Diese Arbeit vergleicht den Goldstandard der Knochendichtemessung die dual x-ray absorptiometry mit Daten, die durch Vermessungen der Claviculae bds. eines Patientenkollektivs am Röntgenthorax zu dessen Evaluation bzw. zur eventuellen Frakturvorhersagbarkeit.
Die Nierentransplantation ist die Therapie der Wahl bei terminaler Niereninsuffizienz. Alle anderen Nierenersatzverfahren (chron. intermittierende Hämodialyse oder Bauchfelldialyse) reichen nicht an die Effizienz und den Komfort einer Transplantatniere heran. Trotz allem stellen verzögerte Funktionsaufnahme (delayed graft function, DGF), Abstoßungen und begrenzte Funktionsdauer heute noch Probleme der Nierentransplantation dar. Interleukin-18, ein wichtiger Mediator der angeborenen und erworbenen Immunantwort und zugleich ein Zytokin, das bei Ischämie-Reperfusionsschaden und akutem Nierenversagen vermehrt ausgeschüttet wird, könnte in diesem Zusammenhang von Bedeutung sein. Bekannt ist, dass zwei Promotorpolymorphismen (-607C/A und -137G/C) die Blutspiegel von Interleukin-18 beeinflussen können. Ziel dieser Dissertation ist es, den Einfluss der Interleukin-18- Genotypen auf die Prädisposition zu Nierenerkrankungen bzw. bestimmte Grunderkrankungen bei terminaler Niereninsuffizienz zu untersuchen. Außerdem wurde vor allem der Einfluss der Interleukin-18 Polymorphismen auf den Transplantationserfolg überprüft, gemessen an DGF, Transplantatüberleben und Patientenüberleben. Zu diesem Zweck wurden bei 233 Nierentransplantierten und bei 222 nierengesunden Organspendern die IL-18 Genotypen bestimmt. Zudem wurden die benötigten klinischen Daten aus den Krankenakten der Patienten entnommen und anschließend mittels statistischer Verfahren mit den Genvarianten in Korrelation gesetzt. Zwar war die Verteilung der Genotypen zwischen Transplantierten und Nierengesunden nicht unterschiedlich, wir konnten jedoch zeigen, dass das -137C-Allel bzgl. Autoimmunerkrankungen prädisponierend wirkt, aber hinsichtlich der diabetischen Nephropathie einen protektiven Einfluss hat. Im Falle des SNP -607C/A erwiesen sich das C-Allel hinsichtlich Autoimmunerkrankungen und das AAllel bzgl. diabetischer Nephropathie als schützend. Es stellte sich weiterhin heraus, dass der Wildtyp des IL-18 SNP’s (-607CC/-137GG) vor einer verzögerten Funktionsaufnahme des Transplantats (DGF) bewahrt. Ein direkter Einfluss der Polymorphismen auf die Langzeitfunktion des Transplantats konnte nicht nachgewiesen werden. Patienten mit DGF zeigten aber auch noch in den ersten drei Jahren nach der Transplantation eine deutlich schlechtere Nierenfunktion als Transplantierte mit unproblematischem postoperativem Verlauf. Obwohl sich die Nierenfunktion der DGF- und Nicht-DGF-Patienten nach drei Jahren wieder einander anglich, waren Patienten, deren Transplantat die Funktion verzögert aufnahm, einem höheren Mortalitätsrisiko ausgesetzt und verstarben durchschnittlich früher als die Vergleichsgruppe mit sofortigem Funktionsbeginn, wobei die Nicht-DGF-Patienten bei Transplantation durchschnittlich etwas jünger waren. Dies zeigt deutlich die Relevanz dieser frühen Phase für den Langzeitverlauf und die Bedeutung der IL-18-Genotypisierung, mit deren Hilfe man für DGF prädisponierte Patienten frühzeitig erkennen und spezifisch behandeln könnte, um so deren Prognose günstig zu beeinflussen. Weitere prospektive Studien sind aber nötig, um die gewonnenen Erkenntnisse zu sichern und so den Erfolg einer Nierentransplantation und damit die Lebensqualität der Patienten weiter zu verbessern.
Die Hämodialyse ist ein etabliertes Verfahren zur Behandlung der terminalen Niereninsuffizienz. Sowohl in Deutschland, als auch international, ist eine Zunahme der Erkrankungshäufigkeit für die terminale Niereninsuffizienz festzustellen, in erster Linie aufgrund einer diabetischen oder hypertonen Nephropathie. Die arteriovenöse Fistel (AVF) hat sich als beste Form des Gefäßzuganges für die Hämodialyse erwiesen. Eine mögliche Komplikation der AVF ist das Dialyseshunt assoziierte Steal-Syndroms (DASS). Die Inzidenz des DASS wird in der Literatur mit 1-8% angegeben, als Risikofaktoren gelten unter anderem Alter und Diabetes mellitus- gerade die Faktoren, die auch für die Zunahme der Nierenerkrankungen verantwortlich sind. Daher ist für die Zukunft mit einem Anstieg der Inzidenz für das DASS unter den über einen Shunt dialysierten, terminal niereninsuffizienten Patienten zu rechnen. Die einzig erfolgsversprechende Behandlung des DASS erfordert ein chirurgisches Vorgehen, andernfalls drohen irreversible trophische Störungen. Ziel der Therapie ist die Beseitigung der Ischämie unter Erhalt der Shuntfunktion. In der vorgestellten Bi-Centerstudie konnten 76 DRIL- Prozeduren ausgewertet werden, die zwischen Mai 1996 und Januar 2008 in der Klinik für Gefäß- und Endovascularchirurgie der Johann Wolfgang Goethe-Universität Frankfurt und in der Chirurgischen/Gefäßchirurgischen Klinik des St. Martinus- Hospitals Olpe an 69 Patienten durchgeführt worden sind. Dabei konnte gezeigt werden, dass die erstmals von Schanzer et al. 1988 beschriebene DRIL- Prozedur geeignet ist, dieses Therapieziel auch langfristig zu erfüllen. Die kombinierte Offenheitsrate sowohl des DRIL- Bypasses als auch des Shunts post DRIL-Prozedur mit Regression oder Beseitigung der Ischämiesymptomatik betrug nach 6 Monaten 89,5%, nach 12 Monaten 80,2% und nach 5 Jahren 60,8%. Die theoretischen Überlegungen zum Verständnis der beim DASS vorliegenden hämodynamischen Verhältnisse erklären die Effektivität der Prozedur und die Überlegenheit gegenüber anderen Verfahren. Schlussfolgerung: Trotz des überwiegend betroffenen multimorbiden Patientenguts ist die technische Durchführbarkeit der DRIL-Prozedur erprobt, sicher und führt zum prompten und nachhaltigen Verschwinden der Ischämiebeschwerden, ohne die Shuntfunktion zu kompromittieren. Aus diesem Grund gehört die DRIL- Prozedur in das Portfolio jedes Shuntchirurgen.
Die Gamma-Glutamyl-Carboxylase spielt eine Schlüsselrolle im menschlichen Organismus, da sie für die posttranslationale Modifikation sämtlicher Vitamin-K-abhängiger Proteine verantwortlich ist. Ein hereditärer Mangel aller Vitamin-K-abhängigen Faktoren aufgrund eines Defekts in der Gamma-Glutamyl-Carboxylase (VKCFD1) ist sehr selten und geht mit einer gesteigerten Blutungsneigung einher. Aktuelle Arbeiten zeigen eine weitere Manifestation von Mutationen im Gamma-Glutamyl-Carboxylase-Gen, die ein dermatologisches Krankheitsbild, ähnlich der Pseudoxanthoma elasticum, darstellt. In diesen Fällen zeigen die Patienten sowohl dermatologische Effloreszenzen im Sinne der PXE als auch eine Verminderung der Vitamin-K-abhängigen Faktoren. Es wird vermutet, dass die PXE-ähnlichen Hautveränderungen auf eine Funktionsstörung des Matrix-Gla-Proteins zurückzuführen sein könnten. In der vorliegenden Arbeit wurde eine Mutationsdiagnostik bei vier Patienten mit kongenitalem Mangel aller Vitamin-K-abhängigen Gerinnungsfaktoren durchgeführt. Insgesamt wurden dabei fünf Mutationen nachgewiesen, davon vier Missense-Mutationen und eine Stopp-Mutation. Zwei der Patienten wiesen eine „compound Heterozygotie“ auf. Bei den gefunden Mutationen wurden drei im Rahmen dieser Arbeit erstmals aufgezeigt, die anderen zwei waren in der Literatur bereits beschrieben. Bei einer der Mutationen konnte ein „Founder“-Effekt in Bezug auf einen anderen Patienten aus der Literatur nachgewiesen werden. Sollte zukünftig diese Mutation in Deutschland vorkommen und sich auch auf die „Founder“-Mutation zurückführen lassen, böte sich dieser Mechanismus als eine Erklärung für das gehäufte Vorkommen der VKCFD Typ 1 in Deutschland an. Ein Hinweis auf eine PXE-like Disorder konnte bei keinem der Patienten nachgewiesen werden. Zusätzlich wurde die genetische Variabilität des Gamma-Glutamyl-Carboxylase-Gens in der Normalbevölkerung untersucht. Für die Untersuchungen wurde zunächst die DNA einer phänotypisch unauffälligen Kontrollgruppe, bestehend aus 200 gesunden Blutspendern, auf Genvariationen im GGCX-Gen analysiert. Nach der Isolierung und der Amplifikation der DNA wurde mit sämtlichen Proben zunächst ein Mutations-Screening mittels dHPLC durchgeführt. Auffällige Abschnitte und solche, bei denen häufige und/oder mehrere Polymorphismen bereits bekannt waren, wurden sequenziert. Auf diese Weise wurden acht Polymorphismen in den codierenden bzw. die Exone flankierenden Genabschnitten nachgewiesen. Davon wurden zwei erstmals beschrieben (c.43+33T>A; c.1288-38T>C). Schließlich sollte mit dieser Arbeit versucht werden zu klären, wie eine möglichst effiziente Diagnostik von Mutationen bzw. Polymorphismen des GGCX-Gens möglich ist. In unseren Untersuchungen wurde sowohl mit der dHPLC (Wave-System) als Screening-Methode gearbeitet als auch Genabschnitte sequenziert. Mittels der dHPLC kann ein hohes Probenaufkommen in kurzer Zeit mit vergleichsweise geringem Aufwand und vergleichsweise geringeren Kosten (ca. 30 € pro Genuntersuchung vs. Komplettsequenzierung ca. 300 €) bewältigt werden. Bei Genabschnitten mit vielen oder häufigen Polymorphismen ist dies ineffektiv, weil es nur das Vorhandensein einer Veränderung, nicht jedoch die Veränderung selbst beschreiben kann. Daher empfiehlt es sich, beide Methoden zu kombinieren, welches sich als die effizienteste und rationalste Methode für die Mutationsdiagnostik darstellt. Die Ergebnisse der vorliegenden Arbeit sind von grundsätzlichem Interesse für die biomedizinische Forschung. Eventuell wird es damit dann möglich sein, Krankheitsentstehungen und ihre Verläufe bei Mutationen der Gamma-Glutamyl-Carboxylase besser zu verstehen und damit eine noch effektivere und nebenwirkungsärmere Therapie einzusetzen.
Die Notwendigkeit der ipsilateralen Adrenalektomie als obligater Bestandteil einer Tumornephrektomie beim Nierenzellkarzinom wurde in der Literatur kontrovers diskutiert. Das Ziel der vorliegenden Studie war es, durch einen Vergleich von tumornephrektomierten Patienten mit und ohne Nebennierenbefall Parameter zu ermitteln, die eine präoperative Abschätzung des Nebennierenbefalls erlauben, und somit als Entscheidungshilfe zur Durchführung der Adrenalektomie im Rahmen einer Tumornephrektomie dienen können. In unserer Studie wurden insgesamt 250 Patienten mit Nierenzellkarzinom erfasst, die zwischen 1992 und 2001 in der Klinik für Urologie und Kinderurologie Prof. Dr. med. Dietger Jonas, Johann Wolfgang Goethe – Universität Frankfurt am Main operiert wurden. Dabei wurde in allen Fällen die radikale Tumornephrektomie nach Robson inklusive ipsilateraler Adrenalektomie durchgeführt. Alle Operationspräparate wurden im Senckenbergischen Institut für Pathologie Prof. Dr. med. M.-L. Hansmann, Frankfurt am Main untersucht und nach der 6. Auflage der TNM-Klassifikation in der von der UICC empfohlenen Weise eingestuft. In 9 der 250 Fälle (3,6 %) wurde ein Nebennierenbefall festgestellt. Statistisch signifikante Ergebnisse konnten für folgende Parameter ermittelt werden: · Präoperativer CT-Befund In der präoperativ durchgeführten CT wurden von 235 als unauffällig eingestuften Fällen 5 pathologische Nebennierenbefunde nicht erkannt (2,13 %). Von 15 als auffällig eingestuften Fällen wurden jedoch 4 als richtig pathologisch erkannt (26,6 %). Es ergaben sich für den Nachweis eines Nebennierenbefalls im CT eine Sensitivität von 44 %, eine Spezifität von 95,4 %, ein positiver prädiktiver Wert von 26,6 %, und ein negativer prädiktiver Wert von 97,8 %. · Nierentumorgröße Es zeigte sich ein Nebennierenbefall erst ab einer Tumorgröße von > 5 cm mit einer Wahrscheinlichkeit von 5,8 % (p = 0,035). · pTNM-Stadium Ein Nebennierenbefall ließ sich erst ab Tumorstadium pT 3a erkennen. Bei pT1- oder pT2-Tumoren war kein Nebennierenbefall festgestellt worden. Bei Patienten ohne Lymphknotenmetastasierung konnte ein Tumorbefall der Nebenniere in 2 von 224 Fällen (0,89 %) gefunden werden. Bei den Patienten mit Lymphknotenmetastasierung lag der Nebennierenbefall bei 3 von 12 Fällen (25 %) für die Nierentumoren mit pN1 und bei 4 von 14 Fällen (28,6 %) bei Nierentumoren mit pN2. Bei Patienten ohne Fernmetastasierung (230 Fälle) ließ sich in 3 Fällen (1,3 %) ein Nebennierenbefall aufweisen; bei vorliegender Fernmetastasierung (20 Fälle) lag der Anteil der befallenen Nebennieren mit 6 Fällen bei 30 %. · Tumorgrading Ein Nebennierenbefall war bei keinem der G1-Tumoren festgestellt worden. Bei 4,4 % der G2-Tumoren (6/136 Fällen) und bei 12,5 % der G3-Tumoren (3/24 Fällen) konnte ein Nebennierenbefall nachgewiesen werden. Da das Grading nur am Nephrektomiepräparat vorgenommen werden kann, spielt es als prädiktiver Parameter keine Rolle. · Infiltration benachbarter Strukturen 0,5 % (1/200 Fällen) der Patienten ohne und 16 % (8/50 Fällen) der Patienten mit einem Tumorthrombus in der V. renalis zeigten auch einen Nebennierenbefall (p = 0,000012). 2,9 % (7/240 Fällen) der Patienten ohne und 20 % (2/10 Fällen) der Patienten mit einer Infiltration in die V. cava zeigten einen Nebennierenbefall (p = 0,044). 14,5 % (9/62 Fällen) der Patienten mit Tumorinfiltration in die Nierenkapsel zeigten einen Nebennierenbefall; keiner der Patienten ohne Nierenkapselinfiltration zeigte einen Nebennierenbefall (p = 0,000002). Zusammenfassend lässt sich festhalten, dass eine ipsilaterale Adrenalektomie heutzutage keine obligate Komponente der Tumornephrektomie sein muß, sondern nur durchgeführt werden sollte, wenn folgende präoperative Bedingungen vorliegen: 1. auffällige präoperative bildgebende Beurteilung der Nebenniere durch Sonographie, Computertomographie oder ggf. Magnetresonanztomographie 2. Größe des Nierentumors > 5 cm unabhängig von der Pollokalisation 3. . Primärtumorstadium >= cT3a 4. CT-graphischer Nachweis von Lymphknoten- und/oder Fernmetastasen 5. CT-graphischer Nachweis einer vaskulären Invasion 6. CT-graphischer Nachweis einer Nierenkapselinfiltration 7. auffälliger intraoperativer Befund
In der vorliegenden Arbeit wurde in einer Fall-Kontroll-Studie mit 483 Fällen und 300 Kontrollen das Risiko für die berufsbedingte Supraspinatussehnenruptur durch Arbeiten auf oder über Schulterniveau untersucht. Dabei ergab sich eine statistisch signifikante Risikoerhöhung durch das Arbeiten auf oder über Schulterniveau. Eine Dosis-Antwortbeziehung zeigte einen Zusammenhang der Ereignisse. Am stärksten war die Risikoerhöhung bei Patienten, die lebenslang kumulativ mindestens 3195 Stunden auf oder über Schulterniveau arbeiteten. Die adjustierte Odds Ratio dafür betrug 2,1 (CI 1,2-3,7), das Ergebnis ist statistisch signifikant. Neben dem beruflichen Arbeiten auf oder über Schulterniveau gibt es andere Faktoren, die die Entstehung einer Rotatorenmanschettenruptur begünstigen. Dabei sind Alter, Heben/Tragen von Lasten über 20 kg und Arbeiten mit handgeführten vibrierenden Werkzeugen zu nennen. Deshalb wurden die Daten hinsichtlich dieser Faktoren adjustiert. Auch einige Sportaktivitäten können das Risiko für die Rotatorenmanschettenruptur erhöhen. Deshalb wurden die Daten auch für Geräteturnen, Kugelstoßen, Speer- und Hammerwerfen, Ringen und Tennis adjustiert, und die sportliche Anstrengung wurde als Confounder behandelt. Die Ergebnisse stehen im Einklang mit Ergebnissen früherer Studien, die ebenfalls eine Risikoerhöhung für die Entstehung der Rotatorenmanschettenruptur durch Arbeiten auf oder über Schulterniveau zeigen. Eine genaue Dosis, die zu dieser Risikoerhöhung führt, wurde in der Literatur bisher nicht genannt. Die vorliegende Arbeit liefert die Evidenz für die Annahme eines erhöhten Risikos der Ruptur der Sehne des M. supraspinatus bei Arbeiten auf oder über Schulterniveau. Weiterhin besteht ein Potential für eine primäre Prävention, indem Arbeiten auf oder über Schulterniveau möglichst ganz vermieden wird. Daher sollte die Ruptur der Sehne des M. supraspinatus als eigene Berufskrankheit in die Liste der Berufskrankheiten aufgenommen und die Betroffenen bei kumulativem Arbeiten von mindestens 3200 Stunden auf oder über Schulterniveau entschädigt werden.
Zielsetzung: Die Evaluation der transarteriellen Chemoembolisation (TACE) bei nicht resektablen primären (CCC) und sekundären (Lebermetastasen verschiedener Primärtumoren) Lebermalignomen anhand des lokalen Tumoransprechens, des klinischen Ansprechens und der Überlebensdaten. Material und Methodik: Im Zeitraum vom 1999 bis 2009 wurden in unserem Tumorzentrum 898 Patienten mit CCC und Lebermetastasen mittels TACE behandelt. Die behandelten Tumorentitäten waren im Einzelnen das cholangiozelluläre Karzinom (CCC) (n=46; 5,1%) sowie Lebermetastasen des: kolorektalen Karzinoms (CRC) (n=463; 51,7%), Mammakarzinoms (n=208; 23,2%), Aderhautmelanoms (n=33; 3,7%), Nierenzellkarzinoms (n=22; 2,5%), neuroendokrinen Karzinoms (NET) (n=48; 5,4%), Magenkarzinoms (n=25; 2,8%), Ovarialkarzinoms (n=30; 3,3%) und nicht-kleinzelligen Bronchialkarzinoms (NSCLC) (n=21; 2,3%). Als Zytostatika wurden Mitomycin C (8 mg/m²), Gemcitabine (1000 mg/m²), Irinotecan (150 mg/m²) und Cisplatin (60 mg/m²) verwendet. Als Embolisat wurden Lipiodol und Microsphären (EmboCept®) verwendet. Mindestens drei TACE Sitzungen pro Patient wurden in vierwöchigen Abständen ambulant durchgeführt. Das radiologische Tumoransprechen wurde mittels Magnetresonanztomographie (MRT) und/oder Computertomographie (CT) bestimmt und nach den RECIST-Kriterien klassifiziert. Das klinische Ansprechen wurde im Verlauf der Behandlung in neoadjuvant, palliativ und symptomatisch eingeteilt. Die Überlebensdaten wurden nach der Kaplan-Meier-Methode berechnet. Ergebnisse: Die Mindestzahl der durchgeführten TACE war drei. Bei 46 Patienten mit CCC wurden bei 11% PR, bei 60,7% SD und bei 28,3% PD bei einer medianen Überlebenszeit von 14,5 Monaten dokumentiert. 2,2% der Patienten wurden neoadjuvant, 73,9% palliativ und 23,9% symptomatisch behandelt. Bei 463 Patienten mit Lebermetastasen des CRC wurden bei 14,7% PR, bei 48,2% SD und bei 37,1% PD dokumentiert. Die mediane Überlebenszeit lag bei 14 Monaten. 12,9% der Patienten wurden neoadjuvant, 72,4% palliativ und 14,7% symptomatisch behandelt. Bei 208 Patienten mit Lebermetastasen des Mammakarzinoms wurden bei 13% PR, bei 50,5% SD und bei 36,5% PD bei einer medianen Überlebenszeit von 18,5 Monaten dokumentiert. Die Patienten wurden zu 18,75% neoadjuvant, zu 15,38% symptomatisch und zu 65,87% palliativ behandelt. Bei Patienten mit Lebermetastasen des Aderhautmelanoms wurden bei 15,2% PR, bei 42,4% SD und bei 42,4% PD dokumentiert. Die mediane Überlebenszeit betrug 18 Monate. Die klinische Situation war zu 3% neoadjuvant, zu 24,2% symptomatisch und zu 72,8% palliativ. Bei Patienten mit Lebermetastasen des Nierenzellkarzinoms wurden bei 13,7% PR, bei 59% SD und bei 27,3% PD bei einer medianen Überlebenszeit von 6,6 Monaten dokumentiert. Die klinische Situation war zu 81,8% palliativ und zu 18,2% symptomatisch. Bei Patienten mit Lebermetastasen des NET wurden bei 18,8% PR, bei 52,1% SD und bei 29,1% PD dokumentiert. 81,2% der Patienten wurden palliativ und 18,8% symptomatisch behandelt. Patienten mit Lebermetastasen des Magenkarzinoms hatten eine mediane Überlebenszeit von 10,5 Monaten. SD wurde bei 60% und PD bei 40% dokumentiert. 76% der Patienten wurden palliativ und 24% symptomatisch behandelt. Bei den Patientinnen mit Lebermetastasen des Ovarialkarzinoms wurden bei 20% PR, bei 26,7% SD und bei 53,3% PD dokumentiert. Die mediane Überlebenszeit betrug 23,7 Monate bei folgendem klinischen Ansprechen: 13,3% symptomatisch und 86,7% palliativ. Für Patienten mit Lebermetastasen des NSCLC wurden bei 14,3% PR, bei 47,6% SD und bei 38,1% PD bei medianer Überlebenszeit von 11,7 Monaten dokumentiert. Die Patienten wurden wie folgend behandelt: 81% palliativ und 19% symptomatisch. Schlussfolgerung: TACE bei primären (CCC) und sekundären (Lebermetastasen verschiedener Primärtumoren) Lebermalignome stellt ein gut verträgliches, minimal invasives, lokoregionales Verfahren dar, das zu einem guten Tumoransprechen, Lebensverlängerung sowie Verminderung der Symptomatik führt.
In unserer Untersuchung wurde die systolischen und diastolischen Funktionsparameter sowohl bei gesunden Kindern als auch im Rahmen der Früherkennung toxischer Kardiomyopathien nach Anthrazyklintherapie mittels 3D- und 2D-Echokardiographie bestimmt. Wir konnten eine signifikante Abnahme der EF unter anthrazyklinhaltiger Chemotherapie durch beide Messverfahren nachweisen (2D: p= 0,013033; 3D: p = 0.001526). Jedoch zeigte sich keine Korrelation der Ergebnisse beider Verfahren (Bland-Altmann´s Korrelationskoeffizient r=0,1897, Student´s t-Test p<0,01). Die nach Teichholz ermittelte LVEF lag in der therapienaiven Gruppe um durchschnittlich 7% in der therapierten um 8% höher als in der 3D-Messung, hier zeigte sich nur bei zwei Kindern eine leichtgradige Einschränkung der EF und bei einem Kind eine höhergradige Einschränkung der EF nach Chemotherapie. Der Mittelwert der dreidimensional ermittelten LVEF lag in der mit Anthrazyklinen therapierten Gruppe nah am unteren Normwert. Bei neunzehn Kindern konnte eine leicht eingeschränkte linksventrikuläre Funktion nachgewiesen werden, bei einem Kind war sie höhergradig eingeschränkt. Es konnten also mit Hilfe der 3D-Echokardiographie signifikant mehr beginnende Einschränkungen der LVEF nachgewiesen werden (p=0,00520). Durch diese Ergebnisse wird die Relevanz guter Vorsorgeuntersuchungen vor und während anthrazyklinhaltigen Chemotherapien offenkundig. Mit Hilfe der 3D-Echokardiographie können schon frühzeitig beginnende Kardiomyopathien entdeckt und behandelt werden. Bei frühzeitigem Behandlungsbeginn können die Spätfolgen deutlich reduziert werden (70/71). Gerade im Kindesalter ist dies von großer Bedeutung, da die jungen Patienten die längste Zeit ihres Lebens noch vor sich haben und am meisten unter der stark eingeschränkten Lebensqualität bei Kardiomyopathie leiden. Einige Kinder mussten in der Vergangenheit nach anthrazyklinhaltiger Chemotherapie herztransplantiert werden (96). Als wesentliches Merkmal einer beginnenden Herzschädigung vor einer manifesten Einschränkung der linksventrikulären systolischen Funktion gilt die diastolische Herzfunktion. Wir konnten zeigen, dass signifikant mehr diastolische Funktionsstörungen (p= 0,011185) nach anthrazyklinhaltiger Chemotherapie als vor der Therapie auftraten, außerdem konnten wir in diesem Zusammenhang auch eine Dosisabhängigkeit mit linearem Trend nachweisen. Patienten, denen Dosen von 200-400 mg/m² appliziert wurden, weisen sigifikant (p= 0,033310) häufiger diastolische Funktionsstörungen auf als vor Therapie. Dies konnte bei Dosen von 0-200 mg/m² nicht gezeigt werden, allerdings kann man durch die graphische Darstellung auf eine Tendenz schließen. Entsprechend der Studie von Sorensen et al. (136) nehmen wir eine Anthrazyklindosis von > 200 mg/m² als Hauptrisikofaktor für die Entwicklung einer toxischen Kardiomyopathie an. Als positives Ergebnis unserer Untersuchung ist das insgesamt seltene Auftreten von relevanten Kardiomyopathien zu werten, auch die diastolische Funktion liegt bei den meisten Kindern nach Therapie im Normbereich. Am ehesten ist dies der sorgfältigen Vorsorge und der strengen Einhaltung der kumulativen Schwellendosis zuzuschreiben.
HINTERGRUND: Die BioPhysio™ (Edwards Lifescience LLC, Irvine, CA) Bioprothese wurde konstruiert um die hämodynamischen Eigenschaften bisher verfügbarer gerüsttragender Aortenklappenprothesen weiter zu verbessern. Ein flexibles Nitinolgerüst, welches die natürlichen Bewegungen der Aortenwurzel während des Herzzyklus zulässt und trotzdem einfach implantiert werden kann, ist die Hauptinnovation dieser Prothese. Das Ziel dieser Studie ist die klinische Evaluation dieser neuen Prothese. METHODEN: Zwischen Dezember 2004 und August 2005 wurden 50 BioPhysio Aortenklappenprothesen implantiert. Das mittlere Alter der Patienten betrug 75,9 ± 5,1 Jahre. Klinische Ergebnisse, Klappenöffnungsflächen, transvalvuläre Gradienten und der Rückgang der Linksventrikelhypertrophie wurden echokardiographisch vor der Entlassung, nach sechs Monaten, zwölf Monaten und 24 Monaten nachuntersucht. ERGEBNISSE: Die Gesamtsterblichkeit betrug 14,3% (n=6), wobei nach zwölf Monaten 9,5% (n=4) und nach 24 Monaten 4,8% (n=2). Alle Todesfälle waren nicht klappenbezogen. Ein Patient erlitt zwei Jahre nach der Operation eine Endokarditis und wurde erneut operiert. Es gab keine Fälle von Herz- oder Nierenversagen. Die Bioprothese zeigte gute hämodynamische Eigenschaften. Eine signifikante Reduktion des mittleren Gradienten auf 15,1 ± 8,3 mmHg konnte erzielt werden. Die mittlere Klappenöffnungsfläche betrug 1,5 ± 0,7 cm² und die mittlere Ejektionsfraktion 60,7 ± 7,2%. Es traten keine Aorteninsuffizienzen auf. Die New York Heart Association Funktionsklasse verbesserte sich bei allen Patienten und es konnte eine signifikante Reduktion des Linksventrikelmasseindex von 185,7 ± 49,6 g/m² festgestellt werden. KONKLUSION: Die klinische Darbietung der neuen BioPhysio Bioprothese ist vergleichbar mit den konventionellen gerüstlosen Herzklappenprothesen. Durch ihr einzigartiges Design ist sie jedoch schneller und einfacher zu implantieren als konventionelle gerüstlose Prothesen.
Hintergrund: Im Rahmen der Erforschung von Mechanismen der Presbyopie-Entstehung hat das Interesse an Methoden zur Linsendensitometrie wieder zugenommen. Für spezielle Fragestellungen sind flexible Untersuchungsmethoden notwendig.
Methoden: Basierend auf Aufnahmen mit der Scheimpflug-Kamera Pentacam HR (Oculus, Wetzlar) wurde ein MATLAB-Programm (V7.0, The MathWorks) erstellt, um größere Datenmengen automatisiert auszuwerten. Die Erkennung der Pupillenmitte als Referenzpunkt erfolgt mittels eines Randerkennungsalgorithmus. Als Kennzahlen dienen klassische Parameter der beschreibenden Statistik (Mittel, Minimum, Maximum, Standardabweichung und Variationskoeffizient) für einen definierten rechteckigen Bereich und für die zentrale vertikale Achse.
Ergebnisse: In einer Präliminarserie von 18 Augen war eine automatisierte Messung mit korrekter Pupillenerkennung in 80% der Fälle möglich. Verglichen mit der hersteller-eigenen Software (Pentacam 6.03r11) besitzt das eigene Programm eine erweiterte Spannweite der Messwerte. Die Messwerte können automatisch nach Excel (Microsoft) exportiert werden. Ein modularer Aufbau ermöglicht eine flexible Erweiterung für weitere Fragestellungen (z.B. Quantifizierung von Kern- und Rindentrübungen).
Schlussfolgerungen: Mittels eines selbst programmierten MATLAB-basierten Programmes kann eine automatisierte Messung und Analyse von linsndensitometrischen Parametern durchgeführt werden.
Die Novellierung des Hochschulrahmengesetzes zum Wintersemester 2005/06 hat den Universitäten die Möglichkeit eröffnet, 60 Prozent der Studierenden direkt auszuwählen und damit intensiv in die Konzeption der zahnmedizinischen Studienplatzvergabe einzugreifen. Vor diesem Hintergrund war das Ziel dieser Untersuchung, sowohl objektive schulische Parameter als auch außerschulische Prädiktoren (soft skills) zu eruieren, welche voraussichtlich für ein erfolgreiches Studium, definiert aus guten Noten und Einhaltung der Regelstudienzeit, sprechen. Dazu wurde nach einer Pilotuntersuchung an 114 Kongressteilnehmern der AFDT-Tagung in Bad Homburg (heutige DGFDT) eine Befragung an 260 Studierenden und 64 Mitarbeitern/übrige an der Universität Frankfurt/Main (Zahnärztliches Universitäts-Institut) durchgeführt und die gewonnen Ergebnisse in Korrelation mit den erbrachten universitären Leistungen gesetzt. Die Bewerberzahlen für das Zahnmedizinstudium belaufen sich auf ein Viertel der Mediziner in Frankfurt/Main. Daraus resultieren in Hinblick auf den Untersuchungszeitraum von einem Jahr zwangsläufig geringere Datenmengen und damit unweigerlich Einschränkungen in der statistischen Zuverlässigkeit. Anhand der Ergebnisse und der erhobenen Daten des Studierendenfragebogens wurde der tendenzielle Prototyp des Zahnmedizinstudierenden ermittelt, welcher voraussichtlich erfolgreich, d.h. schnell und gut sein Studium bewältigen wird. Hierbei handelt es sich um eine Zusammenfassung von zum größten Teil nicht signifikanten, deskriptiv gewonnenen Ergebnissen, welche in ihrer so aufgezeigten Gesamtheit keinen Impuls zur Selektion bieten sollen, sondern lediglich schwache Tendenzen zur Standortbestimmung aufzeigen. Hiernach handelt es sich bei dem erfolgreich Studierenden um eine weibliche Person. Sie belegt während ihrer gymnasialen Schulzeit in Hessen oder im Ausland die Leistungskursfächer Mathematik und Chemie, absolviert das große Latinum und belegt bis zum Ende der Oberstufe das Fach Musik. Die Schülerin widmet der Schulzeit voll und ganz ihre Aufmerksamkeit und investiert deshalb keine Zeit in außerschulische Aktivitäten (soft skills). Während der Oberstufe entscheidet sich die psychisch stabile und nie krank werdende Frau dazu, Zahnmedizin zu studieren, und schließt ihr Abitur mit einer Durchschnittsnote ab, die deutlich besser ist als 2,33. Unter den Familienmitgliedern der Studentin befindet sich kein Zahnarzt oder Zahntechniker, wohl aber ein Arzt. Nach dem Abitur bildet sie sich zunächst noch zur Zahntechnikerin weiter und vollzieht dann das Studium der Zahnmedizin ohne BAföG zu beziehen oder arbeiten zu müssen. Trotz allem muss natürlich in Bezug auf die soft skills festgehalten werden, dass durchaus Studierende ermittelt wurden, welche hervorragende Ergebnisse im Studium erzielten und sich zudem bezüglich außerschulischer Aktivitäten engagierten und herausragende Leistungen (z.B. Preisträger) vollbrachten. Die Ergebnisse bei den Mitarbeitern/übrige zeigen vor allem zwei Tendenzen. Zum einen schnitten diese im Vergleich zu den Studierenden in allen Prüfungsbereichen besser ab und zum anderen zeigt sich ebenso der Trend dahingehend, dass eine Abnahme der Angaben von soft skills eher mit einem erfolgreichen Studium korreliert. Als Hauptgrund sieht der Autor hier die "Erfolgsdruckunabhängigkeit", d.h. es besteht bei diesen nicht der Zwang, sich gegenüber anderen Mitarbeitern behaupten zu müssen, wie es verständlicherweise unter Wettbewerbsdruck vieler Studierender zu finden ist. Eindeutige Ergebnisse liegen bei den Kohorten mit der Zahntechnikerausbildung vor. Sowohl bei den Studierenden als auch bei den Mitarbeitern/übrige zeigt sich ein eindeutig besseres Abschneiden im Physikum im Bereich der Zahnersatzkunde, was eine wichtige Hürde im Verlauf des Zahnmedizinstudiums darstellt. Letztlich sieht der Autor den "goldenen Weg" zur Studierendenauswahl nur in der Kombination von Abiturdurchschnittsnote und manuellen Geschicklichkeitstests, plus Bonifikation derjenigen Studierenden mit Zahntechnikerausbildung. Soft skills können maximal einen Hinweis auf ein erfolgreiches Studium geben, eine signifikante Aussage konnte aber in keinem Fall gefunden werden.
Fischöle (n-3 PUFAs) haben potente antientzündliche Wirkungen und klinische Effekte bei chronischen kardialen Erkrankungen. Ebenso wurden positive Effekte auf die bronchiale Entzündung beschrieben. Ziel unserer Studie war es daher zu prüfen, ob eine alleinige fischölreiche Ernährung ohne zusätzliche PUFA-Supplementation messbare Auswirkungen einerseits auf den Lipidstatus im Blut der Patienten, andererseits auf das Ausmaß der nasalen und bronchialen Beschwerden sowie der bronchialen Entzündungsaktivität bei Graspollenallergikern aufweisen kann. Hierzu untersuchten wir 100 Patienten hinsichtlich ihrer nasalen und bronchialen Allergiesymptomatik, erfassten die Ernährungsgewohnheiten mittels eines standardisierten Fragebogens, und bestimmten im Blut den Lipidstatus (Gehalt an mehrfach ungesättigten Fettsäuren; n-3 PUFA). Wir konnten zeigen, dass die Ernährung einen messbaren Einfluss auf den Gehalt an n-3 PUFA im Blut hat und dass dieser Gehalt bei Patienten mit regelmäßigem Fischkonsum höher lag als bei denjenigen, die keinen Fisch zu sich nahmen (Plasma-EPA-Konzentration: Fischesser 1,01 ± 0,7 wt%, Fischhasser 0,28 ± 0,1 wt%; p< 0,004; Plasma-DHA-Konzentration: Fischesser 2,30 ± 0,6 wt%, Fischhasser: 1,19 ± 0,3 wt%; p< 0,0001). Der Vergleich der Fettsäurewerte unserer Patienten mit den Werten von Milbenallergikern unter fünfwöchiger Fischöl-Supplementation machte allerdings deutlich, dass der n-3 PUFA-Gehalt mit gezielter Nahrungsergänzung noch weiter ansteigen kann. Die möglicherweise durch hohe n-3 PUFA-Konzentrationen bedingten protektiven Effekte auf die allergische Atemwegsentzündung der Patienten wurden an der Höhe des eNO als einem spezifischen und sensiblen Marker gemessen. Es konnte gezeigt werden, dass Patienten, die viel Fisch zu sich nahmen, durchschnittlich einen niedrigeren eNO- Ausgangswert entsprechend einer geringeren Entzündung aufwiesen als Patienten ohne Fischkonsum (Fischesser: 21,38 ± 11,8 ppB; Fischhasser: 31,35 ± 19,8; p=0,188). Allerdings unterschied sich der mittlere eNO-Anstieg 24 Stunden nach Graspollenprovokation nicht zwischen Patienten mit Fischkonsum (18,25 ± 23,7 ppB) und Patienten ohne Fischkonsum (19,53 ± 31,6 ppB). Ebenso zeigte sich kein signifikanter Einfluss der PUFA-Spiegel auf das Gesamt-IgE, das spezifische IgE gegen Graspollen und den FEV1-Abfall nach bronchialer Allergenprovokation. Zusammengefasst macht unsere Untersuchung deutlich, dass eine alleinige Ernährung ohne Supplementation keinen signifikanten Effekt auf allergische und entzündliche Parameter bei Graspollenallergikern und milden Asthmatikern besitzt.
Der Typ 1 Diabetes ist eine klinisch heterogene Erkrankung. Sowohl die genetischen Faktoren als auch die Umwelt wirken bei der Entstehung der autoimmunologischen Prozesse dieser Erkrankung zusammen. Die Fragestellung der vorgestellten Untersuchung war, inwieweit sich ein Einfluss der exogenen Faktoren auf das Risiko des T1D der Betroffenen äußert und sich nachweisen lässt. Als Determinante der Veränderung der Umwelt diente die Migrationsbewegung der Bevölkerung. Die derzeitige Forschungslage bietet, trotz den seit Jahrzehnten geführten kontroversen Diskussionen dieser Frage, keine Klärung der Kausalitäten in der Pathogenese des T1D. Aus der vorliegenden Arbeit ergibt sich ein Hinweis auf einen möglichen Risikoanstieg von T1D bei Probanden mit einem Migrationshintergrund. Dabei wurden zum Einen die Überlegungen der Hygienehypothese berücksichtigt. Zum Anderen scheint ein Abfall der Vitamin D-Konzentration – aufgrund der geringeren Sonneneinstrahlung, die durch eine meist von Süd nach Nord verlaufende Migrationsbewegung bedingt ist – als ein möglicher Risikofaktor. Untersucht wurde eine Stichprobe von insgesamt 187 Typ 1 Diabetikern. Zur Erfassung der möglichen Maßparameter der gestellten Hypothese wurde ein Fragebogen verwendet und die Befragung fand in Form eines Telefoninterviews statt. Die klinischen Daten wurden den Krankenakten entnommen. Die rekrutierte Gesamtkohorte wurde entsprechend dem Migrationsstatus in Gruppen der Einheimischen aus der Bundesrepublik Deutschland (D), der Migranten (M) und der Kinder von Migranten (KM) getrennt. Für die definierten Teilkollektive konnte ein signifikanter Zusammenhang zwischen dem Migrationsstatus und dem Erkrankungsalter gefunden werden: (D) mit 22 Jahren, (KM) mit 11 Jahren und (M) mit 35 Jahren; p < 0,001. Die beobachtete Verschiebung des Manifestationsalters bei Probanden mit einem Migrationshintergrund könnte auf den Einfluss der Umweltfaktoren bei gegebener genetischer Prädisposition hindeuten und somit die Hypothese dieser Studie bestätigen. Andererseits könnte dieses Phänomen durch die selektive Zuweisung von deutschen/migrierten Patienten in das Diabetestherapiezentrum bzw. die Ambulanz der Universitätsklinik bedingt sein. Der Tabakkonsum konnte als ein Risikofaktor nicht bestätigt werden. Desweiteren entwickelte die meist gefährdete Gruppe „Kinder von Migranten“ den Diabetes bevor ein Einstieg ins Raucherleben stattfand (Manifestationsalter bei (KM): 11 Jahre vs. durchschnittliches Einstiegsalter ins Rauchen 11,6 Jahre). Die Belastung durch das Passivrauchen im elterlichen Haushalt unterschied sich weder in Bezug auf den Gruppenvergleich, noch zur Allgemeinbevölkerung. Es wurde eine geringere Prävalenz von zusätzlichen Erkrankungen unter den Migranten in der zweiten Generation beobachtet, die wahrscheinlich auf dem allgemein jüngeren Alter der Probanden beruht. Im Gegensatz dazu ist die Verteilung der Autoimmunopathien zwischen den Gruppen gleich. Die autoimmune Thyreoiditis kommt am häufigsten vor und betrifft fast ausschließlich die Frauen. Aufgrund des höheren Alters bei der Manifestation des T1D unter den männlichen Probanden kann das männliche Geschlecht als ein Risikofaktor in dieser Studie nicht bestätigt werden. Das Alter der Eltern bei der Migration scheint ebenso, wie der Abstand zwischen der Migration und der Schwangerschaft bzw. der Geburt des Kindes, keinen Einfluss auf das Risiko einer früher einsetzenden Diabetesmanifestation bei den Kindern zu spielen. Ein Vitamin D-Mangel wurde bei den einheimischen Patienten mit T1D nicht so häufig wie bei solchen mit Migrationshintergrund beobachtet, was ein höheres Risiko in der letzteren Gruppe bedingen könnte. Dies muss jedoch an einer größeren Stichprobe untersucht werden. Die vorgelegte Untersuchung ist deshalb ein Pilotprojekt einer größer angelegten Folgestudie.
Hämorrhagischer Schock / Reperfusion (H/R) induziert eine inflammatorische Antwort, die zu hepatozellulären Schäden und einem Multiorganversagen führen kann. In vorhergehenden Studien wurde demonstriert, dass H/R die Phosphorylierung von mitogen aktivierten Stress Kinasen (MAPKs), spezifisch c-JUN und ERK, bewirkt; - eine Reaktion, die ebenfalls mit Leberschäden assoziiert ist. Kürzlich wurde ein spezifisches, zellgängiges, protease-resistentes Peptid, D-JNKI-1, entwickelt, welches die c-JUN N-terminale Kinase (JNK) inhibiert. Ziel der vorliegenden Arbeit war es darzustellen, ob D-JNKI-1 durch eine spezifische Inhibierung der JNK den Leberschaden und das Inflammationsgeschehen nach H/R im Tiermodell verringern kann. Als methodischer Ansatz diente ein H/R-Modell an männlichen Sprague-Dawley Ratten. Nach Vorbehandlung mit D-JNKI-1 bzw. NaCl wurde ein hämorrhagischer Schock induziert und durch Reperfusion nach 1 h beendet. Nach 2 h wurden Gewebe- und Blutproben entnommen. Plasmawerte der Alaninaminotransferase, Kreatinkinase, Laktatdehydrogenase und des Interleukin-6 wurden untersucht, die Gewebeproben wurden histochemisch bzw. immunhistochemisch auf Organschäden (Nekrose und Apoptose) und Inflammationsgeschehen (Neutrophileninfiltration der Leber) untersucht, sowie die relative Proteinexpression der aktivierten Stresskinase JNK mittels spezifischer Detektion des phosphorylierten c-Jun im Western Blot quantifiziert. Diese Arbeit stellt die Rolle von D-JNKI-1 als Peptidinhibitor der JNK während H/R dar. H/R führt zu apoptotischen und nekrotischen Zelluntergängen, beides Vorgänge, welche zumindest zum Teil durch JNK gesteuert sind und mittels D-JNKI-1 reduziert werden können. Eine Hemmung der JNK vor einem hämorrhagischen Schock verringert zudem das Ausmaß der Schäden am Lebergewebe, die Produktion von freien Sauerstoffradikalen sowie die Aktivierung pro-inflammatorischer Signalkaskaden im Tiermodell. Diese Erkenntnisse könnten mit die Grundlage eines möglichen therapeutischen Ansatzes in der Verhinderung der Konsequenzen von H/R bilden.
Die arterielle Hypertonie stellt einen bedeutenden Risikofaktor für kardiovaskuläre Erkrankungen dar, ihrer Therapie kommt daher ein hoher Stellenwert zu. Die Medikamentengruppe der Betablocker ist traditionell ein wichtiger Teil der medikamentösen Therapie, in dieser Arbeit wurde untersucht, inwiefern weiterhin ein Einfluss auf die diastolische Funktion, die Leistungsfähigkeit und die Sekretion der natriuretischen Peptide ANP und BNP besteht. Insgesamt wurden 102 Hypertoniepatienten mit zwischen 25 und 75 Jahren untersucht, alle Patienten hatten eine erhaltene systolische linksventrikuläre Pumpfunktion. Es erfolgte ein Gruppenvergleich zwischen den Patienten, die einen Betablocker einnahmen (n = 56) oder nicht (n = 46). Alle Patienten unterzogen sich eine Anamnese, einer Spiroergometrie, einer Echokardiographie samt Bestimmung der diastolischen Funktion und einer Lungenfunktionsprüfung. Laborchemisch wurden unter anderem die Hormone proANP und NT-proBNP erhoben. Zwischen den beiden Gruppen gab es keine signifikanten Unterschiede hinsichtlich Alter, Geschlecht, NYHA-Klasse oder den kardiovaskulären Risikofaktoren. Bei den Patienten ohne Betablocker bestand mit 21,4 % vs. 6,5 % (p = 0,034) signifikant häufiger die Diagnose einer koronaren Herzerkrankung. Bei der Begleitmedikation gab es keine relevanten Unterschiede in Bezug auf die Substanzen oder die Dosierung. Echokardiographisch ergab sich keine Gruppendifferenz für die diastolische Funktion. In der Spiroergometrie zeigte sich unter Betablockertherapie mit 118 vs.142 Watt (p = 0,019) ein Unterschied in der erreichten Leistung, die maximale Herzfrequenz war mit 128 vs. 142/Min (p < 0,001) ebenfalls erniedrigt. Die systolische Blutdrucksenkung war mit Betablockern sowohl in Ruhe (127 vs. 134 mmHg, p = 134) als auch unter Belastung effektiver. Mit 0,28 vs. 0,25 ml/kg (p = 0,002) war der Sauerstoffpuls pro Kg fettfreien Körpergewichts als Maß für das Schlagvolumen unter Betablockern erhöht. Bei den Patienten unter Betablocker-Medikation waren die Serum-Werte für sowohl proANP (2892 vs. 1839, p < 0,001) als auch NT-proBNP (107 vs. 39, p < 0,001) signifikant erhöht. In der multivariaten Analyse ergaben sich unter Betablockern für ANP das Alter und der HbA1c als unabhängige Prädiktoren, für BNP sind es die NYHA-Klasse und eine Mikroalbuminurie. Ohne Betablocker haben für ANP das Alter und die Belastbarkeit eine unabhängigen prädiktiven Wert, für BNP sind es das HDL, die Größe es linken Atriums und die Belastbarkeit. In Konklusion trägt die Einnahme von Betablockern zu einer effektiveren Blutdrucksenkung bei, vermindert die Belastbarkeit und senkt die Herzfrequenz. Einen Einfluss auf die diastolische Funktion konnten wir nicht zeigen. Die natriuretischen Peptide ANP und BNP sind unter Betablockade erhöht.
Patienten, die sich einer elektiven Operation unterziehen müssen und an einer Leberzirrhose als Vorerkrankung leiden, haben ein deutlich erhöhtes Risko für die Entwicklung postoperativer Komplikationen. Die Auswirkungen einer vorbestehenden Leberzirrhose und/oder eines Alkoholabusus (als typischer Riskofaktor für die Entwicklung einer Leberzirrhose) auf das Outcome schwerverletzter Patienten wurden in der folgenden Studie, unter Berücksichtigung der multizentrischen und anonymisierten Datenbank des Traumaregisters der Deutschen Gesellschaft für Unfallchirurgie, untersucht. Dazu verglichen wir retrospektiv Polytraumapatienten (ISS ≥ 18) mit Alkoholabusus und Leberzirrhose mit einem gesunden Vergleichskollektiv. Letztlich erfüllten 13,527 Patienten die Einschlusskriterien, von 713 (5,3%) einen Alkoholabusus und 91 (0,7%) eine gesicherte Leberzirrhose aufwiesen. Die Gruppe der Leberzirrhotiker zeigte neben einer höheren Rate an Organ- und Multiorganversagen gegenüber der RISC-Prognose eine signifikant erhöhte Krankenhausmortalität (31% gegenüber prognostizierten 19%), wodurch dieser in seiner Verwendung als Prognosescore für verletzte leberzirrhotische Patienten deutlich limitiert wird. In der Matched Pair Analyse unterschieden sich die Patienten mit einer Leberzirrhose verglichen zum Kontrollkollektiv signifikant in Bezug auf Einzel- (Herz, Leber, Niere, Gerinnung) und Multiorganversagen, sowie in der Gesamtmortalität. Die Ergebnisse verdeutlichen die fatalen Auswirkungen einer Leberzirrhose auf das Outcome nach Polytrauma und fordern eine diesbezügliche Evaluierung der Trauma- und Prognosescores (wie z.B. RISC) zur besseren Risikoprofilabschätzung eines Schwerverletzten. Bei den Alkoholikern kam es zwar ebenfalls zu durchschnittlich mehr Organausfällen im Vergleich zur Kontrollgruppe, jedoch war die Krankenhausmortalität gleich. Überraschenderweise verstarben in der Alkoholgruppe innerhalb der ersten 24 Stunden nach Trauma die wenigsten Patienten. Inwieweit dabei Alkohol als möglicher Modulator der posttraumatischen Immunreaktion eine Rolle spielt, konnte bis dahin allerdings nicht beantwortet werden. In einer weiteren Studie wurden deshalb die Interleukin-6 und Interleukin-10 Serumkonzentrationen von 34 alkoholintoxikierten Polytraumapatienten (ISS ≥ 16) des Universitätsklinikums Frankfurt am Main von Aufnahme bis Tag 5 nach Trauma untersucht und mit einer gematchten Gruppe von 15 nüchternen Schwerverletzten verglichen. Während die Alkoholgruppe im Schockraum einen Trend zu erniedrigten IL-6 Konzentrationen aufwies, stiegen diese im posttraumatischen Verlauf immer weiter an und waren am Tag 4 und 5 signifikant gegenüber der nüchternen Gruppe erhöht. Das antiinflammatorische Zytokin IL-10 hingegen zeigte im Gruppenvergleich während des gesamten posttraumatischen Verlaufs keine signifikanten Unterschiede. Die Studie verdeutlicht, dass akute Alkoholintoxikation die Immunantwort des Körpers nach schwerem Trauma moduliert, hier nachgewiesen in einer veränderten Il-6 Antwort im zeitlichen Verlauf bis zum 5. posttraumatischen Tag. Dennoch sind weitere Untersuchung im komplexen Zusammenspiel des janusköpfigen Zytokins IL-6 und anderer hauptsächlich antiinflammatorischer Mediatoren wie z.B. IL-4, IL-11, TGF-β und IL-13 in zusätzlicher Korrelation zum klinischen Outcome notwendig, um die komplexe Immunantwort des Körpers nach Trauma zu verstehen. Letztlich gilt es noch herauszufinden, ob IL-6 als prognostischer Mediator oder Parameter im klinischen Verlauf nach Polyrauma verwendet werden kann.
Die Applikation von Medikamenten zur konservativen Behandlung von Patientinnen mit ektopen Schwangerschaften ist weltweit seit vielen Jahren im klinischen Alltag erfolgreich eingesetzt worden. Am erfolgreichsten zeigte sich über die Jahre, die medikamentöse Methotrexatgabe. Dies wurde eindrucksvoll in in-vivo und in in-vitro Studien bewiesen. Ausgangsbedingungen für die vorliegende Untersuchung sind die zahlreichen experimentellen Untersuchungen zur Wirkung von Prostaglandinen auf den mütterlichen Organismus (speziell glatte Muskelzellen der Blutgefäße, des Uterus und Tubenmuskulatur sowie das Corpus luteum) und die zahlreichen klinischen Fallberichte und Studien zur Anwendung von Prostaglandinen zur Behandlung der EUG. In vitro Studien zu der Wirkweise von Prostaglandinen auf ektopes Schwangerschaftsgewebe gibt es nur in geringer Zahl. Da Prostaglandin E2 in der Geburtshilfe einen festen Platz in der Geburtsinduktion und Zervixreifung hat, haben wir Prostaglandin E2 in vitro auf seine Wirkung auf ektopes Trophoblastengewebe untersucht. In der hier vorgelegten Arbeit sollte die Fragestellung überprüft werden, inwieweit eine medikamentöse Wirkung von Prostaglandin E2 Dinoproston auf Trophoblastengewebe aus extrauterinen Schwangerschaften in einem standardisierten Gewebekultursystem besteht. Aus operativ gewonnenen Extrauteringraviditäten des ersten Trimenons wurde Choriongewebe extrahiert, und in unterschiedlichen Konzentrationen der Wirkstoff Prostaglandin E2 Dinoproston 12 Stunden nach Kulturansatz den Gewebekulturen zugesetzt. Eine weitere Choriongewebekulturzellreihe wurde erst am 6. Tag mit Prostaglandin E2 behandelt. Das durch die Throphoblastenzellen sezernierte Humane Chorion Gonadotropin (HCG) wurde den Kulturen alle zwei Tage entnommen und gemessen. Alle Kulturen zeigten Sekretion von HCG innerhalb der ersten 16 Tage. Das Ergebnis dieser Versuchsreihen zeigte, dass weder die unterschiedlichen Prostaglandin E2-Konzentrationen, noch der Zeitpunkt der Zugabe, eine signifikante Auswirkung auf die HCG Sekretion von ektopen Schwangerschaften hat. Die Kontrollgruppe mit intrauterinem Trophoblastenmaterial bestätigt die fehlende Wirkung auf Throphoblastengewebe in der Zellkultur.
Morphin-6-Glukuronid (M6G) ist ein aktiver Metabolit von Morphin. Er ist mitverantwortlich für die analgetische und toxische Wirkung nach einer Morphinverabreichung. M6G wird aktuell in klinischen Phase-III-Studien getestet und möglicherweise zukünftig als ein alternatives Schmerzmittel zu Morphin zur Behandlung postoperativer Schmerzen eingeführt. Seine zentralnervösen Opioideffekte könnten sich aufgrund einer erhöhten Konzentration im zentralen Nervensystem (ZNS) als Folge einer erhöhten M6G Blutkonzentration und/ oder einem erhöhten ZNS Transport an der Blut-Hirn-Schranke verstärken. M6G scheint Substrat zahlreicher transmembranöser Transporter zu sein, die u.a. an der Blut-Hirn-Schranke, Niere oder Leber lokalisiert sind. An der Blut-Hirn-Schranke pumpen diese Transporter M6G aktiv aus dem ZNS zurück in das Blut. Die Hemmung der Transporteraktivität könnte somit eine potentielle Ursache einer erhöhten ZNS Konzentration von M6G mit der Folge vermehrter Nebenwirkungen unter Morphin bzw. Morphin-6-Glukuronid Administration sein. Wir untersuchten die Auswirkungen einer pharmakologischen Hemmung der transmembranösen Transporter P-Glykoprotein, sowie den Probenecid sensitiven Transportern multidrug resistance proteins (MRPs), organic anion transporters (OATs) und organic anion transporter polypeptides (OATPs) auf die Rückenmarkkonzentration und antinozizeptiven Effekte von M6G in Ratten. PSC 833 bzw. Probenecid wurden als Inhibitoren von P-Glykoprotein bzw. Probenecid sensitiven Transportern verwendet. Die Rückenmarkkonzentration von M6G wurde direkt mittels in vivo Mikrodialyse durch eine transversal in das Hinterhorn des Rückenmarks implantierten Sonde gemessen. 20 Ratten erhielten M6G als intravenöse Infusion für 8 Stunden, jeweils 5 von diesen bekamen zusätzlich eine Infusion mit PSC 833 oder Probenecid. Die antinozizeptiven Effekte von M6G wurden durch den Formalinschmerztest während der 8. Stunde der M6G Infusion in weiteren Verhaltensexperimenten bestimmt. Dabei wurde die Dosisabhängigkeit der antinozizeptiven Effekte von M6G mit oder ohne PSC 833 bzw. Probenecid im Vergleich mit PSC 833 alleine, Probenecid alleine und Placebo untersucht. In den Mikrodialyseexperimenten wurde unter P-Glykoprotein Hemmung mit PSC 833 eine nahezu dreifach höhere M6G Rückenmarkkonzentration gemessen, während die Blutplasmakonzentration nur um den Faktor 1.2 erhöht war. Die Folge war eine Verdoppelung des Konzentrationsverhältnis Rückenmark zu Blutplasma (von 0.08 ± 0.03 für M6G alleine auf 0.17 ± 0.08 für M6G mit PSC 833). Die antinozizeptiven Effekte von M6G in den Verhaltensexperimenten waren signifikant erhöht unter P-Glykoprotein Hemmung. Die Inhibition Probenecid sensitiver Transporter verursachte einen gleichmäßigen Anstieg der Blutplasma und Rückenmarkgewebekonzentration um den Faktor 1.4, ohne Veränderung des Konzentrationsverhältnis Rückenmark zu Blutplasma (0.081 ± 0.034 für M6G alleine, 0.082 ± 0.021 für M6G mit Probenecid). Die Verabreichung von Probenecid mit M6G zeigte eine signifikante Reduktion der Anzahl der Flinches im Formalinschmerztest um den Faktor 2.5 im Vergleich zu M6G alleine. Mit dieser Arbeit wurde gezeigt, dass Morphin-6-Glukuronid ein Substrat des Transporters P-Glykoprotein in Ratten ist. Die Verabreichung des P-Glykoprotein Inhibitors PSC 833 erhöhte die Penetration von M6G aus dem Blut in das zentrale Nervensystem und verstärkte dadurch seine antinozizeptive Wirkung. Dieser Effekt ist an der Blut-Hirn-Schranke lokalisiert. Weiterhin wurde demonstriert, dass der Blut-Hirn-Schranken Transport von Morphin-6-Glukuronid nicht durch Probenecid sensitive Transporter beeinflusst wird. Die Verabreichung von Probenecid verstärkte zwar die antinozizeptive Wirkung von M6G aufgrund eines Anstiegs der M6G Rückenmarkkonzentration, jedoch als Folge einer erhöhten Blutplasmakonzentration. Da M6G hauptsächlich in den Urin ausgeschieden wird, ist dieser Effekt wahrscheinlich in der Niere lokalisiert und vermindert die systemische Elimination von M6G. Somit ist M6G ein Substrat Probenecid sensitiver Transporter in Ratten, aber nicht an der Blut-Hirn-Schranke. Da viele Medikamente Inhibitoren von P-Glykoprotein oder Probenecid sensitiven Transportern sind, kann deren gleichzeitige Verabreichung mit Morphin bzw Morphin-6-Glukuronid zu erhöhten M6G ZNS Konzentrationen und Toxizität führen. Die Identifizierung dieser Transporter bedingten Interaktionen in unserer Arbeit kann helfen Medikamentenwechselwirkungen zwischen Inhibitoren und Morphin/ M6G zu vermeiden und die Patientensicherheit unter einer Morphin bzw. Morphin-6-Glukuronid Schmerztherapie zu steigern. Weitere Untersuchungen dieser Interaktionen im Menschen sind nötig, da sie klinisch von großer Bedeutung sind.
Diese retrospektive Aktenstudie hatte die Zielsetzung, diejenigen Mütter von
frühgeborenen Kindern mit einem Gestationsalter von 25 bis einschließlich 30 Wochen
zu identifizieren, die bezüglich der Muttermilchernährung und des Stillen, sowie der
Entwicklung des Trinkverhaltens besondere Unterstützung während des stationären
Aufenthalts benötigen.
Insgesamt werden in den Jahren 2003 bis 2005 an der Universitätskinderklinik 143
Kinder im Alter von 24 bis 30 Schwangerschaftswochen behandelt.
Auf 72 dieser Kinder trafen die Einschlusskriterien der Studie zu: Geburtsalter von 25
bis 30 Schwangerschaftswochen, ein Geburtsgewicht von größer 600g, keine
Fehlbildungen, sowie geboren in der Universitätsklinik Frankfurt am Main und gesund
nach Hause entlassen, keine mütterlichen oder kindlichen Kontraindikationen zum
Stillen, mütterliche Bereitschaft zum Stillen.
Bei diesen Kindern wurden nun anhand der Krankenakten verschiedene Charakteristika
notiert und analysiert.
Sie wurden zum einen bezüglich der Muttermilchernährung, sowie zum anderen
aufgrund der Entwicklung des Trinkverhaltens in Gruppen eingeteilt.
Anschliessend wurden die Gruppen miteinander verglichen und die signifikanten
Unterschiede herausgearbeitet.
Zunächst wurde ein Vergleich zwischen den Mutter-Kind-Paaren mit einer
erfolgreichen und denjenigen mit einer nicht-erfolgreichen Muttermilchernährung
durchgeführt.
Wir definierten die erfolgreiche oder nicht erfolgreiche Muttermilch-Ernährung über
den Anteil der Muttermilch an der Ernährung am Entlassungstag.
Bei den erfolgreichen Mutter-Kind-Paaren war dieser Anteil größer gleich 80% der
Nahrung, bei den nicht erfolgreichen kleiner gleich 20%.
Von den 72 auswertbaren Kindern konnten 43% (n=31) der erfolgreichen und 39%
(n=28) der nicht-erfolgreichen Gruppe zugeordnet werden. 18% (n=13) der Kinder
waren nicht-klassifizierbar, da ihr Muttermilchanteil am Entlassungstag zwischen 20%
und 80% lag.
Es zeigten sich insbesondere signifikante Unterschiede bei den mütterlichen
Charakteristika. Die erfolgreichen Mütter waren älter, kamen an mehr Tagen zu Besuch
und führten mehr Känguruhpflege durch. Bei der Herkunft der Mütter zeigte sich, dass
in der Gruppe der erfolgreichen Mutter-Kind-Paare weniger Mütter mit einem anderen
ethnischen Hintergrund waren, als in der nicht-erfolgreichen Gruppe. Bezüglich der
kindlichen Charakteristika konnte festgestellt werden, dass in der erfolgreichen Gruppe
weniger Kinder an einer nekrotisierenden Enterokolitis erkrankten, als in der nichterfolgreichen
Gruppe.
Die beiden Gruppen unterschieden sich nicht in den kindlichen Charakteristika
Gestationsalter, Geburtsgewicht und der initialen Erkrankungsschwere.
Bei der Entwicklung des Trinkverhaltens wurde die Gruppe der 72 Kinder bezogen auf
den Zeitpunkt „gesamte Nahrungsmenge getrunken“ unterteilt. Es wurden zwei
Gruppen gebildet: die erste beinhaltete die Kinder, die die gesamte Nahrungsmenge zu
einem frühen Zeitpunkt getrunken haben, mit einem Alter von weniger als 36 Wochen,
dies waren 22 Kinder (31%). Die zweite Gruppe enthielt die Kinder die diesen
Zeitpunkt später erreichten, in einem Alter größer 36 Wochen, diese Gruppe bestand aus
34 Kindern (47%). Die übrigen 16 Kinder (22%) erreichten diesen Zeitpunkt mit einem
Alter von genau 36 Wochen.
Hier wurden ebenfalls die kindlichen und mütterlichen Charakteristika beider Gruppen
miteinander verglichen und die signifikanten Unterschiede herausgearbeitet.
Es zeigte sich, dass die Erkrankungsschwere in der späten Gruppe deutlich höher war,
als in der frühen Gruppe. So verbrachten die Kinder die früh die gesamte
Nahrungsmenge getrunken haben, deutlich weniger Tage auf der Intensivstation,
wurden an weniger Tagen beatmet und hatten einen niedrigeren CRIB-Score. Zudem
erkrankte in der frühen Gruppe kein Kind an einer Bronchopulmonalen Dysplasie,
während dies in der späten Gruppe neun der Kinder betraf. Weitere Auffälligkeiten
zeigten sich bei den mütterlichen Merkmalen, die Mütter in der frühen Gruppe führten
an deutlich weniger Tagen die Känguruhpflege durch und wurden seltener per
Kaiserschnitt entbunden als die Mütter der späten Gruppe.
Bezüglich der Charakteristika Gestationsalter, Geschlechtsverteilung, Alter der Mutter,
Herkunft der Mutter, Erstschwangerschaft, Besuchstage, sowie erfolgreiche
Muttermilchernährung zeigte sich kein signifikanter Unterschied.
In dieser Studie zeigt sich also, dass sowohl die jüngeren als auch ausländischen Mütter
mehr Unterstützung bei der Durchführung einer erfolgreichen Muttermilchernährung
benötigen. Zudem wurde deutlich, dass es bei kranken Kindern schwieriger ist, diese
aufrechtzuerhalten als bei gesunden Kindern. Hier bedarf es ebenfalls einer besonderen
Unterstützung der Mütter durch das Fachpersonal auf der Station.
Die Känguruhpflege hat einen positiven Einfluss auf die Muttermilchernährung und die
Wichtigkeit dieser Pflege sollte den Eltern nochmals verdeutlicht werden. Zudem
sollten Eltern, die diese Methode bisher weniger durchgeführt haben, davon überzeugt
und bei der Durchführung verstärkt unterstützt werden.
Es ist außerdem wichtig den Müttern eine Möglichkeit zu geben ihre Sorgen und Ängste
insbesondere bezüglich des Stillens und der Känguruhpflege zu äußern, so dass diesen,
wenn möglich, entgegengewirkt werden kann.
Ein Ansatzpunkt wäre beispielsweise mehr Privatssphäre, gerade für die Mütter, die aus
Scham oder kulturell-religiösem Hintergrund in der Öffentlichkeit der Station die
Känguruhpflege oder das Stillen nicht durchführen. Dabei sollte jedoch nie die
Sicherheit der kleinen Patienten vernachlässigt werden.
Bei der Entwicklung des Trinkverhaltens spielen vor allem kindlichen Faktoren eine
Rolle welche durch das Personal kaum zu beeinflussen sind.
Daher besteht eine der wenigen Möglichkeiten darin, Mütter mit besonders kranken
Kindern, verstärkt bei den Trinkversuchen ihres Kindes anzuleiten, um den Übergang
von der Sondenernährung zum Trinken eventuell zu erleichtern.
Hier könnte den Müttern gezeigt werden, wie sie während des Känguruhens durch
Stimulationen ihres Kindes die Koordination von Atmen, Saugen und Schlucken
fördern und damit das Trinkverhalten verbessern.
Zudem werden Mütter, deren Kinder später trinken, häufig per Kaiserschnitt entbunden.
Auch hier gilt es, Überlegungen anzustellen, wie ein möglichst früher Kontakt
hergestellt werden kann.
Die Muttermilchernährung trägt zu einer gesunden Entwicklung der Kinder bei und
sollte das angestrebte Ziel sein. Deswegen sollte immer versucht werden sie im Rahmen
der Möglichkeiten zu fördern.
Entnahmestrategien subgingivaler Plaqueproben für mikrobiologische Gensonden-Tests: 4 oder 6 Proben?
(2010)
Für die systemische Antibiotikagabe in der Therapie spezieller Parodontitisformen ist nicht die subgingivale Flora einzelner Taschen, sondern ein repräsentatives Bild der subgingivalen Flora des jeweiligen Patienten relevant. Aus Kostengründen werden Proben aus mehreren Taschen zusammengefasst und als sogenannte „gepoolte“ Probe ausgewertet (Flemmig et al. 1998, Beikler et al. 2005). Die gepoolte Auswertungsstrategie bietet für den Nachweis von A. actinomycetemcomitans, T. forsythia, P. gingivalis und T. denticola eine zumindest gleichwertige Nachweissicherheit wie Einzelauswertungen der Proben (Schacher et al. 2007). Die Probenentnahme aus der tiefsten Tasche eines jeden Quadranten (MT4) erwies sich als relativ verlässliche Methode, um Parodontalpathogene - bei Patienten die bisher keine Parodontitistherapie hatten -, nachzuweisen (Mombelli et al. 1991, 1994, Haffajee & Socransky 1992). Neuere Untersuchungen anderer Arbeitsgruppen konnten zeigen, dass die Entnahme von subgingivalen Plaqueproben an den 6 tiefsten Stellen (MT6), die höchste Prävalenz ergeben (Beikler et al. 2006). Allerdings erhöht die Entnahme von 6 statt 4 Proben den Aufwand. Bislang gab es nur Studien, die einen Vergleich zwischen 4 und 6 Stellen nur anhand von PCR-basierter Analyse, untersuchten (Himmer et al. 2009). Ziel dieser Studie war der Vergleich von Zahl und Nachweishäufigkeit von Parodontalpathogenen, bei Patienten mit aggressiver (AgP) oder generalisierter schwerer chronischer Parodontitis (ChP), mittels gepoolten subgingivalen Plaqueproben aus den tiefsten Taschen pro Quadrant und pro Sextant, mithilfe eines 16S rRNA-Gensonden-Tests. Insgesamt wurden bei 50 Patienten (30 weiblich) mit einer unbehandelten aggressiven (n=16) oder generalisierten schweren chronischen Parodontitis (n= 34) klinische Befunde erhoben und vor antiinfektiöser Therapie von jeweils den tiefsten Taschen jedes Quadranten (MT4) bzw. jedes Sextanten (MT6) subgingivale Plaqueproben für mikrobiologische Analysen gewonnen. Dazu wurden an 4 Stellen jeweils 2 sterile Papierspitzen gleichzeitig in den parodontalen Taschen platziert. Jeweils 1 Papierspitze aus jeder Tasche wurde mit den 3 Proben aus den anderen Taschen gepoolt (MT4). Die jeweils verbleibenden 4 Papierspitzen wurden mit 2 weiteren Papierspitzen aus den tiefsten Taschen der 2 verbliebenen Sextanten gepoolt (MT6). MT4 und MT6 wurden zum Nachweis von Aggregatibacter actinomycetemcomitans (AA), Porphyromonas gingivalis (PG), Tannerella forsythia (TF) und Treponema denticola (TD) mit einem 16S rRNS-Gensonden-Test verschickt. Für die statistische Analyse wurden die Bakterienzahlen logtransformiert. Mit MT6 wurde A. actinomycetemcomitans statistisch signifikant häufiger (46%) und in höheren Mengen (2,53±2,79) nachgewiesen als mit MT4 (32%/1,67±2,48) (P=0,035/P=0,002). Die Nachweishäufigkeiten und Durchschnittszahlen für PG, TF und TD waren generell hoch (>95%/>6,0), d.h. sie wurden insgesamt häufiger und in höheren Zahlen nachgewiesen als AA. Somit ergaben sich für die Keime PG, TF und TD keine statistisch signifikanten Unterschiede zwischen MT4 und MT6 hinsichtlich der Nachweishäufigkeit. Nur TF wird durch die Entnahmestrategie MT6 in statistisch signifikant höheren Zahlen nachgewiesen als mit MT4. Innerhalb der Grenzen der vorliegenden Studie können folgende Schlüsse gezogen werden: 1) Beim Gebrauch eines 16S rRNS Gensonden-Tests, ist die Nachweishäufigkeit und Zahl von A. actinomycetemcomitans bei der Entnahmestrategie MT6 gegenüber MT4 erhöht. Die Probenentnahme der tiefsten Tasche je Sextant (MT6) erscheint günstiger als die je Quadrant (MT4). 2) Die Nachweishäufigkeiten von P. gingivalis, T. forsythia und T. denticola lagen bei allen Patienten, die in dieser Studie untersucht wurden, bei mehr als 95%. Auch wurden diese Keime in höheren Mengen nachgewiesen, d.h. die logarithmierten Bakterienzahlen lagen bei 6.0. Diese Studie wurde von der Firma IAI Pado, Zuchwil, Schweiz unterstützt.
Mitte des 19. Jahrhunderts demonstrierte John Snow anhand differenzierter Beobachtungen zur Cholera in London, wie epidemiologisches Wissen und gezielte Maßnahmen zur Bewältigung öffentlicher Gesundheitsprobleme beitragen können. Rund 150 Jahre später sieht sich die Bevölkerung einem stetig wachsenden globalen Güter- und Personenverkehr gegenüber, welcher auch Krankheitserregern eine interkontinentale Ausbreitung innerhalb weniger Stunden ermöglicht, wie eindrucksvoll am Beispiel SARS im Jahre 2003 deutlich wurde. Nationale Beispiele, allen voran die Salmonellen-Epidemie in Fulda im Jahre 2007, zeigen, welche bedeutungsvolle Rolle die Infektionsepidemiologie und die -hygiene auch im 21. Jahrhundert einnimmt. Das frühzeitige Erkennen und ein effizientes Eingreifen durch die Öffentlichen Gesundheitsbehörden sind zur Eindämmung einer Epidemie unabdingbar. Die Verknüpfung medizinischer und geographischer Daten kann Beides wesentlich beschleunigen und ermöglicht die frühzeitige Erkennung eskalierender Infektionsherde. Ziel der vorliegenden Pilotstudie ist die Entwicklung einer Schnittstelle zur Implementierung und Analyse meldepflichtiger Infektionskrankheiten in einem geomedizinischen Informationssystem. Erstmals im Öffentlichen Gesundheitsdienst wird diese Verknüpfung technisch mittels eines Geoinformationssystems realisiert, welches die Georeferenzierung mithilfe von Regionalidentifikationsnummern und der anschließende Visualisierung der im Gesundheitsamt anfallenden krankheitsbezogenen Daten ermöglicht. Der Datentransfer von dem im Amt für Gesundheit genutzten Datenbankprogramm Gumax® zu dem im Vermessungsamt der Stadt Frankfurt am Main probaten Geoinformationssystem Office-GIS gelingt über einen SQL-Server, einem Datenbankmanagementsystem, welches das Speichern, Bearbeiten und Analysieren vergleichsweise großer Datenmengen ermöglicht. Anschließend können Meldeort und Wohnort des an einer nach §§ 6, 7 IfSG meldepflichtigen Infektionserkrankung Erkrankten in der Stadtplan-, Liegenschaftskarte oder Luftbildaufnahme visualisiert werden. Hierüber lassen sich zudem personen- und objektbezogene Krankheitsquellen (z. B. Restaurant, Schule, Kindergarten, Krankenhaus) eruieren. Diese Daten können effizient genutzt werden, um schnell und dezidiert in ein Krankheitsgeschehen eindämmend eingreifen zu können. Mit diesem System könnten auch bioterroristische Anschläge wesentlich schneller erkannt werden, da die Ausbreitungsmodalitäten beispielsweise vom verwendeten Agens, meteorologischen, tageszeitlichen und demographischen Gegebenheiten abhängen. Diesen zusätzlichen Größen soll in erweiterten technischen Realisationen dieses Systems Rechnung getragen werden.
Die mikroskopische Anatomie sowie die pathologische Anatomie bilden einen wichtigen Baustein der Ausbildung von Medizin- und Zahnmedizinstudenten. Da die zeitlichen und personellen Kapazitäten in den Instituten für Pathologie bzw. Anatomie keine vierundzwanzigstündige Betreuung erlauben, bestand der Wunsch, ein zeit- und ortsunabhängiges webbasiertes und interaktives multimediales Lernprogramm zu entwickeln. Es sollte den Studierenden beim Erlernen der Histologie und Histopathologie helfen und die Präsenzveranstaltungen am Mikroskop und Vorlesungen Ergänzen. Das Lernprogramm wurde mit zahlreichen hochauflösenden Bildern aller histologischen Präparate, die Bestandteil der Histologie- und Histopathologiekurse sind, in verschiedenen Vergrößerungen ausgestattet und in die Kurse des Frankfurter Curriculum für Medizin- und Zahnmedizin integriert. Darüber hinaus wurden alle histologischen Webseiten mit den entsprechenden histopathologischen Seiten verlinkt und umgekehrt. Ein Autorensystem zur Aktualisierung, Korrektur und Erweiterung der Programme wurde entwickelt. Mit der Hilfe der Evaluation durch die Studierenden wurde das System im Verlauf stark verbessert. Die hohe Zahl der Zugriffe auf die Website über das Internet (500.000 – 800.000 im Monat) weist auf die hohe Akzeptanz und Beliebtheit des Programms hin. Im wesentlichen zeigt die vorliegende Arbeit, dass internet-basierte Multimedia-Projekte von Studierenden verwendet werden und ihnen helfen, komplexe Sachverhalte der Histologie und Histopathologie zu erlernen. Die enge Verzahnung zwischen histologischen und histopathologischen Themen und Präparaten ermöglicht Studierenden der vorklinischen Fächer, über krankheitsbedingte Veränderungen zu erfahren, Studierende der klinischen Fächer hingegen können das histologische Basiswissen rekapitulieren. Das Autorensystem kann zur Entwicklung weiterer webbasierter Anwendungen, wie z. B. Virtuelle Mikroskopie oder Wissensprüfungsprogramme für die Histologie/Histopathologie, verwendet werden.
Seit Implementierung eines Qualitätsmanagement-Systems nach DIN EN ISO 9001 führt die Klinik für Anästhesiologie, Intensivmedizin und Schmerztherapie am Klinikum der Johann Wolfgang Goethe-Universität in Frankfurt am Main kontinuierlich Maßnahmen zur Qualitätsverbesserung durch. Hierzu zählen als klassisches Element des Qualitätsmanagements Befragungen sogenannter interessierter Parteien. Neben den Patienten stellen, vor allem auf einer Intensivstation, die Angehörigen der Patienten, häufig in Funktion eines gesetzlichen Betreuers, wichtige Partner in der Therapie dar. Bisher sind jedoch für diese Zielgruppe keine validen Befragungsinstrumente vorhanden. Nach Eröffnung der neuen Intensivstation C1 im Jahr 2008 soll eine standardisierte Befragung der Angehörigen intensivpflichtiger Patienten bezüglich deren Erwartungen an das Personal und den Aufenthalt des Patienten auf der Intensivstation durchgeführt werden. Ebenso soll die vom Personal antizipierte Erwartungshaltung der Angehörigen erfasst und im Sinne des GAP-Modells von Parasuraman et al. evaluiert werden. Ziel der vorliegenden Arbeit ist es, ein geeignetes Befragungsinstrument (C1GAP) zu entwickeln und durch geeignete Pretests zu validieren. Nach Identifizierung übergeordneter Themenkomplexe für die Befragung wurde der erste Entwurf eines anonymen Fragebogens für Angehörige mit insgesamt 82 Items verteilt auf 8 Themenkomplexe erstellt. Hieraus wurden anschließend Fragebögen für die Personalgruppen des ärztlichen Dienstes, der Pflege und des Außendienstpersonals am Empfangsschalter erstellt. Zur Information der Teilnehmer über die Intention und den Ablauf der Befragung wurden ein Begleitschreiben des Institutsdirektors Prof. Dr. Dr. K. Zacharowski sowie ein Extrablatt mit Informationen zum Datenschutz beigefügt. Zur Validierung des Fragebogens wurden Pretests in Form von kognitiven Interviews durchgeführt. Aus den kognitiven Interviews ergaben sich neben einer überwiegenden Zustimmung zu Form und Inhalt der Befragung inhaltliche Verbesserungsvorschläge, die in der finalen Überarbeitung des Fragebogens umgesetzt werden konnten. Der validierte, endgültige Fragebogen für Angehörige enthält insgesamt 81 Items, welche auf die Themenkomplexe „Rahmenbedingungen“, „Kommunikation mit Ärzten“, „Kommunikation mit dem Pflegepersonal“, „Information über Behandlungsziele und -ablauf“, „Beteiligung bei Therapieentscheidungen“, „Beurteilung weiterer Betreuungsangebote“, „Verlegung und Entlassung“ sowie „Angaben zur Person“ verteilt sind. Die Fragebögen für die Personalgruppen der Ärzte, Pflegekräfte und des Servicepersonals enthalten zwischen 26 und 61 Fragen zu den genannten Themenkomplexen. Anders als durch reine Zufriedenheitsbefragungen können mit Hilfe des vorliegenden Fragebogens Daten über die Erwartungshaltung von Angehörigen intensivpflichtiger Patienten gewonnen werden und im Vergleich zur vom Personal der Intensivstation C1 antizipierten Erwartungshaltung der Angehörigen einer GAP-Analyse unterzogen werden. Diese Daten können im Rahmen der Qualitätssicherungsmaßnahmen an der Klinik für Anästhesiologie, Intensivmedizin und Schmerztherapie zur Optimierung der Arbeitsabläufe und Leistungsprozesse sowie zur Ressourcenallokation verwendet werden. So kann letztendlich die Versorgung unserer Patienten auf der Intensivstation C1 nachhaltig verbessert werden.
Der Mediziner Prof. Charles Dinarello, 66, von der University of Colorado erhielt den mit 100 000 Euro dotierten Paul Ehrlich- und Ludwig Darmstaedter-Preis 2010. Der mit 60 000 Euro dotierte Paul Ehrlich-Nachwuchspreis ging an die Frankfurter Biologin Prof. Amparo Acker-Palmer, 41, vom Exzellenzcluster »Makromolekulare Komplexe« Frankfurt.
Die kontrastmittelverstärkte MRT hat in den letzten Jahren als Bildgebungsmethode in der abdominellen Diagnostik eine zunehmende Bedeutung in der klinischen Patientenversorgung gewonnen. Neben der Entwicklung neuer Geräte mit schnellen Untersuchungssequenzen in Atemstillstand, hat auch der Einsatz von MRT-Kontrastmitteln entscheidend dazu beigetragen. Mit der Entwicklung neuer Kontrastmittel - höher konzentriert – stellt sich die Frage, ob und wie sich diese von den Standardkontrastmitteln hinsichtlich der Kontrastierung von Organparenchym, Organläsion und Gefäßen unterscheiden. Diese Studie konzentrierte sich auf mögliche Unterschiede zwischen dem neuen höher konzentrierten Kontrastmittel Gadobutrol und dem Standardkontrastmittel Gd-DTPA im Hinblick auf die Charakterisierung von Nierenläsionen. Gadobutrol 1,0 M (Gadovist®, Schering AG, Deutschland), ein hochmolares Gd-Chelat, hat im Vergleich zu herkömmlichem niedermolaren Gd-DTPA (Magnevist®, Bayer Schering Pharma, Deutschland) einen größeren Effekt auf die Verkürzung der T1-Relaxationszeit bei geringerer Osmolalität und Viskosität. Die höhere Konzentration ermöglicht eine Reduktion des Kontrastmittelvolumens und damit einen kompakteren Bolus. Ziel dieser Studie war die Evaluierung des höher konzentrierten Gadobutrols (1,0 molar) im Vergleich zum niedermolekularen Standardkontrastmittel Gd-DTPA (0,5 molar) in der MRT-Nierendiagnostik hinsichtlich der Differenzierung von Nierenläsionen. Außerdem sollen die erzielten Ergebnisse genutzt werden, um die klinischen Anwendungsmöglichkeiten von Gadobutrol erweitern zu können. Die Ergebnisse der vorliegenden interindividuellen Phase-III-Studie basieren auf der MRT-Untersuchung und Auswertung von 30 Patienten mit verschiedenen Nierenläsionen (benigne und maligne) vor und nach Applikation von Gadobutrol 1,0 M bzw. Gd-DTPA 0,5 M. Die Wahl des Kontrastmittels erfolgte nach einer randomisierten Zuordnung. Hierbei erhielten 15 Patienten Gadobutrol 1,0 M und 15 Patienten Gd-DTPA 0,5 M. Die MRT-Befunde wurden mit einem definierten Goldstandard korreliert. Die Applikation beider Kontrastmittel erfolgte nach der automatisierten Bolusmethode, damit eine dynamische Bildgebung ermöglicht werden konnte. Dabei konnte für beide KM eine gute Verträglichkeit evaluiert werden. Die Ergebnisse dieser Studie haben gezeigt, dass bezüglich der Kontrastierung des Nierenparenchyms signifikante Unterschiede zwischen den untersuchten Gadolinium-Chelaten bestehen. Hierbei zeigte sich in der T1-gewichteten Gadobutrol-verstärkten Dynamik während der nephrographischen Phase eine stärkere Anreicherung in Nierenrinde und Nierenmark mit einem langsameren Übertritt des Kontrastmittels ins Nierenbeckenkelchsystem im Vergleich zur Gd-DTPA-verstärkten Bildgebung. Die stärkere Kontrastierung des Nierenmarks während dieser wichtigen Phase ermöglichte eine bessere Abgrenzung und Sichtbarkeit der Nierenläsionen zum umliegenden Gewebe. Die Nierenläsionen zeigten Unterschiede in der Kontrastmittelaufnahme, mit einem Trend für höhere Werte für die Gadobutrol-Gruppe. Gleiche Resultate ergaben sich für die Gefäßkontrastierung. Hier zeigte Gadobutrol-verstärkte Bildgebung keine wesentliche Erhöhung des arteriellen und venösen Gefäßsignals gegenüber dem Standardkontrastmittel Gd-DTPA. Unter Verwendung beider Kontrastmittel konnte eine gute Bildqualität erzielt werden. Jedoch erzielte dabei das höher konzentrierte Gadobutrol höhere Werte im Vergleich zu dem Standardkontrastmittel Gd-DTPA. Ferner zeigte sich für den Gadobutrol-Kontrast eine verbesserte Abgrenzbarkeit der Nierenläsionen. Bezüglich der diagnostischen Sicherheit in der Differenzierung der Nierenläsionen ließ sich zwischen den beiden Kontrastmitteln kein wesentlicher Unterschied feststellen. Die Ergebnisse dieser Studie weisen darauf hin, dass Gadobutrol 1,0 M als höher konzentriertes MR-Kontrastmittel ein gut geeignetes Kontrastmittel zur Detektion und Differenzierung von Nierenläsionen ist. Es kann ebenso wie das bis jetzt verwendete niedermolare Kontrastmittel Gd-DTPA 0,5 M bei der Abklärung von Nierenpathologien mittels MRT eingesetzt werden.
Das Studium der Medizin umfasst eine sehr heterogene Zusammenstellung von Fächern. Die große Anzahl unterschiedlicher Leistungsnachweise im klinischen Studium macht es dabei fast unmöglich, sich auf alle Fächer intensiv vorzubereiten, so dass vom Studenten eine Auswahl getroffen werden muss. Bisher liegen keine Untersuchungen dazu vor, nach welchen Kriterien Studenten ihren Lernaufwand einteilen. Anhand der fachspezifischen Prüfungsleistungen von etwa 1000 Medizinstudenten der Johann Wolfgang Goethe-Universität Frankfurt/Main mit dem Beginn des klinischen Studiums zwischen dem Sommersemester 2003 und dem Wintersemester 2005/2006 wurde untersucht, welche Korrelationen zwischen den 33 Fachnoten des klinischen Studienabschnitts vorliegen, die durch schriftliche Prüfungen ermittelt wurden. Dazu wurden die Noten der Erstprüfung verwendet, bei erst im Wiederholungsversuch bestandenen Fächern wurde für Korrelationen die Note auf 5 gesetzt. Zusätzlich wurde untersucht, ob es Unterschiede der Prüfungsleistungen zwischen den Studentenkohorten gibt, die zum Wintersemester (überwiegend Regelzeitstudenten) oder Sommersemester (keine Regelzeitstudenten) den klinischen Studienabschnitt beginnen. Für diese Berechnungen wurden alle Studenten in Kohorten zusammengefasst, die zum gleichen Zeitpunkt mit dem klinischen Studium begannen. Zur Klassifizierung von Fächern wurden diese nach inhaltlichen Gesichtspunkten zusammengefasst (internistische Fächer, operative Fächer, neurologische Fächer, Reproduktionsblock); daneben wurde eine Gruppierung nach Relevanz im Staatsexamen vorgenommen (Kernfächer des Studiums, Nebenfächer). Die Ergebnisse legen nahe, dass die Studenten kein interessensgesteuertes Lernen anwenden, wie sich an den relativ niedrigen Korrelationen zwischen inhaltlich ähnlichen Fächern zeigt. Dagegen zeigen sich hohe Korrelationen zwischen den Kernfächern des Curriculums, die eine große Fragenanzahl im Staatsexamen besitzen, sowie zwischen Fächern, die im gleichen Zeitraum gelehrt und geprüft wurden. Niedrige Korrelationen (auch negativ) wurden nur für wenige Fächer gefunden, bei denen keine inhaltliche Übereinstimmung vorliegt und offensichtlich keine Bedeutung für das Staatsexamen angenommen wird. Andererseits spricht die deutliche Korrelation zwischen Innerer Medizin und Pädiatrie dafür, dass eine inhaltliche Übereinstimmung in relevanten Fächern den Prüfungserfolg beeinflussen kann, auch wenn die Prüfungen zu unterschiedlichen Zeitpunkten stattfinden. Als Nebenergebnis wird ein deutlicher Leistungsunterschied zwischen den Kohorten gefunden, die im Wintersemester bzw. im Sommersemester ihr klinisches Studium beginnen; hierbei haben die Kohorten ohne Studenten in der Regelstudienzeit deutlich schlechtere Noten. Diese Leistungsunterschiede sind in den Kernfächern mit einer angenommenen großen Relevanz für das Staatsexamen besonders ausgeprägt. Insgesamt bestätigen die Ergebnisse die aus anderen Fächern bekannten Daten, dass von den Charaktereigenschaften nur der Parameter „Fleiß/Gewissenhaftigkeit“ mit einem schnellen, erfolgreichen Studium korreliert, während andere Persönlichkeitseigenschaften keinen Bezug zum Studienerfolg haben. Die Lernsteuerung durch Fleiß mit dem Kriterium „Prüfung zum gleichen Zeitpunkt“ steht in einem Gegensatz zur Tatsache, dass etwa 50% der Studenten bereits zum Studienbeginn genaue Vorstellungen über ihr späteres ärztliches Tätigkeitsfeld haben.
In der vorliegenden Arbeit konnten wir in den einzelnen Lipidfraktionen die gleichen Unterschiede zeigen, die bereits in anderen Untersuchungen aufgezeigt worden waren. Vor allem in den Phospholipiden, im Plasma und in den Erythrozyten ließen sich für die cis-Linolensäure (C18:2ω6c), die Arachidonsäure (C20:4ω6) und die Docosahexaensäure (C22:6ω3) Erniedrigungen beschreiben. Auch in den Cholesterylestern und den Triglyceriden, die als direkte Nahrungsfette gewertet werden können, zeigt sich diese Verteilung, so dass von einer Unterversorgung mit diesen Fettsäuren ausgegangen werden muß. Die Ergebnisse zeigen, dass bereits wenige Fettsäuren zur Beurteilung der Fettsäure-Situation bei Cystische Fibrose-Patienten ausreichen, so dass in Folgeuntersuchungen auf die Auswertung bei Cystische Fibrose-Patienten aller Fettsäuren verzichtet werden kann. Die Gruppen sollten zur Stabilisierung und besseren Reproduzierbarkeit der Werte vergrößert werden. In Folgeuntersuchungen sollte die Ernährung und der Ernährungstatus dokumentiert werde. Die Patienten in unserer Gruppe hatten alle die gleiche Mutation (ΔF 508) und waren adäquat ernährt. Im Einzelnen lässt sich jedoch nicht mehr sagen in welcher Form und Menge Fett zugeführt worden waren. Die Verteilungsmuster in den Triglyceriden und den Cholesterylestern lassen jedoch eindeutig, wie schon in der Literatur beschrieben, auf einen essentiellen Fettsäuremangel schließen. Keiner der Patienten erhielt eine zusätzliche Substitution mit ultralangkettigen mehrfach ungesättigten Fettsäuren der ω3/ω6- Familien. Es lässt sich nur mit Hilfe der Literatur diskutieren welche Ursachen bei unseren Patienten für den essentiellen Fettsäuremangel verantwortlich sind, da unsere Arbeit lediglich eine Erhebung über den Ist-Zustand darstellt. Für die Klärung der Malabsorption müssten Untersuchungen angeschlossen werden, die mit einer Substitution von ultralangkettigen mehrfach ungesättigten Fettsäuren einhergehen. Das Membranverhalten und Rezeptorverhalten kann über die Messung der Phospholipide konkretisiert werden. Im Bezug auf die inflammatorische Antwort könnten die Leukotriene und andere Mediatoren der inflammatorischen Antwort parallel gemessen werden. Als weiteres Ergebnis zeigten sich bei den von uns untersuchten Cystische Fibrose-Patienten im Vergleich zur Kontrollgruppe keine oder nur in Spuren vorhandene trans-Fettsäuren.
Ziel der vorliegenden experimentellen Untersuchung war die Erfassung und vergleichende Beurteilung der mechanischen Belastbarkeit sowie des Frakturverhaltens von karbonfaserverstärkten, keramischen und palladiumfreien Wurzelstiftsystemen. Des Weiteren galt es, die Ergebnisse im Vergleich zum Permador®-Stift, dessen Bewährung in einer vorangegangenen klinischen Untersuchung nachgewiesen wurde, und zu wurzelgefüllten Zähnen zu überprüfen. Gegenstand der Untersuchung waren der palladiumhaltige Permador®-Stift, die palladiumfreien Stiftaufbausysteme AF1, ER® Pt-IR, die keramischen Stifte Cerapost®, Celay® Alumina und Celay® Zirkonia sowie der Karbonfaserstift Composipost®. Als Kontrollgruppe dienten wurzelgefüllte, nicht stiftversorgte Wurzeln. Um die Streuung der Messwerte, die durch die individuell unterschiedliche Dimensionierung und Morphologie von extrahierten natürlichen Frontzähnen beeinflusst werden, zu minimieren, fanden künstliche Zähne aus dem lichthärtenden BisGMAKomposit Estilux hybrid VS posterior (Heraeus Kulzer, Wehrheim/Ts.), Verwendung. Dessen Elastizitätsmodul beträgt nach Aushärtung 19.000 MPa und entspricht somit dem Wert des natürlichen Dentins. Die Herstellung der Wurzeln, Aufbauten und Kronen fand mit sogenannten Modeln statt, wodurch die Herstellung identischer Prüfkörper gewährleistet wurde. Als Aufbaumaterial fand für die metallischen Stiftsysteme ein Phantom-Metall, für das Cerapost®- und Composipost®-System ein Komposit und für die kopiergefrästen Systeme Celay® Alumina und Celay® Zirkonia-Keramik Verwendung. Sämtliche Stiftverankerungen wurden, nach Konditionierung mit dem Rocatec®-Verfahren, mit Panavia® 21 in den Wurzeln zementiert. Im Anschluss erfolgte die Zementierung standardisierter Kronen aus Phantommetall auf allen Wurzeln. Die zyklische Wechselbelastung (1,2x106 Zyklen; 1,4 Hz und 30 N) wurde im Willytec-Kausimulator Version 3.1. (Fa. Willytec, München) vorgenommen. Die Simulation der Wurzelhaut für die Wechsel- und die Bruchbelastung wurde durch Einbettung der Wurzeln in einem Elastomer (Permadyne® Garant; Espe, Seefeld) vorgenommen. In einer Universal-Prüfmaschine (Zwicki 1120; Zwick, Ulm) (Vorschubgeschwindigkeit 0,5 mm/min) wurden die Versuchszähne palatinal, 2 Millimeter unterhalb der Inzisalkante, unter einem Winkel von 135° bis zum Bruch der Wurzel belastet. Hinsichtlich der Bruchlast ergaben die Medianwerte folgende Resultate: Metallstifte: Permador®: 475,4 N; AF1: 444,7 N; ER Pt-Ir: 422,4 N. Der KRUSKAL-WALLIS-Test mit BONFERRONI-Korrektur (p ≤ 0,05) zeigte keine signifikanten Unterschiede zwischen diesen drei Stiftsystemen einerseits und der Kontrollgruppe andererseits. Für die keramischen Stifte wurden 432,2 N [Celay® Alumina], 488,8 N [Celay® Zirkonia] bzw. 416,4 N [Cerapost®] und für den Karbonfaserstift [Composipost®] 515,7 N ermittelt. Bei der Kontrollgruppe trat eine Bruchlast von 363,4 N auf. Bezüglich der Bruchlastwerte lagen unter Berücksichtigung des BONFERRONI-Tests bei der statistischen Datenanalyse zwischen dem kopiergefrästen Keramikstiftaufbau Celay® Zirkonia aus zirkoniumoxidverstärkten Al2O3 einerseits bzw. dem Karbonfaserstift Composipost® und der Kontrollgruppe andererseits signifikante Unterschiede vor (p ≤ 0,05). Die ermittelten Distanzen zwischen Kraftangriffspunkt und den oberen Bruchspaltenden ergaben Medianwerte von 8,0 mm bis 11,1 mm auf der vestibulären Seite und 7,6 mm bis 14,7 mm auf der palatinalen Seite der Wurzeloberfläche. Bezüglich der Distanzen der Frakturverläufe lagen unter Berücksichtigung des BONFERRONI-Tests bei der statistischen Datenanalyse nur palatinal zwischen dem Cerapost®-Stift einerseits und dem Celay® Alumina-Stift und der Kontrollgruppe andererseits signifikante Unterschiede vor. Die vorliegende Studie zeigt, dass hinsichtlich der Bruchlastwerte nach dynamischer Belastung der Karbonfaserstift Composipost® und, bei hohen ästhetischen Ansprüchen, der kopiergefräste Keramikstift Celay® Zirkonia als interessante Alternative zum klinisch bewährten Permador®-Stift zu sehen sind. Des Weiteren zeigt die Untersuchung, dass sich die Verwendung palladiumfreier Stiftsysteme nicht nachteilig auf das Bruchverhalten nach dynamischer Belastung auswirkt.
Für eine erfolgreiche Gentherapie ist zunächst ein effizientes Gentransfersystem nötig, das das Transgen in möglichst vielen Zellen einbaut und es aktiv hält. Damit sich dann der Anteil der geschützten Zellen vergrößert, muss eine Selektivität der genmodifizierten Zellen gegenüber den nativen Zellen gegeben sein, wobei die Sicherheit nicht außer Acht gelassen werden darf, da ein ungünstiger Einbau des Transgens eine Insertionsmutagenese und somit Tumoren induzieren kann. Der durch die Arbeitsgruppe von Laer entwickelte retrovirale Vektor M87o codiert den membranständigen Fusionsinhibitor maC46 (membran-anchored C-Peptid 46), der den Eintritt von HIV (Human Immunodeficiency Virus) in die Zielzelle effektiv verhindert. Diese Gentherapie mit M87o wurde in einer klinischen Studie an T-Lymphozyten von 10 weit fortgeschrittenen AIDS (Acquired Immune Deficiency Syndrome)-Patienten durchgeführt, wobei die Therapie gut verträglich war und keine Toxizität zeigte. Allerdings hatten die Patienten auch keinen klaren Vorteil von der Therapie. In der vorliegenden Arbeit wurden SIN Vektoren (Self-inactivating Vektoren) in 5 verschiedenen Konstruktionen getestet, um die optimale Vektordesign zu ermitteln und eine langfristige hohe Expression zu ermöglichen. Da die SIN Vektoren im Vergleich zu konventionellen gammaretroviralen Vektoren ein geringeres Risiko bezüglich der Insertionsmutagenese aufweisen, stellen sie ein sichereres Vektorsystem dar. Um eine bessere Transgenexpression zu erzielen, wurde in den SIN Vektoren entweder ein zellulärer Promotor oder ein viraler SFFV (spleen focus forming virus) als internen Promotor verwendet. Zusätzliche regulatorische Elemente, wie wPRE (Woodchuck Posttranscriptional Regulatory Element), cHS4 (chicken Hypersensitive Site) Insulator und SAR (Scaffold Attachment Region) Element wurden dann in unterschiedlichen Kombinationen zu stärkeren und langanhaltenden Expressionen integriert, wobei wPRE die RNA Prozessierung verbessert und somit die RNA Stabilität erhöht und SAR und cHS4 Insulator dem Silencing entgegenwirken und so die Expression aufrechterhalten. Diese fünf SIN Konfigurationen wurden untereinander und mit dem klassischen gammaretroviralen Vektor M87o bezüglich des Titers, der Expressionsstärke und der Langzeit-Genexpression verglichen. Dazu wurden zunächst humane T-Zelllinien PM-1 und primäre humane T-Zellen als Testzellen verwendet. Die Versuche wurden dann mit murinen T-Zellen wiederholt, die in die immundefiziten Mäuse transplantiert wurden, um die Genexpression in vivo weiter zu verfolgen. Die SIN Konstrukte zeigten jedoch eine deutlich schwächere Expression als die LTR (Long Terminal Repeat)-getriebene Vektoren und nur ein Konstrukt mit dem viralen Promotor und wPRE zeigte eine annähernd so hohe Expression wie die konventionellen Vektoren. Während der virale SFFV Promotor eine höhere Expressionsstärke gegenüber dem zellulären EF1α (Elongationsfaktor 1 alpha) Promotor zeigte, hatte der cHS4 Insulator nur geringfügige Einflüsse sowohl auf den Titer als auch auf die Expressionsstärke. Der Vektor mit dem SAR-Element zeigte zwar die geringsten Titer und Expressionsstärke, aber in Langzeitbeobachtung wies er sowohl in vitro als auch in vivo eine relativ konstante Anzahl von transgenpositiven Zellen auf. SIN Vektoren, in denen mit einer Kombination von wPRE und SAR-Element die RNA Prozessierung verbessert und das methylationsbedingte Silencing verhindert wird, könnten eine weitere Optimierungsmöglichkeit des Gentransfersystems bei der Gentherapie darstellen.
Gemeinsam ist den Autoimmunendokrinopathien, dass genetische Faktoren als auch Umweltfaktoren für die Ätiologie von Bedeutung sind. Das Vererbungsschema dieser genetischen Prädispositionsfaktoren ist komplex und schließt mehrere Kandidatengene ein. Besonders die HLA-Gene wurden eingehend in den letzten Jahren untersucht. Sie stellen einen wichtigen Risikofaktor für die Entstehung von Autoimmunendokrinopathien dar. Allerdings ist für keinen der bekannten Autoimmunendokrionopathien die genetische Prädisposition, die durch die HLA-Region vermittelt wird, weder ausreichend noch notwendig für die Entwicklung der Erkrankung. So nehmen weitere Kandidatengene eine bedeutende Rolle in der Entstehung von Autoimmunendokrinopathien ein. In den letzten Jahren haben Studien gezeigt, dass diejenigen Mechanismen des Immunsystems, die zur Erhaltung der peripheren T-Zell-Toleranz beitragen, essentiell für die Kontrolle von autoreaktiven T-Zellen sind. Die Elimination bzw. die Störung solcher Mechanismen kann somit in einer Autoimmunerkrankung münden. Folglich sind Gene, die Einfluss auf diese Mechanismen der peripheren Toleranz ausüben, eindeutige Prädispositionsfaktoren für die Entstehung von Autoimmunerkrankungen. CTLA-4 ist ein essentielles inhibitorisches Regulatormolekül für T-Zellen. In vivo- und In vitro- Untersuchungen haben gezeigt, dass CTLA-4 eine bedeutende Rolle in der Regulation von Selbsttoleranz einnimmt. Damit ist CTLA-4 ein entscheidendes Suspezeptibilitätsgen für Autoimmunität im Allgemeinen und könnte insbesondere für die T-Zell-vermittelten Autoimmunendokrinopathien bedeutend sein. Im Rahmen dieser Arbeit wurde nach einem Zusammenhang dieses Genortes mit Typ 1 Diabetes mellitus, Morbus Addison, Hashimoto-Thyreoiditis und Morbus Basedow in der kaukasischen Bevölkerung geforscht. Bei der Suche nach einer Assoziation zwischen CTLA-4 Polymorphismen und Typ 1 Diabetes mellitus zeigt sich eine signifikante Assoziation des -MH30 C/G - und -1661 A/G - Polymorphismus sowie des +49 A/G Exon 1- Polymorphismus des CTLA-4 Gens mit Typ 1 Diabetes mellitus. Beim Polymorphismus –MH30 C/G des CTLA-4 Gen zeigt sich ein signifikant gehäuftes Auftreten des Allels „G“ bei Patienten, die an Typ 1 Diabetes mellitus erkrankt sind. Dabei vermittelt das Allel „G“ bei der Allelfrequenzanalyse - wie auch bei der Genotypenanalyse ein signifikant erhöhtes Diabetes-Risiko. Das Allel „C“ hingegen ist signifikant seltener an Patienten und scheint somit eher protektiv gegen Typ 1 Diabetes mellitus zu wirken. Bei der Untersuchung des -1661 A/G Polymorphismus des CTLA-4 Gens bei Patienten mit Typ 1 Diabetes mellitus zeigt sich das Allel „A“ als krankheitsprädisponierend. Beim +49 A/G Polymorphismus führt die Substitution von Adenin zu Guanin an Position 49 des Exon 1 zu eine Threonin (Thr) /Alanin (Ala) Substitution am Kodon 17 der Signalpeptidsequenz. Die Untersuchung des +49 A/G Polymorphismus in der deutschen Population verdeutlicht, dass der Genotyp „G/G“ sowie das Allel „G“ (Alanin) krankheitsprädisponierend sind. Das Allel „A“ hat eine protektive Wirkung und tritt gehäuft in der Kontrollgruppe auf. Der – 319 – Promotorpolymorphismus zeigt keine Assoziation mit Typ 1 Diabetes mellitus. Die Haplotypanalyse -MH30/-1661 zeigt, dass der Haplotyp „CG“ bei Typ 1 Diabetes mellitus signifikant häufiger auftritt als in der Kontrollgruppe. Der Haplotyp –MH30G/- 1661G hat eine protektive Wirkung. Weiterhin vermittelt der Haplotyp -318/+49G ein erhöhtes Diabetes-Risiko, während der Haplotyp „C/A“ protektiv wirkt. Des Weiteren wurde die Assoziation der oben genannten vier Polymorphismen im CTLA-4 Gen mit der Autoimmunerkrankung Morbus Addison, untersucht. Beim - 1661A/G-Polymorphismus zeigt sich eine signifikant erhöhte Frequenz des Genotyp „A/A“ bei Patienten mit Morbus Addison. Der Genotyp „G/G“ sowie das Allel „G“ des Exon 1- Polymorphismus sind häufiger bei Patienten mit Morbus Addison als bei den Kontrollen und vermitteln somit ein erhöhtes Risiko an Morbus Addison zu erkranken. Im Gegensatz hierzu hat das Allel „A“ eine protektive Wirkung und tritt gehäuft in der Kontrollgruppe auf. Der –MH30 – Polymorphismus und der Promotorpolymorphismus des CTLA-4 Gen zeigen keine relevanten Assoziationen mit Morbus Addison in der deutschen Population. Die Haplotypanalyse der -319 und +49 Polymorphismen zeigt, dass der Haplotyp „C/A“ eine protektive Wirkung hat und daher das Risiko an Morbus Addison zu erkranken, senkt. Der Haplotyp – 319C/+49G birgt dagegen ein erhöhtes Erkrankungsrisiko. Bei Hashimoto-Thyreoiditis zeigte sich, dass der –MH30 C/G-Polymorphismus mit der Erkrankung assoziiert ist. Im Gegensatz zu den Ergebnissen bei Typ 1 Diabetes mellitus zeigt sich das Allel „C“ als krankheitsprädisponierend. Der Genotyp „C/C“ ist signifikant häufiger im Patientenkollektiv als in der Kontrollgruppe. Das Allel „G“ am Genort CTLA-4 –MH30 wirkt dagegen protekiv. Beim -1661 A/G – Polymorphismus treten beide homozygote Genotypen „A/A“ und „G/G“ im Patientenkollektiv häufiger auf als in der Kontrollgruppe. Der heterozygote Genotyp hingegen „A/G“ ist signifikant seltener in der Patientengruppe zu finden als in der Kontrollgruppe und hat somit eine protektive Wirkung. Die Untersuchung des -319 C/T – und des +49 A/G –Polymorphismus zeigt keine Assoziation mit Hashimoto – Thyreoiditis. Die Haplotypanalyse - MH30 / CTLA-4 – 1661 zeigt, dass die Haplotypen „CG“ und „GG“ eine krankheitsprädisponierende Wirkung haben und gehäuft im Patientenkollektiv auftreten als in der Kontrollgruppe. Der Haplotyp -319/ +49 weist bei Patienten mit Hashimoto- Thyreoiditis keine Assoziation auf. Analog zu den anderen oben aufgeführten Autoimmunendokrinopathien wurden auch vier CTLA-4 Polymorphismen auf ihre Korrelation mit Morbus Basedow hin untersucht. Es konnte hier gezeigt werden, dass die untersuchten Polymorphismen keinen wesentlichen Beitrag zur Vermittelung des genetischen Risikos für Morbus Basedow leisten. Die Korrelationsuntersuchung der Polymorphismen zeigte auch keine Assoziation der Haplotypen mit Morbus Basedow. Dies schließt jedoch das CTLA-4 Gen als ein Suspezeptibilitätsgen für Morbus Basedow nicht aus, zumal Assoziationen mit weiteren in dieser Arbeit nicht untersuchten CTLA-4 Polymorphismen bestehen können. Zusammengefasst wird durch die Untersuchung dieser Doktorarbeit die These unterstützt, dass das CTLA-4 Gen eine wichtige Rolle in der Entstehung der Autoimmunendokrinopathien einnimmt. Die hier untersuchten Polymorphismen des CTLA-4 Gens sind prädisponierende Faktoren für Autoimmunendokrinopathien, insbesondere für Typ 1 Diabetes mellitus, Morbus Addison und Hashimoto-Thyreoiditis.
Suchtverhalten wird zu wesentlichen Anteilen durch die mesolimbische, dopaminerge Signalweiterleitung vermittelt. Daher wurde der gesamte DRD2-Genlokus und ergänzend der ANKK1 rs1800497C>TEinzelnukleotid Polymorphismus (SNP), der früher als „Dopamin D2 Rezeptor Taq1A C>T Polymorphismus“ bezeichnet wurde, auf Assoziationen mit dem Risiko, an einer Opiatabhängigkeit zu erkranken, und dem Methadondosisbedarf einer Methadonsubstitutionstherapie untersucht.
Die Allelfrequenzen der DRD2/ANKK1-Polymorphismen wurden zwischen 85 methadonsubstituierten, kaukasischstämmigen Patienten und 99 zufällig ausgewählten, gesunden kaukasischstämmigen Kontrollen verglichen. Innerhalb der Patientengruppe wurde untersucht, ob die tägliche Methadondurchschnitts- bzw. -höchstdosis im ersten Jahr der Behandlung und die Zeit, bis die Höchstdosis erreicht wurde, mit genetischen Varianten der Gene für DRD2 und ANKK1 assoziiert werden kann.
Verglichen mit der Kontrollgruppe findet sich bei Drogenabhängigen das minor-Allel des DRD2 rs1076560G>T-SNPs (p=0.022, Odds Ratio 2.343) oder der ATCT-Haplotyp des DRD2 rs1799978A>G, rs1076560G>T, rs6277C>T, ANKK1 rs1800497C>T häufiger (p=0.048, Odds Ratio 2.23). Ähnliche Tendenzen zeigen sich für ANKK1 rs1800497C>T (p=0.056, Odds Ratio 2.12) und den TCCTCTT-Haplotyp des DRD2-Rezeptors, der sich aus rs12364283T>C, rs1799732Cdel, rs4648317C>T, rs1076560G>T, rs6275C>T, rs6277C>T und ANKK1 rs1800497C>T zusammensetzt (p= 0.059, Odds Ratio 2.31). Die Methadondurchschnitts– und -höchstdosierungen ließen sich signifikant mit dem DRD2 rs6275C>TSNP assoziieren (p=0.016 für die Durchschnittsdosis und p=0.005 für die Höchstdosis). Träger des rs6275T-Allels benötigten höhere Methadondosierungen als Patienten, die dieses Allel nicht tragen. Zusätzlich wurde diese genetische Variante mit einer längeren Zeitperiode bis zum Erreichen der Methadonhöchstdosis assoziiert (p=0.025).
Zusammenfassend wurde in dieser Dissertationsarbeit der gesamte Genlokus des DRD2-Rezeptors von der Promotorregion bis hin zum ANKK1 rs1800497C>T-Polymorphismus analysiert. Es konnte gezeigt werden, dass Polymorphismen, die den DRD2-Rezeptor betreffen, das Risiko, an einer Opiatabhängigkeit zu erkranken, entscheidend beeinflussen. Außerdem konnte gezeigt werden, dass der Dosisbedarf zur erfolgreichen Aufrechterhaltung einer Methadonsubstitutionstherapie durch diese Polymorphismen beeinflusst wird.
Gentechnik im Klassenzimmer
(2010)
Gerlach zum zweiten Mal in den Rat der Gesundheitsweisen berufen Foto: Institut für Allgemeinmedizin
(2010)
Der Schreibkrampf ist eine Form der fokalen Dystonie, die durch unwillkürliche Verkrampfungen der Hand beim Schreiben gekennzeichnet ist, wobei es zu abnormen und funktionell beeinträchtigenden Fehlstellungen kommen kann. Hinsichtlich der Pathophysiologie vermutet man neben einer defizienten sensomotorischen Integration eine abnorme kortikale Plastizität. So findet sich bei Schreibkrampf-Patienten eine abnorm verstärkte PAS-induzierte LTP-ähnliche Plastizität (Quartarone et al., 2003). Diese weist wie auch die LTD-ähnliche Plastizität einen Verlust der somatotopen Spezifität auf: Veränderungen der motorkortikalen Erregbarkeit können im Gegensatz zu Gesunden auch durch PAS mit nicht-homologer peripher-elektrischer Stimulation induziert werden (Weise et al., 2006). Darüber hinaus scheint die für das Gleichgewicht von neuronalen Netzwerken notwendige homöostatische Metaplastizität beim Schreibkrampf gestört zu sein, wenn die Interaktion zwischen zwei aufeinanderfolgenden TMS-Protokollen getestet wird, die LTP- und LTD-ähnliche Plastizität hervorrufen (Quartarone et al., 2005). Da es sich beim motorischen Lernen um einen LTP-abhängigen Prozess handelt, war zu vermuten, dass dessen homöostatische Regulierung beim Schreibkrampf ebenfalls gestört ist. Diese Hypothese ist Ausgangspunkt der vorliegenden Untersuchungen. Hierfür wurde die als Modell für assoziative LTP- und LTD-ähnliche Plastizität beim Menschen entwickelte PAS bei 10 Schreibkrampf-Patienten und 10 gesunden bezüglich Alter und Geschlecht angepassten Probanden angewandt. Verschiedene PAS-Protokolle, die entweder eine LTP-ähnliche Steigerung (PAS25ms), eine LTD-ähnliche Reduzierung (PAS10ms) oder keine Veränderung (PAS100ms) der Motorkortex-Exzitabilität induzieren, wurden kombiniert mit einem nachfolgenden motorischen Training, bei dem die Teilnehmer schnellstmögliche Daumenabduktionsbewegungen der rechten Hand über einen Zeitraum von 2x15 Minuten durchführen mussten. Bei den gesunden Probanden führte eine Konditionierung durch PAS25ms- und PAS10ms-Protokolle zu einer homöostatischen Regulierung nachfolgender übungsabhängiger Plastizität mit einer Verschlechterung des motorischen Lernens nach dem fazilitierenden PAS25ms-Protokoll und einer Verbesserung des motorischen Lernens nach einem inhibierenden PAS10ms-Protokoll. Bei den Schreibkrampf-Patienten konnte diese homöostatische Metaplastizität nicht nachgewiesen werden. Zusätzlich korrelierte das Ausmaß dieser Störung (Verlust der Herunterregulierung motorischen Lernens nach Konditionierung mit PAS25ms) mit dem klinischen Schweregrad der Dystonie als behavioralem Korrelat, so dass mit den Ergebnissen der vorliegenden Arbeit die Hypothese gestützt werden kann, dass eine gestörte homöostatische Metaplastizität eine wichtige Rolle in der Pathophysiologie des Schreibkrampfes spielt. Inwieweit sich hieraus auch therapeutische Implikationen bzw. Strategien ableiten lassen, soll in weiteren Studien überprüft werden.
Die hämatologische Diagnostik wurde in den letzten zwei Jahrhunderten bis zum heutigen Stand stark geprägt und es gibt mittlerweile eine Menge an hämatologischen Diagnostikgeräten. Das Humacount 5 ist ein vollautomatischer hämatologischer Analyzer der mit der Volumetrischen Impedanz Methode Blutbilder erstellt. Ein idealer Einsatzort für das Humacount 5 ist der tägliche Gebrauch sowohl in Ambulanzen als auch auf klinischen Stationen. Es ist ein kompaktes und einfaches Tischgerät, dass auf allen Stationen die für Prävention , Diagnostik, Therapie und Nachsorge Laborwerte benötigen eingesetzt werden kann. Ziel dieser Arbeit war die Testung dieses Gerätes auf Validität, Reliabilität, Objektivität Präzision, Geschwindigkeit und Messgenauigkeit im Vergleich mit der Standardlabormaschine Advia 120. Um auf Häufigkeit und Stärke der Abweichungen zu überprüfen in einem Bereich in dem es äußerst sensitiv arbeiten soll, wurden 50 physiologische Proben benutzt. 250 pathologischen Proben wurden benutzt um eine Auslastung in allen Laborparametern zu erreichen und das Humacount 5 ebenfalls auf Häufigkeit und Stärke der Abweichungen in diesen Bereichen zu überprüfen. Das Humacount 5 liegt mit seinen Werten in einem sehr gutem Variationsbereich die unter den geforderten 5% Abweichintervall liegen. Insgesamt zeigt sich ein sehr gut übereinstimmendes Ergebnis der 22 Laborparameter in der Einteilung auf physiologische Proben und pathologische Proben zwischen dem Advia 120 und dem Humacount 5. In einer zweiten Testreihe wurde die Reliabilität in einem internen Vergleich des Humacount 5 überprüft. Es wurden 50 physiologische und 250 pathologische Proben jeweils zwei mal im Humacount 5 zeitlich direkt hintereinander gemessen. In einer dritten Testreihe werden die 50 physiologischen Proben und die 250 pathologischen Proben verglichen mit einer Messung dieser Proben nach 24 Stunden und in einer vierten Testreihe wurden 10 pathologische Proben jeweils zehn mal hintereinander gemessen. Es haben sich gute Ergebnisse in der Reliabilität und Messgenauigkeit in Bezug auf die Häufigkeit der abweichenden Laborparameter gezeigt. Das Humacount 5 zeigt hierbei besonders, dass in den stark ausgelasteten pathologischen Grenzbereichen der Laborwerte eine sehr hohe Messqualität besteht. Insgesamt betrachtet ist das Humacount 5 also ein sehr valides und reliables Messgerät, das in vielen seiner 22 Laborparameter exzellente Werte abgeliefert hat. Das Gerät wurde in allen Laborparametern vollständig ausgelastet und zeigt sehr sensible Ergebnisse bis in hohe pathologische Werte. Als zweiter Teil der Arbeit wurde der CD4+ Select Test mit einem Standardverfahren in der HIV-Diagnostik, der Flow Zytometrie, verglichen; der CD4+ Select Test ist ein HIVTestverfahren, das CD4 positive Lymphozyten identifizieren und zählen soll. Ziel dieses Teils der Arbeit war die Testung des Verfahrens auf Validität, Reliabilität, Objektivität, Präzision und Messgenauigkeit. Dieses Testverfahren soll vor allem in der HIV Diagnostik und im Patientenmonitoring in der Antiretroviralen Therapie eingesetzt werden. Vor allem ist dieses Testverfahren für die Entwicklungsländer gedacht, die sich das teure Standardverfahren der Flow Zytometrie nicht leisten können. CD4+ Select ist eine kostengünstige aber hochqualitative Alternative für diese Länder. Der CD4+ Select Test wurde validiert anhand bestimmten Kriterien der Firma TriMedCare und auf korrekte Durchführung und korrekte Werte überprüft. Die Blutproben die für die Tests verwendet wurden sind zuvor im Zentrallabor standardisiert gemessen worden. Die CD4 + Werte des CD4+ Select Testverfahrens wurden mit diesen Referenzwerten verglichen. Das Ergebnis des Testverfahrens ist sehr zufriedenstellend und ohne Bedenken in den gewünschten Bereichen einsetzbar. Es ist ein sehr effektiver Test für die CD4+ Lymphozytenbestimmung, der äußerst korrekt arbeitet wenn er sehr sauber durchgeführt wird; außerdem ist er kostengünstig, benötigt wenig Arbeitsaufwand und beinhaltet eine einfache Handhabung. Besonderes Interesse für diese Methode besteht dadurch natürlich in den HIV Ambulanzen und den infektiologischen Fachbereichen.