Universitätspublikationen
Refine
Year of publication
Document Type
- Article (5141)
- Doctoral Thesis (827)
- Part of Periodical (179)
- Preprint (176)
- Conference Proceeding (154)
- Book (80)
- Contribution to a Periodical (69)
- Review (40)
- Part of a Book (16)
- Working Paper (8)
Language
Keywords
- inflammation (80)
- COVID-19 (62)
- SARS-CoV-2 (49)
- apoptosis (38)
- cancer (38)
- glioblastoma (38)
- Inflammation (36)
- breast cancer (34)
- autophagy (29)
- prostate cancer (29)
Institute
- Medizin (6704) (remove)
Limb stump pain after amputation, due to sensitized neuromas, is a common condition that can cause a great deal of suffering in affected patients. Treatment is difficult, requiring a multidisciplinary approach that is often unsatisfactory. One treatment used to mitigate pain is electrical stimulation (EStim), administered using several different therapeutic approaches. The research described in this dissertation sought to characterize changes in peripheral nerve morphology, and neuroma formation, following limb amputation, with an eye toward developing better treatment strategies, that intervene before neuromas are fully formed. Another focus of this study was to evaluate the effect EStim has on changes in peripheral nerve morphology, and neuroma formation, following limb amputation.
Right forelimbs of 42 male Sprague Dawley rats were amputated. At 3, 7, 28, 60 and 90 days post amputation (DPA) 6 limb stumps, in each group, were harvested and changes in peripheral nerve morphology, and neuroma formation were measured. In addition, limb stumps of 6 EStim treated, 6 sham-treated (deactivated EStim devices), and 6 non-treated rats were harvested at 28 DPA.
Analysis revealed six distinct morphological characteristics of peripheral nerves during nerve regrowth and neuroma development; 1) normal nerve, 2) degenerating axons, 3) axonal sprouts, 4) unorganized bundles of axons in connective tissue, 5) unorganized axon growth into muscles, and 6) unorganized axon growth into fibrotic tissue (neuroma). At the early stages (3 & 7 DPA), normal nerves could be identified throughout the limb stump tissues and small areas of axonal sprouts were present near the distal tip of the stumps. Signs of degenerating axons were evident from 7 to 90 DPA. From day 28 on, variability of nerve characteristics, with signs of unorganized axon growth into muscle and fibrotic tissue, and neuroma formation, became visible in multiple areas of stump tissue. These pathological features became more evident at 60 and 90 DPA. EStim treated stumps revealed neuroma formation in 1 out of 6 animals, whereas in sham and controls, neuroma formation was seen in 4 out of 6 stumps respectively.
We were able to identify 6 separate histological stages of peripheral nerve regrowth and neuroma formation over 90 days following amputation. Axonal regrowth was observed as early as 3 DPA, and signs of unorganized axonal growth and neuroma formation were evident by 28 DPA. Our observations suggest that EStim-based treatment and/or other prevention strategies might be more effective if administered in the initial dynamic stages of neuroma development.
Background: Sepsis frequently occurs after major trauma and is closely associated with dysregulations in the inflammatory/complement and coagulation system. Thrombin-activatable fibrinolysis inhibitor (TAFI) plays a dual role as an anti-fibrinolytic and anti-inflammatory factor by downregulating complement anaphylatoxin C5a. The purpose of this study was to investigate the association between TAFI and C5a levels and the development of post-traumatic sepsis. Furthermore, the predictive potential of both TAFI and C5a to indicate sepsis occurrence in polytraumatized patients was assessed. Methods: Upon admission to the emergency department (ED) and daily for the subsequent ten days, circulating levels of TAFI and C5a were determined in 48 severely injured trauma patients (injury severity score (ISS) ≥ 16). Frequency matching according to the ISS in septic vs. non-septic patients was performed. Trauma and physiologic characteristics, as well as outcomes, were assessed. Statistical correlation analyses and cut-off values for predicting sepsis were calculated. Results: Fourteen patients developed sepsis, while 34 patients did not show any signs of sepsis (no sepsis). Overall injury severity, as well as demographic parameters, were comparable between both groups (ISS: 25.78 ± 2.36 no sepsis vs. 23.46 ± 2.79 sepsis). Septic patients had significantly increased C5a levels (21.62 ± 3.14 vs. 13.40 ± 1.29 ng/mL; p < 0.05) and reduced TAFI levels upon admission to the ED (40,951 ± 5637 vs. 61,865 ± 4370 ng/mL; p < 0.05) compared to the no sepsis group. Negative correlations between TAFI and C5a (p = 0.0104) and TAFI and lactate (p = 0.0423) and positive correlations between C5a and lactate (p = 0.0173), as well as C5a and the respiratory rate (p = 0.0266), were found. In addition, correlation analyses of both TAFI and C5a with the sequential (sepsis-related) organ failure assessment (SOFA) score have confirmed their potential as early sepsis biomarkers. Cut-off values for predicting sepsis were 54,857 ng/mL for TAFI with an area under the curve (AUC) of 0.7550 (p = 0.032) and 17 ng/mL for C5a with an AUC of 0.7286 (p = 0.034). Conclusion: The development of sepsis is associated with early decreased TAFI and increased C5a levels after major trauma. Both elevated C5a and decreased TAFI may serve as promising predictive factors for the development of sepsis after polytrauma.
People with Parkinson’s disease (PD) experience a gradual loss of functional abilities that affects all facets of their daily life. There is a lack of longitudinal studies on coping styles in relation to the disease progression among people with PD. The aim of this study was to explore how coping styles in PD evolve over a 3-year period. Data from the longitudinal project “Home and Health in People Ageing with PD” was utilized (N = 158), including baseline and 3-year follow-up assessments. Coping was captured by ratings of 13 different coping styles. A factor analysis was conducted to analyse patterns of coping styles. Stability and change were analysed for each of the 13 styles with respect to the course of the disease. The factor analysis revealed four coping patterns: pessimistic, optimistic, persistent and support-seeking. The stability of each coping style over time ranged from 75.3% to 90.5%. Those who experienced a worsening of the disease were most inclined to change their coping style (p = 0.006). The results suggest that even when facing severe challenges due to PD in daily life, coping styles remain relatively stable over time. However, a worsening in PD severity appeared to trigger a certain re-evaluation of coping styles.
Hintergrund. Die Achtung der individuellen Autonomie ist eines von vier medizinethischen Prinzipien, das im Kontext von Medizin und Forschung insbesondere in Bezug auf die informierte Einwilligung einer Person thematisiert wird. Menschen mit Demenz können aufgrund innerer oder äußerer Faktoren in ihrer Einwilligungsfähigkeit beeinträchtigt sein, was zu einer Einschränkung ihres Rechts auf Selbstbestimmung führen kann. Im diesbezüglichen Spannungsfeld zwischen Fürsorge und Autonomie soll Entscheidungsassistenz zur Ermöglichung selbstbestimmter Entscheidungen beitragen.
Zielrichtung der Arbeit. Ziel der vorliegenden Dissertation ist die Definition, Implementierung und Evaluation von Entscheidungsassistenzmaßnahmen für Menschen mit Demenz, um deren Autonomie in Entscheidungsprozessen zu unterstützen. Drei Teilprojekte umfassen die Ermittlung des internationalen Forschungsstands zu Entscheidungsassistenz bei Demenz, die Definition und Pilotierung von Unterstützungstools in der Praxis und die Analyse des individuellen Erlebens der vereinfachten Aufklärungsgespräche durch Menschen mit Demenz.
Methode. Im ersten Teilprojekt wurde eine am PRISMA-Standard orientierte systematische Literaturrecherche in Medline und PsycINFO durchgeführt. Die extrahierten relevanten Informationen wurden inhaltlich systematisiert. Aufbauend auf diesen Ergebnissen wurden im zweiten Teilprojekt konkrete Unterstützungstools definiert und in reale Aufklärungsgespräche (Lumbalpunktion) implementiert. Die Tools wurden in der Pilotierung in der Praxis sowie in einem iterativen Diskussionsprozess mit Experten weiterentwickelt. Im dritten Teilprojekt wurde das individuelle Erleben der Teilnehmer der vereinfachten Aufklärungsgespräche mittels problemzentrierter Interviews untersucht und die Daten einer qualitativen Inhaltsanalyse unterzogen.
Ergebnisse. Die Datenbankrecherche ergab initial 2348 Treffer. Nach Screenings der Titel, Abstracts und Volltexte konnten 11 Artikel eingeschlossen werden. Vier der eingeschlossenen Studien sind Interventionsstudien, die übrigen sieben qualitative Interviewstudien. Die identifizierten Unterstützungsmaßnahmen wurden zunächst den beiden Kategorien Interventionen und Strategien und anschließend unter Zuhilfenahme des Konzepts des Contextual Consents fünf komplexitätssteigernden Dimensionen einer Entscheidungssituation zugeordnet (individuelle, soziale, medizinische, informationelle und Folgendimension). Darauf aufbauend wurden im zweiten Teilprojekt acht Entscheidungsassistenzmaßnahmen abgeleitet: (1) Gesprächsstruktur, (2) Elaborierte klare Sprache, (3) Ambiente / Raumgestaltung, (4) Stichwortlisten, (5) Prioritätenkarten, (6) Visualisierung, (7) Vereinfachte schriftliche Einverständniserklärung sowie (8) Personenzentrierte Haltung des Entscheidungsassistenten (1-7: Tools, 8: Grundeinstellung). Die Tools zielen überwiegend auf eine Komplexitätsreduktion in der informationellen Dimension unter Berücksichtigung der fähigkeitsbezogenen und der bedürfnisbezogenen individuellen Dimension ab. Durch Anpassungen der Informationsdarbietung oder der kommunikativen Interaktion im Gespräch dienen sie mehrheitlich der Förderung des (Informations-) Verständnisses. Die Analyse der qualitativen Daten im dritten Teilprojekt zeigt, dass die Erfahrung der vereinfachten Aufklärungsgespräche durch drei übergreifende Themen gekennzeichnet ist. Die Kategorie Formalität versus Informationsgewinn illustriert die individuelle Bedeutung des Aufklärungsgesprächs für die Teilnehmer und deren Bewertung des Prozesses der informierten Einwilligung. Die Kategorie Wahrnehmung der Unterstützung skizziert die Bewertungen der angewandten Unterstützungstools durch die Teilnehmer. Die Kategorie Der Wahrheit ins Auge sehen müssen stellt dar, dass die erlebte Situation des vereinfachten Aufklärungsgesprächs wesentlich durch die Verdachtsdiagnose Demenz bestimmt ist, die im Rahmen aller Aufklärungsgespräche besprochen wurde.
Fazit. Bislang gibt es wenig empirische Forschung zu Entscheidungsassistenz für Menschen mit Demenz und Unterstützungsmaßnahmen werden überwiegend unsystematisch entwickelt und angewendet. Die Wirksamkeit einzelner Unterstützungsmaßnahmen kann aufgrund fehlender Interventionsstudien selten beurteilt werden. Unterstützungsmaßnahmen zielen überwiegend auf eine Komplexitätsreduktion in der Informationsdarbietung und im kommunikativen Interaktionsprozess ab, wobei sie kognitive Beeinträchtigungen und Interaktions-/ Entscheidungsbedürfnisse von Menschen mit Demenz berücksichtigen. Die definierten Tools können als erste konkret handhabbare Werkzeuge verstanden werden, die das strukturierte Leisten von Entscheidungsassistenz für Menschen mit Demenz erleichtern sollen. Sie sind übertragbar auf verschiedene Entscheidungssituationen. Eine Bewertung der Wirksamkeit der definierten Tools sollte in weiteren Entscheidungssituationen und mit größeren Stichproben weiteruntersucht werden. Die Ergebnisse der Evaluation liefern jedoch erste Hinweise darauf, dass einige Teilnehmer sich von einzelnen Tools unterstützt gefühlt haben und die anvisierte Komplexitätsreduktion in der informationellen Dimension in einigen Fällen erfolgreich war. Eine wesentliche Komplexitätssteigerung in der untersuchten Entscheidungssituation entstand durch die negative Emotionen auslösende Vermittlung einer potentiellen Demenzdiagnose (Folgendimension). Dieses Ergebnis impliziert, dass die definierte „verständnisfördernde Toolbox“ um Unterstützungsmaßnahmen zur emotionalen Entlastung von Menschen mit Demenz erweitert werden muss, da davon ausgegangen werden kann, dass vielfältige Entscheidungssituationen für Menschen mit Demenz emotional hoch belastend sind.
Zielsetzung: Die Daten für das Jahr 2019 des Registers „Abdominelles Aortenaneurysma“ (AAA) des Deutschen Instituts für Gefäßmedizinische Gesundheitsforschung (DIGG) der Deutschen Gesellschaft für Gefäßchirurgie und Gefäßmedizin werden vorgestellt.
Methodik: Im Jahr 2019 beteiligten sich an dem Register insgesamt 109 Kliniken. Für die offene Versorgung (OR) des intakten AAA (iAAA) gaben 78 (71,6 %) Kliniken, für die endovaskuläre Versorgung (EVAR) des iAAA 102 (93,6 %) Kliniken Daten ein. Für das rupturierte AAA (rAAA) wurden von 36 Kliniken (33,0 %) (EVAR) bzw. 50 (45,9 %) Kliniken (OR) Patienten gemeldet. Ausgewertet wurden die Daten von 1967 stationär behandelten Patienten. Von den insgesamt 1793 iAAA waren 1501 infrarenal (83,7 %) und 292 (16,3 %) juxtarenal gelegen.
Ergebnisse: 1429 iAAA (79,7 %) wurden endovaskulär und 364 (20,3 %) offen versorgt. Bei den endovaskulär versorgten Patienten mit iAAA verlief der Eingriff in 86,3 % der Fälle komplikationslos. Es verstarben insgesamt 15 Patienten (1,0 %) bis zur Entlassung. Bei den offen versorgten Patienten wiesen 67,0 % der Patienten keine Komplikationen auf. Verstorben sind insgesamt 20 Patienten (5,5 %). Bei EVAR war die Klinikletalität bei Versorgung juxtarenaler AAA mit 3,7 % signifikant höher als bei Versorgung infrarenaler AAA mit 0,6 % (p = 0,002), bei OR konnten hingegen keine signifikanten Unterschiede hinsichtlich der Klinikletalität aufgezeigt werden (juxtarenal 4,8 %, infrarenal 5,8 %; p = 0,470). Von den 174 Patienten mit rAAA wurden 80 (46,0 %) endovaskulär und 94 (54,0 %) offen versorgt. Bei EVAR sind 20,0 % der Patienten während des stationären Aufenthalts verstorben, bei OR 36,2 %.
Schlussfolgerung: Die Ergebnisse des Jahres 2019 zu Klinikletalität und Morbidität bei endovaskulärer und offener Versorgung des iAAA bestätigen weitgehend die publizierten Ergebnisse für die Jahre 2013 bis 2018. Beim rAAA sind die Ergebnisse der einzelnen Jahresberichte hingegen widersprüchlich, die kleinen berichteten jährlichen Fallzahlen erlauben nur Aussagen über größere Zeiträume.
Einleitung- 12,5% aller operierten Patienten sind für mehr als 80% aller Todesfälle verantwortlich. Über die Identifizierung dieser Risikopatienten ist wenig bekannt.6. Währenddessen sind hepatobiliäre Operationen nach wie vor mit einem relativ hohen Mortalitätsrisiko von etwa 5% assoziiert.15.
Ziel- Die Evaluierung der „Cumulative Illness Rating Scale(CIRS)“ zur Prädiktion von Komplikationen und Mortalität in der hepatobiliären Chirurgie.
Material und Methoden- Alle Patienten, die sich vom 01.01.2011 bis zum 06.05.2016 einer hepatobiliären unterzogen, wurden retrospektiv anhand der elektronischen Patientenakte(NICE) gemäß der modifizierten CIRS46 bewertet. Abhängig von der Gesamtsumme der ermittelten CIRS-Werte wurden die Patienten in 4 Risikoklassen (1-4) unterteilt. Anschließend wurden die 14 CIRS-Kategorien und die Risikoklassen auf ein vermehrtes Auftreten von Komplikationen ≥IIIb50 gemäß der Dindo-Klassifikation sowie der 90-Tages-Mortalität49 untersucht.
Ergebnisse- 576 Patienten mit einem durchschnittlichen Alter von 60,7 ± 13,7 Jahren wurden in die Studie aufgenommen. 18,6% der Patienten wiesen Komplikationen ≥IIIb anhand der Dindo-Klassifikation auf. 6,8% verstarben innerhalb des Überwachungszeitraumes von 90 Tagen. Für die Risikoklassen 3+4 (OR=1,674; p=0,027; 95%CI=1,060-2,645) sowie für Erkrankungen der Schweregrade 3+4 in der Kategorie „Leber“ (OR=2,583; p=0,015; 95%CI=1,205-5,538) konnten signifikant erhöhte Wahrscheinlichkeiten für die Entstehung von Komplikationen festgestellt werden. Gleiches wurde im Bezug auf Mortalität für Erkrankungen der Schweregrade 3+4 in den Kategorien „Hypertonie“ (OR=2,249; p=0,019; 95%CI=1,141-4,434) und „Leber“ (OR=8,891; p=0,033; 95%CI=1,189-66,492) nachgewiesen. Im Gegensatz dazu führten Erkrankungen der Schweregrade 3+4 in der Kategorie „Unterer Gastrointestinaltrakt“ zu einer deutlichen Reduzierung des Risikos für die Entwicklung von Komplikationen (OR=0,385; p<0,000; 95%CI=0,228-0,649) und Mortalität (OR=0,419; p=0,047; 95%CI=0,178-0987). Die im Rahmen der binär logistischen Regression erstellten Regressionsgleichungen ermöglichten keine verbesserte Klassifizierung der Patienten.
Zusammenfassung- Die Ergebnisse zeigen, dass signifikante Zusammenhänge zwischen der Entstehung von Komplikationen ≥IIIb anhand der Dindo-Klassifikation und der 90-Tages-Mortalität mittels CIRS nachweisbar sind. Dennoch geht hervor, dass der prädiktive Wert der modifizierten CIRS für die hepatobiliäre Chirurgie gering ist.
In der vorliegenden Dissertation wurde untersucht, ob die endotracheale Intubation (ETI) der alternativen Atemwegssicherung mittels Larynxtubus (LT) bezüglich der Überlebenswahrscheinlichkeit bei außerklinisch reanimierten Patienten überlegen ist.
Das retrospektiv erfasste Kollektiv dieser monozentrischen Studie umfasst 222 Patienten, die in den Jahren 2006 bis 2014 nach nicht-traumatischem Herz-Kreislauf-Stillstand außerhalb der Klinik (engl.: Out-of-hospital cardiac arrest, OHCA) präklinisch primär mit Endotrachealtubus (ET) oder LT versorgt und anschließend auf die internistische Intensivstation des Universitätsklinikums Frankfurt am Main aufgenommen wurden. Endpunkte der Studie waren die innerklinische Gesamtmortalität während des Krankenhausaufenthaltes sowie die Überlebensrate nach 24 Stunden.
In die Analyse wurden 208 Patienten einbezogen, von denen präklinisch 48 Patienten mit LT (23 %) und 160 Patienten mit ET (77 %) intubiert wurden. Die innerklinische Sterblichkeitsrate lag insgesamt bei 85 % (n=176); darunter 23 % LT- und 77 % ET-versorgte Patienten. Zwischen den beiden Methoden zur Atemwegssicherung zeigten sich sowohl in einer univariaten Analyse (Hazard ratio [HR]=0,98; 95 % Konfidenzintervall [K.I.] 0,69-1,39; p=0,92) als auch in einer multivariaten Cox-Regressionsmodell (adjustierte HR=1,01; 95 % K.I. 0,76-1,56; p=0,62) keine Unterschiede. Die ersten 24 Stunden nach OHCA überlebten 38 % aller Patienten; auch hier unterschieden sich die beiden Patientenkollektive nicht signifikant voneinander (univariate HR=1,04; 95 % K.I. 0,71-1,52; p=0,83).
Ferner veranschaulichte eine Propensity-Score-Matching-Analyse (PSM) mit einer Subgruppe von 120 Patienten, zusammengestellt in einem 3:1 Verhältnis (ET:LT), sowohl mit Blick auf die Überlebensrate bis zur Krankenhausentlassung (Propensity-adjustierte HR=0,99; 95 % K.I. 0,65-1,51; p=0,97) als auch auf die Mortalität in den ersten 24 Stunden (Propensity-adjustierte HR=1,04; 95 % K.I. 0,44-2,36; p=0,96) vergleichbare Ergebnisse beim Atemwegsmanagement mit LT bzw. ET.
Die frühe Durchführung einer Herzkatheteruntersuchung (HR=0,47; 95 % K.I. 0,28-0,77; p=0,003) sowie der frühe Beginn einer systemischen empirischen antibiotischen Therapie (HR=0,28; 95% K.I. 0,17-0,45; p<0,001) konnten überdies als signifikant positive Prädiktoren für das Überleben in einer angepassten Cox-Regressionsanalyse herausgearbeitet werden.
Im Gesamten konnte somit demonstriert werden, dass die initiale präklinische Anwendung des LT nach OHCA der ETI hinsichtlich der Überlebenswahrscheinlichkeit nicht untergeordnet ist. Neuester Literatur zufolge ist sie womöglich sogar überlegen. Dies gilt es in weiteren Studien zu bestätigen.
APPEAL‐1: A pan‐European survey of patient/caregiver perceptions of peanut allergy management
(2020)
Background: Peanut allergy (PA) is associated with marked quality‐of‐life (QoL) impairment. However, data are lacking on the experience and impact of living with PA from the perspectives of persons with PA (PwPA) and their caregivers. Allergy to Peanuts imPacting Emotions And Life study 1 (APPEAL‐1) was a pan‐European survey investigating these perspectives. This first of two articles reports clinical characteristics of PwPA and PA management practices.
Methods: APPEAL‐1 was a quantitative, online survey conducted in eight European countries, developed by eight representatives of patient advocacy groups and five healthcare professionals and researchers. Eligible participants included adults with PA and parents/caregivers of PwPA who responded by self‐report and provided proxy‐report for the PwPA under their care. Data were summarized using nonweighted descriptive statistics.
Results: Of 1846 completed/analysed questionnaires, 528 were from adults with PA (self‐report); 437 by proxy for children with PA (34 aged 0‐3 years, 287 aged 4‐12 years, 116 aged 13‐17 years) and 881 from parents/caregivers (self‐report). Of PwPA (N = 965), 95% reported diagnosis by healthcare professionals, mostly by clinical history and peanut‐specific allergy testing. Rates of allergic rhinitis, asthma and other food allergies in PwPA were 50%, 42% and 79%, respectively. Only 31% of PwPA received HCP advice/support following their worst allergic reaction, and 28% had not been prescribed an adrenaline auto‐injector. Results were similar by country but varied by age group.
Conclusions: The APPEAL‐1 findings contribute to greater understanding of PA impact on PwPA, caregivers and family members and the need for improved PA management across Europe.
Background: Body dysmorphic disorder (BDD) is characterized by an excessive preoccupation with one or more perceived flaws in one’s own appearance. Previous studies provided evidence for deficits in configural and holistic processing in BDD. Preliminary evidence suggests abnormalities at an early stage of visual processing. The present study is the first examining early neurocognitive perception of the own face in BDD by using electroencephalography (EEG). We investigated the face inversion effect, in which inverted (upside-down) faces are disproportionately poorly processed compared to upright faces. This effect reflects a disruption of configural and holistic processing, and in consequence a preponderance of featural face processing.
Methods: We recorded face-sensitive event-related potentials (ERPs) in 16 BDD patients and 16 healthy controls, all unmedicated. Participants viewed upright and inverted (upside-down) images of their own face and an unfamiliar other face, each in two facial emotional expressions (neutral vs. smiling). We calculated the early ERP components P100, N170, P200, N250, and the late positive component (LPC), and compared amplitudes among both groups.
Results: In the early P100, no face inversion effects were found in both groups. In the N170, both groups exhibited the common face inversion effects, with significantly larger N170 amplitudes for inverted than upright faces. In the P200, both groups exhibited larger inversion effects to other (relative to own) faces, with larger P200 amplitudes for other upright than inverted faces. In the N250, no significant group differences were found in face processing. In the LPC, both groups exhibited larger inversion effects to other (relative to own) faces, with larger LPC amplitudes for other inverted than upright faces. These overall patterns appeared to be comparable for both groups. Smaller inversion effects to own (relative to other) faces were observed in none of these components in BDD, relative to controls.
Conclusions: The findings suggest no evidence for abnormalities at all levels of early face processing in our observed sample of BDD patients. Further research should investigate the neural substrates underlying BDD symptomatology.
Fokale idiopathische Dystonien stellen die häufigste Dystonieform im Erwachse-nenalter dar. Die Pathophysiologie dieser Erkrankungsgruppe ist weitestgehend unverstanden, wobei die Basalganglien, der Thalamus und das Cerebellum eine zentrale Rolle in der Genese dystoner Bewegungen zu spielen scheinen. Unklar ist, ob Patienten mit fokaler idiopathischer Dystonie mikrostrukturelle Verände-rungen in den oben genannten Arealen aufweisen, die das Störungsbild bedingen könnten.
In dieser Arbeit wurde mittels Methoden der quantitativen Magnetresonanztomographie (qMRT) der Versuch unternommen, Änderungen von Struktur und Eigenschaften des Hirngewebes bei idiopathischen Dystonien im Vergleich zu einer gesunden Kontrollkohorte zu identifizieren. Vorangegangen bildgebende Studien erbrachten bislang widersprüchliche Ergebnisse. Insbesondere der Frage nach möglichen Veränderungen des Eisengehaltes sollte mittels Messung der T2*-Re-laxationszeit nachgegangen werden. Weiterhin wurden Areale der motorischen Kontrolle (Basalganglien, Thalamus, Cerebellum und zerebraler Kortex) auf mög-liche Volumenveränderungen untersucht.
Insgesamt wurden 30 Patienten mit fokaler idiopathischer Dystonie sowie 30 alters- und geschlechtsgematchte Kontrollprobanden mittels multimodaler qMRT untersucht und Parameterkarten für die T1- und T2/T2*-Relaxationszeiten sowie der Protonendichte berechnet. Die Parameterkarten wurden sowohl voxelweise als auch regionenbasiert mit der Frage nach Dystonie-spezifischen Veränderungen statistisch ausgewertet. Zusätzlich erfolgte eine Subgruppenanalyse der ge-nannten Parameter von 17 Patienten mit zervikaler Dystonie im Vergleich zu ei-ner verkleinerten Kontrollgruppe.
Für keinen der untersuchten qMRT-Parameter konnte in der voxelweisen oder der regionenbasierten Analyse signifikante Gruppenunterschiede zwischen Patienten mit fokaler idiopathischer Dystonie und gesunden Kontrollprobanden nachgewiesen werden (p ≥ 0,05). Auch unterschieden sich die untersuchten Hirnregionen nicht hinsichtlich ihres Volumens (p ≥ 0,31). Ebenfalls ausschließlich negative Ergebnisse ergab die Subgruppenanalyse für Patienten mit zervikaler Dystonie (Gewebeparameter p ≥ 0,05, Volumen p ≥ 0,21).
Somit fanden sich entgegen der ursprünglichen Hypothese keine mittels qMRT detektierbaren krankheitsspezifischen mikrostrukturellen Gewebeveränderungen bei Patienten mit fokaler idiopathischer Dystonie. Unter Berücksichtigung der me-thodischen Limitationen und der kleinen Fallzahl ergaben sich keine Hinweise auf Dystonie-assoziierte neurodegenerative Prozesse, erhöhte Eisenablagerungen, Demyelinisierung oder Veränderungen des Wassergehaltes. Die Ergebnisse dieser Studie sind kompatibel mit der Sichtweise, dass idiopathische Dystonien am ehesten aufgrund einer reinen neurofunktionellen Netzwerkstörung der Ba-salganglien und deren kortikalen sowie cerebellären Projektionsareale entstehen. Hierbei ist zu berücksichtigen, dass sehr kleine, feingewebliche Veränderungen, die unterhalb des Auflösungsvermögens der hier verwendeten Bildge-bungsmethode liegen, nicht sicher ausgeschlossen werden können. Weitere quantitativ histologische Untersuchungen in Kombination mit quantitativ bildgebenden Verfahren werden benötigt, um die Pathophysiologie dieser Erkrankungsgruppe besser verstehen zu können.