Refine
Year of publication
Document Type
- Doctoral Thesis (1390)
- Article (419)
- Part of Periodical (199)
- Conference Proceeding (106)
- Book (78)
- Contribution to a Periodical (69)
- Review (46)
- Working Paper (19)
- Part of a Book (9)
- Habilitation (6)
Language
- German (2346) (remove)
Has Fulltext
- yes (2346) (remove)
Is part of the Bibliography
- no (2346) (remove)
Keywords
- Deutschland (11)
- Diagnostik (11)
- Kongress (9)
- Medizinische Ausbildung (9)
- Epilepsie (8)
- Diagnostics (7)
- Immunological methods (7)
- Immunologische Methoden (7)
- Mammakarzinom (7)
- Prävention (7)
Institute
- Medizin (2346) (remove)
Ziel: Obwohl es eine Fülle an Literatur zur Messung der Jodaufnahme mittels Dual-Energy-CT bei unterschiedlichen Pathologien gibt, wurden bisher noch keine zuverlässigen physiologischen Referenzwerte für diese Messtechnik bestimmt. Aus diesem Grund wurde die Jodaufnahme von morphologisch gesunden abdominellen Organen sowie Organen des Beckens in einer großen Studienkohorte untersucht.
Material und Methoden: Aufeinanderfolgende portalvenöse abdominelle DECT-Aufnahmen wurden überprüft und morphologisch gesunde Untersuchungsunterlagen wurden eingeschlossen (n=599; weiß/asiatisch=574, durchschnittliches Alter=58 ± 16,6Jahre; 263w/ 336m). ROI-Messungen wurden in den folgenden anatomischen Regionen durchgeführt (Anzahl der ROIs): Leber (9), Pankreas (3), Milz (3), Nebenniere (2), Nieren (6), Prostata (4), Uterus (2), Blasenwand (1) und Lymphknoten (3). Die Jodaufnahme wurde zwischen unterschiedlichen Organen verglichen und eine Subgruppenanalyse fand statt (jung vs alt/ männlich vs weiblich/niedriger BMI vs. hoher BMI).
Ergebnisse: Die gesamte Jodaufnahme war wie folgt (mg/ml): Leber=1,96 ± 0,59, Pankreas=2,07 ± 0,58, Milz=2,45 ± 0,66, Nebenniere=1,61 ± 0,43, Nieren=6,1 ± 1,32, Prostata=1,1 ± 0,53, Uterus=1,01 ± 0,68, Blasenwand=0,69 ± 0,26 und Lymphknoten=0,71 ± 0,28.
Bei Frauen kommt es zu einer höheren Jodaufnahme in der Leber (2,12 ± 0,54 vs 1,84 ± 0,43 mg/ml), Pankreas (2,27 ± 0,54 vs 1,91±0,46 mg/ml), Milz (2,7 ± 0,64 vs 2,3 ± 0,51 mg/ml), Nebenniere (1,72 ± 0,47 vs 1,52 ± 0,39 mg/ml) und Niere (6,6 ± 1,31 vs 5,65 ± 1,1 mg/ml) als bei Männern (P < 0,001). In älteren Patienten nimmt die Jodaufnahme in der Leber (1,80 ± 0,45 vs 2,04 ± 0,52 mg/ml), im Pankreas (1,87 ± 0,46 vs. 2,21 ± 0,52 mg/ml) und der Milz (2,21 ± 0,46 vs 2,64 ± 0,65 mg/ml) verglichen mit jüngeren Studienteilnehmern zu (P ≤ 0.040). Einzig im Uterus präsentierten sich niedrigere Werte in älteren Frauen (01,31 ± 0,72 vs 0,75 ± 0,46 mg/ml, P < 0,001). Bei Patienten mit einem hohen BMI kommt es in der Leber (2,32 ± 0,54 vs. 1,84 ± 0,45 mg/ml), im Pankreas (2,54 ± 0,67 vs. 1,95 ± 0,48 mg/ml), in der Milz (2,85 ± 0,66 vs. 2,32 ± 0,55 mg/ml) und in den Nebennieren (1,79 ± 0,38 vs. 1,56 ±0,44 mg/ml) zu einer signifikanten Abnahme der Jodaufnahme (P < 0,001).
Fazit: Die physiologische Jodaufnahme zeigt alters-, geschlechts- und BMI-abhängige Unterschiede für Leber, Pankreas und Milz. Pankreas und Nebennieren zeigen einen höheren Jod Durchfluss in Frauen. Während die Perfusion des Prostataparenchyms sich unverändert über die gesamte Altersspanne zeigt, nimmt die Jodaufnahme des Uterus bei Frauen im Laufe des Lebens ab. Lymphknoten als auch die Blase zeigen sich unbeeinflusst von demographischen Faktoren sowie von der Veränderung des BMI.
Klinische Relevanz: Wir definierten physiologische Referenzwerte für den statischen Durchfluss der abdominellen Organe wie angegeben mittels DECT-Jodaufnahme-Messungen in einer großen Studienkohorte und beschrieben die zusammenhängenden Unterschiede in Bezug auf Alter und Geschlecht. Dies soll die zuverlässige klinische Anwendung erleichtern und zu einer potentiellen Implementierung in zukünftige Richtlinien führen.
Trotz vielfältiger Ansätze, das Trauma der empfindlichen Innenohrstrukturen während des Einsetzens der Elektrode eines Cochlea-Implantats (CI) zu reduzieren, wird das postoperative Auftreten von Schwindel immer noch als eine der häufigsten Komplikationen in der aktuellen Literatur beschrieben.
Ziel der vorliegenden prospektiven Studie war es, die Häufigkeit sowie die Ursache von postoperativem Schwindel im Zusammenhang mit einer CI-Operation zu ermitteln. Darüber hinaus wurden der zeitliche Verlauf des postoperativen Schwindels, sowie der Einfluss des Elektrodendesigns und des Einführungswinkels auf das Auftreten von Schwindel untersucht. Die Auswahl der Patienten und die Untersuchung erfolgte an der Klinik für Hals-Nasen-Ohrenheilkunde der Johann Wolfgang Goethe-Universität Frankfurt am Main.
29 Erwachsene wurden rekrutiert und erhielten ein unilaterales CI unter Verwendung eines von sechs verschiedenen Elektrodenträgern, die in folgende Kategorien eingeteilt wurden: "strukturerhaltend" (I), "potentiell strukturerhaltend" (II) und "nicht strukturerhaltend" (III).
Der subjektive Schwindel wurde anhand von Fragebögen, die im Anhang zu finden sind, zu fünf verschiedenen Zeitpunkten vor bis zu sechs Monaten nach der Operation beurteilt. Die Teilnehmer wurden in vier Gruppen eingeteilt, abhängig vom Zeitpunkt des Auftretens von Schwindel vor und nach der Operation. Präoperativ und sechs Monate postoperativ wurde eine umfassende Schwindeldiagnostik, bestehend aus Romberg-Test, Unterberger-Test, Test der subjektiven visuellen Vertikalen, optokinetischem Test, Video-Kopf-Impuls-Test (vHIT) und kalorischem Spültest durchgeführt. Zusätzlich wurde der Insertionswinkel (IA) bestimmt und die Patienten wurden in zwei Gruppen (<430°; ≥430°) eingeteilt.
Ergebnis der Studie war, dass 45,8% der Teilnehmer neuen Schwindel nach der Implantation erlebten. Basierend auf den Fragebogendaten wurde bei 72,7% ein vestibulärer Ursprung vermutet. Es zeigte sich keine signifikante Korrelation von auffälligen Ergebnissen der durchgeführten Tests mit dem Auftreten von subjektivem Schwindel.
In der Gruppe 1 (ohne präoperativen Schwindel und mit postoperativem Schwindel) zeigten 18% der Patienten auffällige Ergebnisse in der quantitativen Analyse des kalorischen Spültests, obwohl in dieser Gruppe Elektroden der Kategorie I oder II implantiert wurden, die zur Strukturerhaltung der Cochlea geeignet sind. Der durchschnittliche IA betrug 404° für die Gesamtgruppe und 409° für Gruppe 1. Es gab keine statistisch signifikante Korrelation zwischen IA und wahrgenommenem Schwindel.
Obwohl Schwindel nach CI-Operation eine häufige Komplikation zu sein scheint, konnte die hier verwendete Testbatterie die Symptome nicht objektivieren. Ebenso wurde keine Korrelation zwischen Elektrodendesign, Einführungswinkel oder vestibulären Testergebnissen und selbstberichtetem Schwindel gefunden. Weitere Studien sollten klären, ob dies an einer multifaktoriellen Ursache des Schwindels oder an der mangelnden Sensitivität der derzeit verwendeten Tests liegt. Der Nachweis einer verringerten Schwindelwahrscheinlichkeit bei Verwendung wenig traumatischer Elektrodenträger gelang nicht, ebenso wenig der Nachweis eines Einflusses der verwendeten Einstecktiefe.
Insgesamt reiht sich dieses Manuskript in eine überschaubare Anzahl von Arbeiten ein, die die Schwierigkeit für Kliniker beschreiben, eine nachweisbare Ursache für Schwindelsymptome nach Cochlea-Implantation sicher zu definieren.
Hintergrund: Die ASA-Klassifikation wurde 1941 von den Anästhesisten Saklad, Rovenstine und Taylor gegründet und seither mehrfach überarbeitet, zuletzt 2014 und 2020 durch Hinzunahme von Beispieldiagnosen durch die ASA. Sie bietet eine prägnante Zusammenfassung des präoperativen Gesundheitsstatus des Patienten anhand von sechs Klassen. Je schwerer die Vorerkrankungen eines Patienten sind, desto höher die Klasse und desto mehr anästhesiologische Aufmerksamkeit sollte dem Patienten prä-, intra- und postoperativ gewidmet werden. Ziel der Untersuchung war es, die Reproduzierbarkeit jenes Klassifizierungssystems anhand der Interrater-Reliabilität zu bestimmen sowie ihre prädiktive Validität zu überprüfen.
Methoden: In die vorliegende Studie wurden 684 allgemeinchirurgische Patienten >18 Jahre (Frauen 43%) eingeschlossen. Es erfolgte die Klassifizierung sämtlicher Patienten durch drei Gruppen: Chirurgen, Anästhesisten sowie ein Board bestehend aus einer Oberärztin der Chirurgie und einem Oberarzt der Anästhesie. Die Interrater-Reliabilität zwischen allen drei Rater-Gruppen sowie zwischen je zwei der Gruppen wurde mittels Kappa-Statistik (Fleiss‘ Kappa) berechnet. Weiterhin wurde in einer Subgruppenanalyse die Interrater-Reliabilität bei Bewertung onkologischer Patienten und Patienten ohne Malignom, bei multimorbiden sowie bei geriatrischen Patienten untersucht. Ferner wurde der Einfluss der Arbeitserfahrung (Assistenzarzt vs. Facharzt) auf den Grad der Übereinstimmung untersucht. Zur Überprüfung der prädiktiven Validität der Klassifikation wurde eine Korrelationsanalyse nach Spearman zwischen ASA-Status und Komplikationsklassifikation nach Clavien-Dindo (CDC) durchgeführt.
Ergebnisse und Beurteilung: Die Interrater-Reliabilität zwischen allen Ratern (κ = 0,28, CI 0,21-0,34, p < 0,0001) und zwischen jeweils zwei der Rater-Gruppen ergab eine ausreichende Übereinstimmung (Chirurgen vs. Anästhesisten: κ = 0,25, CI 0,19-0,30, Chirurgen vs. ASA-Board: κ = 0,21, CI 0,15-0,27 und Anästhesisten vs. ASA-Board: κ = 0,36, CI 0,30-0,43, jeweils mit p < 0,0001). Der höchste Grad an Übereinstimmung war zwischen den Anästhesisten und dem ASA-Board zu verzeichnen.
Die Subgruppenanalyse im Vergleich onkologischer und nicht-onkologischer Patienten erbrachte einen niedrigeren Grad an Übereinstimmung in der Gruppe der Patienten mit Malignom (κ = 0,18, CI 0,10-0,26 vs. κ = 0,38, CI 0,29-0,47, jeweils mit p<0,0001). Der Faktor Multimorbidität (κ = 0,19, CI 0,1-0,28, p = 0,00004) sowie ein hohes Patientenalter ≥ 75 Jahre (κ = 0,19, CI 0,03-0,34, p = 0,02) gingen ebenfalls mit einer geringeren Übereinstimmung einher.
Mit steigender Berufserfahrung zeigte sich in der Gruppe der Chirurgen eine höhere Übereinstimmung zwischen den Ratern und dem ASA-Board (Assistenzärzte κ = 0,20, CI 0,13-0,26, p < 0,0001, Fachärzte κ = 0,32, CI 0,12-0,51, p = 0,002), in der Gruppe der Anästhesisten zeigte sich kein nennenswerter Unterschied zwischen jungen und erfahrenen Ärzten (Assistenzärzte κ = 0,37, CI 0,29-0,44, Fachärzte κ = 0,35, CI 0,24-0,46, jeweils p < 0,0001). Es zeigte sich in der hiesigen Arbeit eine Korrelation zwischen ASA-Status und CDC (ϱ = 0,11, CI 0,04-0,19, p = 0,003).
Schlussfolgerung: Vorteil der ASA-Klassifikation ist ihre einfache Erhebung ohne die Notwendigkeit aufwändiger Diagnostik. Sie erweist sich als valides Tool zur Erhebung des präoperativen Gesundheitsstatus der Patienten und korreliert mit den postoperativen Komplikationen. Ein wesentlicher Nachteil ist ihre schwache Reproduzierbarkeit aufgrund ihrer Subjektivität und Untersucherabhängigkeit. Faktoren wie onkologische Begleiterkrankungen, Multimorbidität sowie ein hohes Patientenalter sind schwierig zu kategorisieren und führen zur Verunsicherung der Bewerter. Sie sollten im Beispielkatalog der ASA aufgeführt werden, was die Reproduzierbarkeit erleichtern könnte. Wie auch bereits durch einschlägige Vorstudien aufgezeigt wurde, wäre grundsätzlich eine Überarbeitung der ASA-Klassifikation wünschenswert.
'Skelettfund' im Keller
(2021)
Bei der Identifizierung einer unbekannten, stark verwesten Leiche oder eines Skelettes ohne Hinweise auf die Identität durch die Auffindesituation spielt die Erstellung des sog. biologischen Profils eine entscheidende Rolle. Vorgestellt wird ein Leichenfund in einem mehr oder weniger frei zugänglichen Kellerabteil eines Mehrfamilienhauses. Der Leichnam war weitgehend skelettiert, das Skelett jedoch durch mumifizierte Weichteilreste noch nahezu vollständig zusammengehalten. Bei den Hinweisen auf die Identität ergaben sich insbesondere in der Altersschätzung scheinbare Widersprüche, die jedoch zufällig eine relativ genau zutreffende Schätzung lieferten. Die Überreste konnten mittels forensischer DNA-Analyse einer seit 4 Jahren vermissten 49-Jährigen zugeordnet werden. Als Todesursache wurde ein Kältetod diskutiert.
Der Fall wies eine außergewöhnliche Auffindesituation auf, die an Bilder von „Skelettfunden“ in Kriminalverfilmungen erinnerte. Derartige Befunde dürften jedoch in der Realität wohl nur sehr selten vorkommen. Darüber hinaus werden die Wichtigkeit und die Probleme der forensisch-osteologischen Untersuchungen bei der Identifizierung eines stark verwesten, unbekannten Leichnams demonstriert.
Die Bestimmung von Procalcitonin im Serum stellt einen wesentlichen Bestandteil der Diagnostik, Verlaufskontrolle und Therapieüberwachung septischer Infektionen dar. Das Procalcitonin ist ein Marker, der in der Diagnostik von Infektionen, schweren Entzündungen und Sepsis wertvolle und therapieentscheidende Aussagen ermöglicht. Er sollte allerdings nicht zum Screening asymptomatischer Personen im Rahmen arbeitsmedizinischer Vorsorgen oder sog. Manager-Untersuchungen genutzt werden, sondern lediglich beim klinischen Verdacht einer vorliegenden systemischen Infektion bei entsprechenden Symptomen.
More than 97 percent of the transcribed RNA in mammalian cells is not coding for proteins. Among these are micro RNAs (miRs), transfer RNAs (tRNA) as well as ribosomal RNAs (rRNA) but also long non-coding RNAs (lncRNAs). This RNA class is only defined by its sequence length of more than 200 nucleotides and its lack of protein coding potential. The human genome encodes for more than 18.000 lncRNAs which contribute to gene expression control. Here, we discuss the function of these lncRNAs and how they modulate the angiogenic process of vessel growth.
Retrospektive Analyse der RSV Bronchiolitis bei hospitalisierten Kindern im ersten Lebensjahr
(2021)
Einleitung: RSV ist der häufigste Erreger einer Bronchiolitis bei Säuglingen und Kleinkindern. Besonders oft betroffen sind Säuglinge in den ersten vier Lebensmonaten. RSV-Infektionen führen saisonal gehäuft weltweit zu zahlreichen Hospitalisierungen. Dennoch gibt es in Deutschland keine aktuellen Daten über die Krankheitslast.
Methoden: Es erfolgte eine retrospektive Analyse der elektronischen Krankenakten an der Klinik für Kinder- und Jugendmedizin des Universitätsklinikums Frankfurt am Main. Erfasst wurden alle von 2007 bis 2017 stationär aufgenommenen Patienten mit positivem RSV-Nachweis. Die Daten wurden aus dem elektronischen Patientenverwaltungsprogramm ORBIS in Exceltabellen übertragen.
Ergebnisse: Insgesamt wurden in den letzten zehn Jahren 800 Kinder mit RSV-Infektion stationär aufgenommen. Die Mehrzahl der Kinder befand sich in den ersten 12 Lebensmonaten, n = 564 (70,5 %) und der Hauptteil bestand aus Patienten in den ersten vier Lebensmonaten, n = 341 (60,4 %). In diesem Patientenkollektiv stand bei 289 Kindern eine elektronische Krankenakte zur Datenauswertung zur Verfügung. Von den 289 Patienten handelte es sich bei 35 (12,1 %) um FG und 25 Patienten mussten intensivmedizinisch betreut werden. Von den intensivmedizinisch betreuten Kindern waren 15 Patienten (60 %) FG. Klassischerweise unterschied sich das Gewicht der FG von dem der RG (Frühgeborene: Median 3,43 kg vs Reifgeborene: 5 kg). Unter den FG zeigte sich folgende Verteilung nach Schwangerschaftswochen bei insgesamt 289 analysierten Patienten: < 28. SSW (extremely preterm): n = 4 (1,38 %) der Patienten; < 32. SSW (very preterm): n = 8 (2,76 %) der Patienten und 32 + 1 bis 36 + 6 SSW (late preterms): n = 23 (7,95 %) der Patienten. Die geringe Anzahl an RSV-Infektionen bei FG < 28. SSW hängt vermutlich mit einer erfolgreichen Palivizumab Prophylaxe zusammen. Dafür spricht auch, dass sich der Anteil der späten FG (late 43 preterms), die keine Prophylaxe erhielten, in unserer Untersuchung ähnlich wie in frühere Studien darstellte.
Von den 254 RG mussten 10 (3,9 %) Kinder auf Intensivstation (Schwergrad 3 der WHO-Klassifikation), während 102 (40,2 %) Patienten eine Bronchiolitis (Grad 2 der WHO-Klassifikation) aufwiesen und 142 (55,9 %) Patienten hatten eine RSV-Infektion mit Sättigungswerten > 95 %.
Schlussfolgerung: Die Krankheitslast der RSV-Bronchiolitis in Deutschland ist sehr hoch, vor allem in den ersten vier Lebensmonaten. Typischerweise ging die RSV-Saison von Dezember bis März, sodass eine Immunprophylaxe bei Risikokindern in dieser Zeit verabreicht werden sollte.
Hintergrund
In Anbetracht ihres bedeutenden Potenzials zur Verbesserung der medizinischen Versorgung wird Telemedizin weiterhin zu wenig genutzt. Trotz einiger erfolgreicher Pilotprojekte in den vergangenen Jahren ist insbesondere über die Hindernisse der Etablierung und Verstetigung von Telemedizin wenig bekannt. Diese Studie hatte das Ziel, die Einstellung niedergelassener Neurologen hinsichtlich der Nutzung von Telemedizin in der Epileptologie und resultierende Hinderungsgründe zu verstehen. Gleichzeitig werden mögliche Lösungsansätze präsentiert.
Methoden
Mithilfe eines individuell erstellten 14-Item-Fragebogens befragten wir prospektiv alle Neurologen, die zuvor die Teilnahme an einem transregionalen Telemedizinpilotprojekt im Bereich der Epileptologie abgelehnt oder keine Rückmeldung gegeben hatten, zu Gründen für und gegen den generellen Einsatz von bzw. die Teilnahme an Telemedizin.
Ergebnisse
Von 58 kontaktierten Neurologen antworteten 33 (57 %). Die häufigsten Gründe für die fehlende Nutzung der Telemedizin waren ein vermuteter Zeitmangel oder ein vermuteter zu großer organisatorischer Aufwand (49 %). Zudem wurden Bedenken bezüglich der technischen Ausstattung (30 %) und eine Präferenz für alternative Wege der intersektoralen Kommunikation (30 %) angegeben. Befürchtete Probleme in Bezug auf die Kostenerstattung für telemedizinische Leistungen waren für 27 % ein Hindernis. Neurologen in ländlichen Gebieten waren signifikant häufiger bereit, zunächst eine telemedizinische Konsultation anzufordern, bevor sie eine Überweisung ausstellen (p = 0,006).
Schlussfolgerungen
Die flächendeckende Etablierung von Telemedizinstrukturen ist immer noch durch Hindernisse erschwert, die meist im organisatorischen Bereich liegen. Die bestehenden Herausforderungen im Gesundheitswesen in ländlichen Gebieten sind eine besondere Chance für die Implementierung von Telemedizin. Die meisten Probleme der Telemedizin können gelöst werden, sollten aber bereits bei der Konzeptionierung von Projekten mitbedacht werden, um ihre Verstetigung zu erleichtern.
Einleitung: Empathie ist ein entscheidender Faktor mit direktem Bezug auf das therapeutische Outcome in der Arzt-Patienten Beziehung. Die Ausbildung junger Mediziner:innen ist jedoch sehr fachlich orientiert, soziale Fähigkeiten werden nur in geringem Ausmaß gelehrt. Am Fachbereich Medizin der Goethe Universität Frankfurt wurden Simulationspatient:innen (SPs) bisher hauptsächlich in Prüfungen eingesetzt, nicht aber in der Lehre. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob der Einsatz von SPs in der curricularen Lehre im Fach Chirurgie zur Vermittlung von strukturierten chirurgischen Anamnese- und Aufklärungsgesprächen umsetzbar ist, ob dieses einen Einfluss auf das empathische Verhalten der Studierenden hat, und ob es bei der gezeigten Empathie einen Unterschied zwischen SPs und reale Patient:innen (RPs) gibt. Zusätzlich wird untersucht, ob der Einsatz von SPs einen Einfluss auf den Lernerfolg in kommunikationsbasierten Prüfungen hat.
Methoden: Studienteilnehmende waren Studierende im 3. klinischen Semester am Fachbereich Medizin der Goethe Universität, die aktuell ihr curriculares Blockpraktikum Chirurgie absolvierten. Im Rahmen des Blockpraktikums Chirurgie durchliefen die Studierenden das ‚Training Praktischer Fertigkeiten‘ und hierbei das Modul ‚Kommunikation (Anamnese und Aufklärung)‘. Das Modul dauerte insgesamt 210 Minuten und setzte sich aus theoretischen Einheiten sowie praktischen Übungen (Rollenspielen) zusammen. Die Studienteilnehmenden wurden in 3 Studiengruppen randomisiert. Alle Teilnehmenden füllten zunächst zwei Fragebögen zum selbsteingeschätzten Empathielevel aus und lernten die identischen theoretischen Inhalte des Moduls. In den Rollenspielen trainierte Gruppe 1 mit SPs und wusste auch, dass es sich um SPs handelt. Gruppe 2 übte ebenfalls mit SPs, ging aber davon aus, dass es sich um reale Patient:innen handelte (Inkognito Patient:innen = IPs), Gruppe 3 übte mit RPs und war auch darüber informiert. Im Anschluss wurden die Studierenden anhand eines 10-Items Fragebogen in Hinblick auf die gezeigte Empathie durch die (Simulations-)-Patient:innen bewertet. Der Lernerfolg wurde anhand der Ergebnisse des Chirurgie-OSCE’s, den die Teilnehmenden 5-12 Wochen nach dem Modul absolvierten, ausgewertet.
Ergebnisse: Es zeigten sich signifikante Unterschiede bei dem vom Patienten wahrgenommenen Empathielevel zwischen Gruppe 1 (SP) und 2 (IP) und 1 (SP) und 3 (RP), nicht aber zwischen Gruppe 2 (IP) und 3 (RP). In dieser Konstellation wurden Studierende, welche mit RPs übten oder zumindest davon ausgingen, signifikant weniger empathisch bewertet. Es zeigten sich signifikante Unterschiede in der Eigeneinschätzung zwischen Männern und Frauen, nicht aber in der Fremdeinschätzung. Es gab keine signifikanten Unterschiede in den Ergebnissen der kommunikationsbasierenden Stationen der Chirurgie-OSCE zwischen den einzelnen Gruppen.
Schlussfolgerung: Der Einsatz von SPs im Hinblick auf den Lernerfolg in kommunikationsbasierenden Prüfungen ist gerechtfertigt und eine gute Möglichkeit, um Studierenden das Üben von Gesprächssituationen realistisch zu ermöglichen, ohne dabei akut klinische Patient:innen rekrutieren zu müssen. Dabei muss aber beachtet werden, dass das empathische Verhalten der Studierenden ein anderes ist, wenn sie mit RPs arbeiten, beziehungsweise davon ausgehen, mit einem RP zu arbeiten. Zur Förderung der Empathie sollten RPs und Feedback durch diese früh in die studentische Lehre implementiert werden.
Lippen-Kiefer-Gaumenspalten sind häufige, angeborene Fehlbildungen beim Menschen und werden zumeist schon innerhalb des ersten Lebensjahres operativ korrigiert. In 5-11% der Fälle ist das Vorliegen einer solchen Anomalie mit einer schwierigen Laryngoskopie assoziiert und kann ein modifiziertes Vorgehen bei der Sicherung des Atemweges erfordern. Videolaryngoskopische Techniken kommen hierbei vermehrt zum Einsatz und können auch im Kindesalter zu einer Verbesserung der Intubationsbedingungen beitragen.
In der vorliegenden Arbeit wurden die Intubationsbedingungen zwischen der indirekten Laryngoskopie mittels Glidescope® GVL Spatel Gr. 2 und der indirekten sowie direkten Laryngoskopie mittels C-MAC® Miller-Spatel Gr. 1 bei Kindern mit Lippen-Kiefer-Gaumenspalte miteinander verglichen.
Über einen Zeitraum von acht Monaten wurden Kinder mit Lippen-Kiefer-Gaumenspalte prospektiv abwechselnd entweder indirekt mit dem Glidescope® oder direkt und indirekt mit dem C-MAC® laryngoskopiert. Die Visualisierung der Glottisebene nach der modifizierten Cormack und Lehane Klassifikation war das Hauptzielkriterium. Sekundäre Zielparameter waren unter anderem die Zeit bis zur optimalen Sicht und die Zeit bis zur Intubation.
36 Kinder, die sich einer elektiven Korrektur einer Lippen-Kiefer-Gaumenspalte unterzogen, wurden eingeschlossen und erfolgreich intubiert. Jeweils 18 Kinder wurden mit dem C-MAC® Miller-Spatel Gr. 1 und mit dem Glidescope® GVL-Spatel Gr. 2 laryngoskopiert. Im Vergleich zwischen direkter und indirekter Laryngoskopie mit dem C-MAC® zeigte sich bei vier (22%) Kindern eine deutliche Verbesserung der Visualisierung der Glottisebene von einer schlechten Visualisierung (CL2b, 3 und 4) hin zu einer guten Visualisierung (CL2a und 1) der Glottisebene. Bei Verwendung des Glidescope® lag lediglich in einem Fall eine schlechte Visualisierung der Glottisebene vor.
Der Einsatz indirekter videolaryngoskopischer Techniken kann die Visualisierung der Glottisebene verbessern und reduziert die Anzahl an schwierigen Laryngoskopien bei Kindern mit Lippen-Kiefer-Gaumenspalte.
Hintergrund und Ziel der Arbeit: Aufgrund des demografischen Wandels ist mit einer Änderung des Altersspektrums bei den Obduktionen zu rechnen. Ziel der Arbeit war die Untersuchung der nichtnatürlichen Todesfälle, bei denen die Verstorbenen ein Mindestalter von 65 Jahren erreicht hatten, da dieser Populationsgruppe zukünftig eine wachsende Bedeutung zukommen wird. Material und Methoden: In dieser retrospektiven Mortalitätsstudie wurden alle nichtnatürlichen Todesfälle mit einem Sterbealter ≥ 65 Jahren analysiert, die in den Jahren 2000–2002 (Zeitraum I) und 2013–2015 (Zeitraum II) im Institut für Rechtsmedizin des Universitätsklinikums der Goethe-Universität in Frankfurt am Main obduziert wurden. Für die Analyse der suizidal Verstorbenen wurden zudem Daten nichtobduzierter Selbsttötungen (n = 100) aus Besichtigungen aufgenommen. Ergebnisse: Aus den 1206 Obduktionen resultierten 669 natürliche (55,5 %) und 404 nichtnatürliche (33,5 %) Todesfälle. Darunter ergaben sich 221 Unfälle (Zeitraum I n = 105; Zeitraum II n = 116), 82 Suizide (Zeitraum I n = 55; Zeitraum II n = 27), 41 Todesfälle im Zusammenhang mit medizinischen Interventionen (Zeitraum I n = 7; Zeitraum II n = 34) und 40 Tötungsdelikte (Zeitraum I n = 23; Zeitraum II n = 17). Verkehrsunfälle und Stürze bilden die größten Subgruppen bei den Unfällen. Erhängen und Erschießen sind die am meisten angewandten Suizidarten. Vergleicht man Zeitraum I mit II, so fällt die signifikante Zunahme von Todesfällen im Zusammenhang mit ärztlichen Maßnahmen auf. Eine signifikante Abnahme von Suizidenten ist durch die abnehmende Obduktionsrate in dieser Gruppe zu begründen. Die relative und absolute Fallzahl an Tötungsdelikten im Obduktionsgut weisen keine wesentliche Veränderung auf. Diskussion/Schlussfolgerung: Die Ergebnisse dieser Studie stimmen großteils mit der Literatur überein. Im Zeitvergleich zeigt sich eine relative Zunahme nichtnatürlicher Todesfälle im gerontologischen Obduktionsgut. Dies wird durch den Anstieg von Obduktionen nach iatrogenen Komplikationen wesentlich mitgeprägt.
Der Vorstand der Deutschen Gesellschaft für Epileptologie und die Kommission „Epilepsie und Synkopen“ der Deutschen Gesellschaft für Neurologie haben die aktuelle Datenlage zur Impfung zur Vorbeugung der Corona-Virus-Krankheit 2019 (COVID-19) sowie zur Impfpriorisierung bei Menschen mit Epilepsie gesichtet, diese zusammengefasst und geben die unten genannten Empfehlungen ab.
Hintergrund: In Frankfurt am Main (~750.000 Einwohner) wird die erste Leichenschau im Auftrag der Polizei tagsüber durch einen dafür eingerichteten rechtsmedizinischen Dienst vorgenommen. Nachts und am Wochenende führen diese Tätigkeit Ärzte des ärztlichen Bereitschaftsdienstes (ÄBD) der kassenärztlichen Vereinigung durch. Material und Methoden: Für das Jahr 2019 wurden die im Rahmen dieser ersten Leichenschauen ausgestellten Leichenschauscheine hinsichtlich der attestierten Todesart ausgewertet und die Ergebnisse mit denen einer ggf. im Nachgang durchgeführten Sektion, inklusive Zusatzuntersuchungen, verglichen. Von den Ärzten des ÄBD konnten 461 Leichenschauen in die Auswertung eingeschlossen werden, davon erfolgte in 76 Fällen eine Obduktion. Im Nachgang der 364 rechtsmedizinischen Leichenschauen wurden 78 Obduktionen durchgeführt. Ergebnisse: Veränderungen in der Todesart nach Sektion ergaben sich für die Leichenschauen des ÄBD in 57, bei den rechtsmedizinischen Leichenschauen in 49 Fällen, wobei insbesondere eine bei Leichenschau attestierte ungeklärte Todesart in einen natürlichen Tod spezifiziert werden konnte. Nach der Obduktion fanden sich bei den rechtsmedizinischen Leichenschauen 8 Fälle, bei denen des ÄBD 19 Fälle eines nichtnatürlichen (statt weiterhin ungeklärten) Todes. Bei den rechtsmedizinisch beschauten Fällen änderte sich zudem nach der Sektion in einem Fall die Todesart von natürlich zu nichtnatürlich, bei denen des ÄBD kam es in einem Fall zu einer Änderung von nichtnatürlich zu natürlich. Diskussion: Die Veränderung bzw. Spezifizierung der Todesart nach der Sektion beider Kollektive verdeutlicht, wie wichtig eine Steigerung der Sektionsrate wäre, und dass auch bei professioneller Durchführung der Leichenschau das Erkennen der Todesart Probleme bereitet.
Erratum zu: Rechtsmedizin 2020. https://doi.org/10.1007/s00194-020-00447-4. Der Artikel „Aktuelle Normwerte der Organgewichte und -indizes für die rechtsmedizinische Praxis, Teil 2. Leber, Lunge, Milz und Nieren“ von C. Holländer, H. Ackermann und M. Parzeller wurde ursprünglich Online First ohne „Open Access“ auf der Internetplattform des Verlags publiziert. Nach der Veröffentlichung in Bd. 31 Heft 2 pp. 117–130 hatten sich die Autoren für eine „Open Access“-Veröffentlichung entschieden. Das Urheberrecht des Artikels wurde deshalb in © Der/die Autoren 2020 geändert. Dieser Artikel ist jetzt unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen. Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://creativecommons.org/licenses/by/4.0/deed.de.
Erratum zu: Rechtsmedizin 2020. https://doi.org/10.1007/s00194-020-00447-4. Im o. g. Beitrag wurde im Abschnitt Material und Methoden auf S. 118 bei den Organindizes aufgrund eines Tippfehlers „mit p = 0,95“ statt „mit P = 0,95“ angegeben. Durch den Tippfehler könnte angenommen werden, es handle sich um eine Irrtumswahrscheinlichkeit, obwohl es sich um eine Konfidenz handelt. Zudem wurden in den Abschnitten Material und Methoden sowie Limitationen bezüglich der Erhebung von Organindizes versehentlich angeführt, es seien bei der linken und rechten Niere (♂, ♀) Ausreißer entfernt worden. Richtigerweise wurden Ausreißer bei der rechten Niere nur bei den Frauen entfernt. Die Überschrift in Tab. 6 muss richtigerweise „Tab. 6: Nichtparametrischer Toleranzbereich …“ und nicht „Tab. 6: Nichtparametrischer Normbereich …“ lauten. In Tab. 7, die sich auf den Kruskal-Wallis-Test bezieht, ist als Anmerkung „* Signifikante Korrelation“ angegeben. Aufgrund des Testverfahrens ist dies als „* Signifikanter Unterschied“ zu bezeichnen. Der Originalbeitrag wurde entsprechend korrigiert. Für diese Fehler möchten wir uns entschuldigen.
Einleitung: Die Obduktion nimmt einen wichtigen Stellenwert in der Medizin ein, da sie nicht nur der Klärung der Todesart und -ursache eines Verstorbenen dient, sondern auch zum Verständnis der Pathophysiologie von Erkrankungen beiträgt. In diesem zweiten Teil der Studie wurden aktuelle Normwerte für das Gewicht für die folgenden adulten Organe entwickelt: Leber, Lunge, Milz, Nieren. Zudem wurden Zusammenhänge zwischen Organgewichten und der Todesart untersucht. Material und Methoden: Die im Dreijahreszeitraum von 2011 bis 2013 im Institut für Rechtsmedizin in Frankfurt am Main durchgeführten Obduktionen wurden retrospektiv ausgewertet. Die statistischen Berechnungen erfolgten mithilfe des Programmes „BiAS. für Windows“ (epsilon-Verlag GbR, Hochheim-Darmstadt, Deutschland). Ergebnisse: Folgende Normwerte bzw. -bereiche wurden an der Studienpopulation erhoben: Leber 1047,0–2740,0 g (♂, n = 191) bzw. 749,0–2182,0 g (♀, n = 115), linke Lunge 230,0–840,0 g (♂, n = 119) bzw. 186,8–891,3 g (♀, n = 97), rechte Lunge 249,3–1005,8 g (♂, n = 116) bzw. 215,3–907,5 g (♀, n = 100), Milz 55,0–373,2 g (♂, n = 306) bzw. 50,0–355,0 g (♀, n = 204), linke Niere 110,0–255,0 g (♂, n = 258) bzw. 71,8–215,0 g (♀, n = 137), rechte Niere 100,0–270,0 g (♂, n = 266) bzw. 75,0–212,1 g (♀, n = 140). Für die am stärksten mit Organgewichten korrelierenden Körpermaße, nämlich Body-Mass-Index (BMI), Körperoberfläche („body surface area“, BSA) und Körpergewicht, wurden nach Subgruppen getrennte Normwerte ermittelt. Ein signifikanter Unterschied des Organgewichtes je nach Todesart lag bei Männern bei der Milz und bei den Nieren vor. Bei Frauen war bei keinem der Organe ein von der Todesart abhängiger signifikanter Gewichtsunterschied feststellbar. Außerdem wurden Organindizes entwickelt, mittels derer der Anwender berechnen kann, ob ein Organgewicht, Körpermaßen bzw. Alter entsprechend, im Normbereich liegt. Diskussion: Organgewichte unterliegen wie Körpermaße einem säkularen Trend, welcher jedoch nicht linear und für jedes Organ individuell verläuft. Für die Auswertung von Organgewichten im Rahmen der Obduktion werden deshalb aktuelle, an einer vergleichbaren Population erhobene Normtabellen benötigt. Bei deren Erstellung können sowohl Fälle mit natürlichem als auch mit nichtnatürlichem Tod unter weitestgehendem Ausschluss pathologisch veränderter Organe herangezogen werden.
Zielsetzung: Die Daten für das Jahr 2018 des Registers „Abdominelles Aortenaneurysma“ (AAA) des Deutschen Instituts für Gefäßmedizinische Gesundheitsforschung (DIGG) der Deutschen Gesellschaft für Gefäßchirurgie und Gefäßmedizin werden vorgestellt.
Methodik: Im Jahr 2018 beteiligten sich an dem Register insgesamt 135 Kliniken. Für die offene Versorgung (OR) des intakten AAA (iAAA) gaben 118 (87,4 %) Kliniken, für die endovaskuläre Versorgung (EVAR) des iAAA 133 (98,5 %) Kliniken Daten ein. Für das rupturierte AAA (rAAA) wurden von 80 Kliniken (59,3 %) (EVAR) bzw. 65 (48,1 %) Kliniken (OR) Patienten gemeldet. Ausgewertet wurden die Daten von 4051 stationär behandelten Patienten.
Ergebnisse: 2800 iAAA (75,8 %) wurden endovaskulär und 895 (24,2 %) offen versorgt. Bei den endovaskulär versorgten Patienten mit iAAA verlief der Eingriff in 86,4 % der Fälle komplikationslos. Es verstarben insgesamt 32 Patienten (1,1 %) bis zur Entlassung. Bei den offen versorgten Patienten wiesen 73,4 % der Patienten keine Komplikationen auf. Verstorben sind insgesamt 42 Patienten (4,7 %). Von den 356 Patienten mit rAAA wurden 192 (53,9 %) endovaskulär und 164 (46,1 %) offen versorgt. Nur 11,0 % der mit OR versorgten Patienten, aber 23,4 % bei EVAR wiesen freies Blut in der Bauchhöhle auf. Bei EVAR sind 30,7 % der Patienten während des stationären Aufenthalts verstorben, bei OR 20,1 %.
Schlussfolgerung: Die Ergebnisse des Jahres 2018 zu Klinikletalität und Morbidität bei endovaskulärer und offener Versorgung des iAAA bestätigen weitestgehend die publizierten Ergebnisse für die Jahre 2013 bis 2017. Beim rAAA wurde 2018 erstmals über mehr endovaskuläre als offene Versorgungen berichtet – mit Ergebnissen, die denen der Vorjahre diametral entgegengesetzt waren. Patienten mit EVAR wiesen die höhere Komorbidität als Patienten mit OR auf und die Klinikletalität war höher. Es bleiben die Ergebnisse der Folgejahre abzuwarten, um diesen Trend genauer bewerten zu können.
Onkologische Erkrankungen im Kindesalter und jungen Erwachsenenalter haben nicht selten eine gute Prognose. Entsprechend wird für Betroffene früher oder später die Frage relevant, inwieweit nach einer onkologischen Behandlung die Fertilität beeinträchtigt ist. Nicht nur der Zeitraum der Fertilität, sondern auch die Wahrscheinlichkeit eines vorzeitigen Ovarialversagens mit allen Risiken eines längerfristigen Östrogenmangels ist für die Lebensplanung der Frauen wichtig. Mittlerweile können vor Behandlung fertilitätserhaltende Maßnahmen angeboten werden. Sie bieten manchmal die einzige Chance, auf ovarielle Reserven nach Behandlung zurückgreifen zu können, sind aber nicht immer nötig und von späterem Nutzen. Das Anti-Müller-Hormon (AMH) hat sich als validester Marker für die Beurteilung der ovariellen Reserve herausgestellt. Mithilfe dessen sind Prognosen über die Ovarreserve vor und nach der onkologischen Therapie möglich. Dies erleichtert die Entscheidung für die Indikation für fertilitätserhaltende Maßnahmen und kann wegweisend in der Lebensplanung der Frauen und Familien sein.
Akzidentielle Injektion eines unbekannten Notfallantidots zur Acetylcholinesteraseaktivierung
(2021)
Ventrikulitis bezeichnet eine Infektion der inneren Liquorräume des Gehirns. Sie tritt gehäuft nach neurochirurgischen Eingriffen, wie z.B. der Anlage einer EVD oder eines VP-Shunts auf, da die Fremdkörper als Eintrittspforten für Bakterien dienen können. Zur Therapie der Ventrikulitis werden am Universitätsklinikum Frankfurt nach hausinternem Standard Meropenem und Vancomycin verwendet. Bei beiden Antibiotika ist für die Therapie von entscheidender Bedeutung, dass ihre Wirkstoffkonzentration über einen möglichst langen Zeitraum oberhalb der MHK liegt. Bei der Ventrikulitis ist insbesondere die Wirkstoffkonzentration im Liquor ausschlaggebend. Problematisch ist bei der Therapie, dass die verabreichten Antibiotika die Blut-Hirn-Schranke überwinden müssen. Diese ist im Normalfall für Medikamente schwer durchlässig, allerdings kann ihre Barrierefunktion durch Infektionen abgeschwächt sein. Zur Therapie der Ventrikulitis wurden als Standard im Universitätsklinikum Frankfurt am Main bislang 3x2g Meropenem und 2x1g Vancomycin täglich als diskontinuierlicher, verlängerter Bolus verabreicht.
In einer Studie von Blassmann et al.191 zeigte sich, dass sich durch dieses Dosisregime nur in etwa der Hälfte der Fälle eine ausreichende Wirkstoffkonzentration im Liquor einstellte. Daraus ergab sich die Fragestellung, ob durch kontinuierliche TDM-gesteuerte Gabe von Meropenem und Vancomycin (wie sie seit 2016 in der Neurochirurgie des Universitätsklinikums Frankfurt angewandt wird) höhere Liquorspiegel zu erreichen sind, und ob sich Nomogramme für die Eindosierung und Dosisanpassung für Parameter, wie die Kreatinin-Clearance, erstellen lassen.
Um der Fragestellung auf den Grund zu gehen, wurden neun Patienten, die an Ventrikulitis erkrankt waren und mit diesem Dosisregime behandelt wurden, in diese Studie eingeschlossen. Hauptzielgrößen waren die Serum- und Liquorkonzentration von Meropenem und Vancomycin. Darüber hinaus wurden vor allem Entzündungsparameter und Nierenfunktionsparameter erfasst. Für die Eindosierung wurden modifizierte Nomogramme einer Studie verwendet, in der Sepsis-Patienten mittels kontinuierlicher Infusion von Meropenem und Vancomycin behandelt wurden.
Die entnommenen Serum- und Liquorproben wurden an die Apotheke des Klinikums Heidenheim versendet und dort analysiert. Jeweils 24 Stunden nach den Messungen erfolgten notwendige Dosisanpassungen, während weitere 24 Stunden später erneut gemessen wurde.
Die Auswertung der Ergebnisse ergab, dass die verwendeten Dosierungen deutlich über den bisherigen Standarddosierungen beider Medikamente lagen. Die resultierenden Wirkstoffkonzentrationen im Serum und im Liquor befanden sich fast ausschließlich innerhalb des angestrebten Intervalls. Die Entzündungsparameter nahmen im Verlauf ab, während die Nierenfunktionsparameter konstant blieben, oder sich trotz hoher Dosierung von Vancomycin sogar verbessert haben.
Die Simulation des Modells ergab zunächst eine Diskrepanz zwischen gemessenen und simulierten Werten. Nach einer Parameteranpassung gelang es, das Verhalten der Meropenemkonzentrationen in dem untersuchten Dosisregime besser zu simulieren, während bei Vancomycin weiterhin Abweichungen bestehen blieben. Mit den neu geschätzten Parametern wurde für Meropenem eine neue Simulation durchgeführt, um die Dosis zu optimieren. Außerdem wurde der Zusammenhang zwischen der Meropenem- und der Kreatinin-Clearance überprüft. Im letzten Schritt wurden aus der optimierten Dosis und der initialen bzw. mittleren Kreatinin-Clearance Nomogramme erstellt, wobei die optimierte Dosis in zwei Nomogrammen auch auf das Körpergewicht des jeweiligen Patienten bezogen wurde. Daraus ergaben sich schließlich die Nomogramme für die Eindosierung und Dosisanpassung für Meropenem.
Als Fazit lässt sich in Bezug auf die Eingangsfrage festhalten, dass durch kontinuierliche TDM-gesteuerte Gabe von Meropenem und Vancomycin viel zuverlässiger wirksame Liquorspiegel dieser Medikamente zu erreichen sind als mit der bisherigen Standarddosierung. Außerdem konnten für Meropenem Nomogramme für die Eindosierung und Dosisanpassung erstellt werden, während die fehlende Korrelation der Vancomycinwerte mit der Kreatinin-Clearance dies nicht zuließ. Für Vancomycin muss daher eine mindestens tägliche Konzentrationsmessung empfohlen werden.
Grundsätzlich bleibt aber festzuhalten, dass durch die kontinuierliche TDM-gesteuerte Gabe viel zuverlässiger wirksame Liquorkonzentrationen der beiden Antibiotika erreicht werden konnten, verglichen mit der diskontinuierlichen Gabe.
Hintergrund: Das genaue Wissen um die Umstände eines jeden tödlichen Arbeitsunfalls ist Voraussetzung für die Identifizierung von Unfallschwerpunkten und ermöglicht eine effektive Präventionsarbeit. Mit dieser rechtsmedizinischen Studie zum Arbeitsunfallgeschehen soll ein Beitrag dazu geleistet werden, die Zahl tödlicher Arbeitsunfälle in Deutschland zu senken.
Material und Methode: Zur Untersuchung kamen die tödlichen Arbeitsunfälle, die sich im Einzugsbereich des rechtsmedizinischen Instituts Frankfurt am Main in den Jahren von 2005 bis 2016 ereigneten. Ausgewertet wurden Obduktionsprotokolle sowie die dem Institut zur Verfügung gestellten Staatsanwaltschaftlichen Ermittlungsakten.
Ergebnisse. Es fanden sich 87 tödliche Arbeitsunfälle in dem genannten Zwölfjahreszeitraum. Die Altersstruktur reichte vom jugendlichen Alter bis in das Rentenalter. Betroffen waren zum größten Teil männliche Arbeiter (96,6%, p< 0,0001), verhältnismäßig häufig ausländischer Nationalit.t (34,5%). Die meisten Unfälle ereigneten sich in der 2. Jahreshälfte (58,6%), an Montagen (26,4%), kurz vor und nach der Mittagspause. In 3 Fällen lag die Blutalkoholkonzentration über 0,5‰. Die Baubranche (55,2%) war der unfallträchtigste Wirtschaftszweig. Der Absturz (28,7%) war der häufigste
Unfallmechanismus und das Polytrauma (39,1%) gemeinsam mit dem Schädel-Hirn-Trauma (24,1%) gemäß dem ISS die häufigste Todesursache.
Diskussion: Nach den Ergebnissen dieser Studie sollten Alter der Arbeiter sowie die Tages-, Wochen- und Jahreszeit bei der Ausführung risikoreicher Arbeiten im Baugewerbe berücksichtigt werden. Besonderes Augenmerk sollten Arbeitgeber auf die Kontrolle von Sicherheitsvorkehrungen bei Arbeiten in der Höhe sowie auf die Durchsetzung der Helmpflicht gerade auch bei ausländischen Arbeitnehmern legen.
[Nachruf] Helmut Siefert
(2012)
Wolfgang Schlote : 80 Jahre
(2012)
Das Institut für Medizinische Virologie, untergebracht in dem 100 Jahre alten Gebäude des ehemaligen Frankfurter Gesundheitsamtes direkt neben dem Georg-Speyer-Haus, ist eine wunderbare Kombination von Funktionalität und Schönheit. Von der geschwungenen Holztreppe des historischen Treppenhauses geht der Blick immer wieder in hochmoderne biomedizinische Laboratorien, gesichert hinter dicken Glastüren – ein Blick in eine futuristisch anmutende Welt.
Hausherr ist hier seit April 2012 der mehrfach ausgezeichnete HIV/AIDS-Experte Professor Oliver T. Keppler. Unter seiner Leitung ist das Institut umgehend mit Wirkung zum 1. Oktober 2012 vom Präsidenten des Robert-Koch-Instituts zum „Nationalen Referenzzentrum für Retroviren“ berufen worden. Mit Retroviren sind zu 95 Prozent HI-Viren (Humanes Immundefizienz-Virus) gemeint – die restlichen fünf Prozent umfassen die HTL-Viren (Humanes T-lymphotropes-Virus), mit denen weltweit etwa 20 Millionen Menschen infiziert sind, das jedoch kaum in Deutschland vorkommt. Das Institut ist damit das deutsche Referenzlabor für die Routine- und Spezialdiagnostik von Retroviren, Schwerpunkt HIV-Infektionen, sowie für Stellungnahmen zu Fragen der Krankheitsentstehung und Behandlung.
Sprach- und Sprechstörungen kommen bei zahlreichen Kindern vor und werden in der ICD-11 analog zur ICD-10 als Entwicklungsstörungen im Kapitel 6 (Psychische, Verhaltens- und Entwicklungsstörungen) klassifiziert. International sind bislang die ICD-10-Kriterien nicht von allen Professionen, die sich mit Sprach- und Sprechstörungen klinisch oder im Rahmen der Forschung beschäftigen, akzeptiert. Sie werden einerseits als zu wenig differenziert hinsichtlich der unterschiedlichen Sprachkomponenten vonseiten der Linguistik, Sprachtherapie oder Logopädie erlebt. Zum anderen wird die unklare Abgrenzung organisch bedingter Sprach- und Sprechprobleme von der Sprachentwicklungsstörung vonseiten der Medizin teilweise kritisch bewertet. In dem vorliegenden Artikel wird deshalb einerseits die Klassifikation von Sprach- und Sprechproblemen und -störungen in der ICD-11 im Vergleich zur ICD-10 vorgenommen. Wesentlich erscheint hier die in der ICD-11 neu eingeführte Differenzierung in „primäre“ und „sekundäre“ Neuroentwicklungsstörungen. Zum anderen erfolgt aber auch eine Auseinandersetzung mit dem DSM-5 sowie anderen Klassifikationsvorschlägen vonseiten der englischsprachigen Sprachtherapie (CATALISE-2) und der deutschsprachigen Pädaudiologie („phonologische Wahrnehmungsstörung“) sowie der Vorschlag einer Ergänzung der aktuellen ICD-11-Klassifikation hinsichtlich konkreter sprachlicher Einschränkungen bei einem Kind mit Sprachentwicklungsstörung, basierend auf einer ausführlichen Diagnostik. Wir hoffen, mit dem Artikel so den Weg für eine berufsübergreifende Klassifikation von Sprach- und Sprechstörungen nach ICD-11 zu bahnen, damit perspektivisch alle Berufsgruppen, die Diagnostik und Therapie der betroffenen Personen anbieten, eine vergleichbare Terminologie verwenden. Diese vergleichbare Terminologie soll sowohl die klinische Versorgung verbessern als auch die unterschiedlichen Forschungsansätze und -richtungen vergleichbarer machen.
Hintergrund: Aufgrund des Nachwuchsmangels muss die Chirurgie vermehrt für die Weiterbildung zum Chirurgen begeistern. Studierende bemängeln, dass ihr Unterricht nachrangig zur Patientenversorgung und durch die Faktoren Zeit und ärztliches Personal limitiert ist. Obwohl es viele Arbeiten mit Fokus auf die Studierenden gibt, fehlen Arbeiten mit dem Fokus auf die Sicht der Lehrenden. Ziel der Arbeit: Die Lehre im Fach Chirurgie im Stationsalltag und Ursachen von Problemen hierbei sollen aus Sicht der Lehrenden analysiert werden. Material und Methoden: Im Rahmen der prospektiven Studie wurde ein Leitfaden für semistrukturierte Interviews mit ausformulierten, offenen Fragen erstellt, die mit weiteren Spezifizierungsfragen versehen wurden. Alle Interviews wurden anhand des Leitfadens geführt und aufgezeichnet. Die Anzahl der Interviews ergab sich aus dem Prinzip der inhaltlichen Sättigung. Ergebnisse: Alle der 22 befragten Ärzte messen der Lehre im klinischen Alltag einen hohen Stellenwert bei. Dennoch beschreiben sie, dass die Lernziele im klinischen Alltag nicht immer erreicht werden. Als Hauptgrund hierfür wird die mangelnde Zeit genannt. Mit zunehmender klinischer Erfahrung kommen jedoch weitere Faktoren hinzu: Ober- und Chefärzte beklagen die zu geringen Vorkenntnisse und die zu geringe Motivation einiger Studierender. Die meisten Befragten beschreiben, keine Anerkennung für ihre Lehre zu erhalten. Insgesamt wird die studentische Lehre als zusätzliche Belastung wahrgenommen, die aber alle Befragten für lohnenswert halten. Diskussion: Neben Personalmangel ist die fehlende Anerkennung das wichtigste Hemmnis für eine effektive Lehre. Es ist daher wichtig, die Wertigkeit der Lehre durch die Belohnung guter Lehrleistungen und Schaffung einer dahingehenden Transparenz zu erhöhen.
Ziel: Das Ziel der vorliegenden Studie ist die vergleichende Bewertung von fusionierten T2-gewichteten und Kontrastmittel-(KM)-gestützten T1-gewichteten Magnetization-prepared Rapid Gradient-(MPRAGE)-Sequenzen im Hinblick auf die Diagnose und Lokalisation von vestibulären Schwannomen (VS) und / oder intralabyrinthären Schwannomen (ILS). Dabei werden die Parameter benötigte Zeitdauer bis zur Diagnose, Diagnosegenauigkeit, die Qualität des Bildmaterials und die Zahl der Artefakte evaluiert.
Material und Methoden: Insgesamt werden die Magnetresonanztomografie-(MRT) -Daten von 53 Patienten, davon 10 mit einer VS-, 20 mit einer VS / - ILS Kombination und 4 mit einer reinen ILS- Erkrankung, evaluiert. Es wurden zwei Kontrollgruppen, bestehend aus 16 Patienten ohne Auffälligkeiten und 3 Patienten mit detektierten Pathologien, in die Datenerhebung integriert. Zwei Radiologen mit 10 und 12jähriger Berufserfahrung evaluierten die konventionellen und fusionierten Sequenzen (Konsensusbefunder 1 und 2). Weiterhin untersuchten zwei Gruppen von Radiologen mit 1-2 und 3 – 4 Jahre Weiterbildung die konventionellen MRT-Sequenzen oder die Fusionsbildung. Die Zeit der Diagnosefestlegung wurde gemessen. Die Bildqualität und die Zahl der Artefakte wurden anhand einer 5-Punkte-Bewertungsskala festgelegt.
Die Ergebnisse der beiden Gruppen wurden mittels geeigneter statistischer Verfahren analysiert und verglichen.
Ergebnisse: Die Befunder, denen die fusionierten Bilder zur Verfügung standen, konnten die Diagnose in allen Fällen schneller stellen. Die Diagnoseerstellung erfolgte durch die Befunder fast doppelt so schnell (33,4 s versus 63,5 s). Die Interrater-Reliabilität bezüglich der Erkennung von VS/ILS-Läsionen war – unabhängig vom Bildmaterial – exzellent (Cohens-Kappa (κ) 0,914–1,000). Mit den fusionierten Sequenzen ist eine präzise (Sensitivität: 100 %; Spezifität, 88,9–100 %) Diagnose möglich.
Die Erstellung einer Fusionssequenz an der Konsole beansprucht 33,8 ± 2,6 s.
Die Bildqualität der Fusion wurde von den Ratern als hervorragend eingestuft.
Nach drei Monaten erzielten zwei Befunder, die zunächst die Fälle mit Hilfe konventioneller MRT-Sequenzen beurteilt hatten, in einer erneuten Bewertung anhand der Fusionsbildgebung kürzere Befundungszeiten (32,0 s vs. 67,5 s) sowie eine bessere ILS-Erkennung (κ = 0,564 vs. κ = 0,845) und ILS-Klassifikation (κ = 0,573 vs. κ = 0,801).
Fazit: Die Fusionsbildgebung aus T2- und T1-gewichteten MR-Sequenzen MPRAGE erlaubt eine bessere, schnellere und präzisere Diagnose von VS und ILS.
Klinische Relevanz: Die Darstellung der flüssigkeitsgefüllten Architektur des KHBW und des inneren Gehörgangs mithilfe der Fusionsbildgebung (3D-T2- und KM-unterstützte T1-gewichtete Sequenzen) bietet dem Radiologen die Möglichkeit seine Diagnosefähigkeit zu verbessern und seinen Klinikalltag zu erleichtern. Vor allem kleine Läsionen, die in der radiologischen Routinediagnostik schwer zu erkennen sind, lassen sich mithilfe der Fusion besser diagnostizieren und abgrenzen.
Hintergrund: Die leichte kognitive Störung (engl. Mild cognitive impariment, MCI) ist ein wichtiges nicht-motorisches Symptom der Parkinson-Krankheit (PD) und ein Hochrisiko-Zustand für die Entwicklung einer Parkinson-Demenz (PDD).
Die Etablierung von Biomarkern für ein MCI bei PD-Patienten (PD-MCI) könnte sowohl die Diagnosestellung als auch das Therapiemonitoring verbessern.
Ziel: Es ist bekannt, dass PDD-Patienten im Vergleich zu PD-Patienten ohne kognitive Beeinträchtigung (engl. PD normal cognition, PD-NC) in der strukturellen Magnetresonanztomographie (MRT) eine ausgeprägte kortikale und subkortikale Hirnatrophie aufweisen. Die Datenlage für Patienten mit PD-MCI ist deutlich heterogener, zudem wurden bisher vor allem de novo-Patienten untersucht. Mittels longitudinaler struktureller MRT soll in dieser multizentrischen Studie herausgefunden werden, ob der beginnende kognitive Abbau von Parkinson-Patienten im mittleren Krankheitsstadium ebenfalls mit Volumenänderungen kritischer Hirnstrukturen assoziiert ist. Die Hypothese ist, dass Patienten mit PD-MCI sich durch eine reduzierte mittlere kortikale Dicke sowie durch die Atrophie des Hippocampus und ggf. weiterer subkortikaler Strukturen von PD-NC-Patienten und von gesunden Kontrollen (engl. healthy controls, HC) unterscheiden.
Methode: 59 Patienten mit PD-NC, 49 Patienten mit PD-MCI sowie 59 HC erhielten zu Beginn der Studie und nach 12 Monaten eine ausführliche neuropsychologische Testung und eine strukturelle MRT-Untersuchung. Die MRT-Daten wurden mit der Freesurfer-Software automatisiert segmentiert, die mittlere kortikale Dicke sowie subkortikale Volumina und deren Atrophieraten berechnet und Gruppenvergleiche angestellt.
Ergebnisse: Verglichen mit HC zeigte sich bei Patienten mit PD-MCI eine signifikant geringere mittlere kortikale Dicke sowie ein reduziertes Volumen des linken Thalamus, des Hippocampus und des Nucleus caudatus. Zwischen Patienten mit PD-MCI und PD-NC fanden sich dagegen keine signifikanten Volumenunterschiede. Für kognitiv beeinträchtigte PD-Patienten zeigte sich über 12 Monate eine signifikant höhere Atrophierate des rechten Thalamus, sowohl verglichen mit kognitiv unauffälligen PD-Patienten als auch verglichen mit HC.
Für alle anderen untersuchten Strukturen unterschieden sich die Atrophieraten zwischen allen drei Gruppen nicht signifikant.
Schlussfolgerung: PD-MCI ist im mittleren Stadium der Parkinson-Krankheit mit einer reduzierten kortikalen Dicke sowie einer die Altersnorm überschreitenden Atrophie des Thalamus, des Hippocampus und des Striatums assoziiert.
Aufgrund der geringen Volumenunterschiede zwischen den einzelnen Gruppen und der hohen interindividuellen Variabilität ist die Sensitivität der Methode allerdings nicht ausreichend, um MR-basiert zwischen Parkinson-Patienten mit MCI und solchen mit normaler Kognition zu unterscheiden.
Einleitung: Die Aufgabe der zahnmedizinischen Fakultäten ist unter anderem sicherzustellen, dass die Studierenden die Kenntnisse und Fähigkeiten besitzen, einfache endodontische Eingriffe durchzuführen. Für die Evaluation der zahnmedizinischen präklinischen Ausbildung in der Endodontologie liegt jedoch weder ein aktuelles Bewertungsinstrument vor noch existiert für diese eine zeitgenössische Standortbestimmung an deutschsprachigen zahnmedizinischen Fakultäten. Aus diesem Grund liegt die Zielsetzung der vorliegenden Studie in der Erstellung und Validierung eines standardisierten Fragebogens, der sich mit dieser Forschungslücke wissenschaftlich auseinandersetzt. Zahnmedizinische Fakultäten in Österreich, Deutschland und der Schweiz nahmen an der onlinebasierten Umfrage teil.
Methodik: Der Umfragebogen GEndoQ wurde auf der Grundlage früherer Fragebögen in fünf Phasen mit Hilfe der Delphi-Methode und think-aloud-Methode erstellt. Der in neun Kategorien unterteilte Fragebogen wurde vor Ausbreitung der COVID-19-Pandemie mit der SurveyMonkey Software an 37 zahnmedizinische Fakultäten gesendet. Er umfasst 50 Fragen zur Bewertung der präklinischen endodontischen Ausbildung. Unter anderem wurden das Lehrenden-Studierenden-Verhältnis, die Lehrinhalte und die zugrundeliegenden Materialien evaluiert. Die Bearbeitungszeit wurde auf insgesamt acht Wochen terminiert. Die zahnmedizinischen Fakultäten erhielten Erinnerungsmails und wurden zudem telefonisch kontaktiert, um die Vollständigkeit zu gewährleisten.
Ergebnisse: Die Rücklaufquote der Fragebögen beläuft sich auf 89%. Die Auswertung dieser ergibt, dass eine klare Diskrepanz an den beteiligten deutschsprachigen Universitäten in der präklinischen endodontischen Ausbildung vorliegt: Der theoretische Unterricht reicht von 1 bis 70 Stunden (15 Stunden im Mittel), der praktische Unterricht von 3 bis 78 Stunden (39 Stunden im Mittel). Das Verhältnis der Lehrenden zu Studierenden variiert zwischen 1:4 und 1:38 (1:15 im Mittel). 45% der Universitäten beschäftigen SpezialistInnen der Endodontologie für den Theorieunterricht. Dentalmikroskope stehen in 82% der Universitäten für präklinische Lehrzwecke zur Verfügung. Die Mehrheit (82%) der Universitäten unterrichtet die Wurzelkanalaufbereitung mit rotierenden oder reziproken NiTi-Instrumenten.
Schlussfolgerung: GEndoQ ist ein valides Bewertungsinstrument zur Beurteilung der präklinischen zahnmedizinischen Ausbildung in der Endodontologie. Darüber hinaus können zukünftige Forschungsarbeiten zur weiteren Verfeinerung und Validierung des Bewertungsinstruments beitragen. Von wissenschaftlichem Interesse wäre hierbei die Fragestellung, ob die COVID-19-Pandemie messbare Auswirkungen auf die präklinische Ausbildung in der Endodontologie hatte. Die präklinische endodontische Ausbildung hat sich in der Gegenüberstellung mit Sonntag et al. (2008) weiterentwickelt: Verbesserungen zeigen sich unter anderem im Lehrenden-Studierenden-Verhältnis und in der theoretischen Unterrichtszeit. Zudem können Fortschritte in der höheren Qualifikation der Lehrenden sowie in der Verwendung moderner Materialien und Instrumente, wie Vergrößerungshilfen oder NiTi-Instrumente, festgestellt werden. Allerdings gibt es zwischen den Fakultäten nach wie vor große Unterschiede hinsichtlich des Zeitaufwands für den theoretischen und praktischen Unterricht. Darüber hinaus ist eine Konvergenz bei der Verwendung von Wurzelkanalbehandlungstechniken und - materialien festzustellen.
Schlüsselwörter: Zahnmedizinische Fakultäten, endodontischer Lehrplan, endodontische Ausbildung, Endodontie, Online-Umfrage
Die Schilddrüsenfunktion spielt eine wichtige Rolle nicht nur in der Entwicklung des Fetus, sondern bereits präkonzeptionell. Eine Kontrolle des TSH-Werts vor Schwangerschaftsbeginn ist insbesondere bei unerfülltem Kinderwunsch sowie bekannter Schilddrüsenhormonsubstitution sinnvoll, um einen möglicherweise bestehenden Substitutionsbedarf zu erkennen und entsprechend auszugleichen. Bei erfolgreicher Konzeption lässt sich ein typischer, trimenonspezifischer Verlauf der Schilddrüsenaktivität beobachten, welcher beeinflusst ist durch schwangerschaftsbedingte Hormonveränderungen. Physiologisch sind ein TSH-Abfall im 1. Trimenon, der selten in eine transiente Gestationshyperthyreose übergehen kann, sowie ein geringgradiger Abfall der fT4-Konzentration im 3. Trimenon. Abzugrenzen von physiologischen Veränderungen der Schilddrüsenhormonkonstellation in der Schwangerschaft sind die eine Behandlung erforderlich machende Hypo- und Hyperthyreose. Sowohl eine Schilddrüsenüber- als auch eine Schilddrüsenunterfunktion hat potenziell schädigende Auswirkungen auf das Ungeborene. Eine therapiebedürftige Hypothyreose in der Schwangerschaft ist mit abhängig vom vorliegenden Antikörperstatus und sollte in Abhängigkeit vom TSH-Wert über die Schwangerschaft hinweg kontrolliert und angepasst werden. Eine weitere besondere Herausforderung besteht bei Notwendigkeit einer thyreostatischen Therapie, beispielsweise im Rahmen eines Morbus Basedow. Hier gilt es, aufgrund der Nebenwirkungsprofile zur Verfügung stehender Thyreostatika trimenonspezifische Medikamentenwechsel zu vollziehen. Der folgende Artikel soll anhand aktueller Daten einen Überblick über aktuelle schilddrüsenbezogene Therapie- und Diagnostikempfehlungen in der Schwangerschaft geben.
Durch die weltweite Verbreitung von bakteriellen Resistenzgenen wie der Carbapenemase New-Delhi-Metallo-β-Laktamase (NDM), die nahezu alle Beta-Laktamantibiotika spalten kann, und die langwierige Entwicklung neuer Antibiotika, hat die Erforschung von Resistenzdeterminanten eine hohe Priorität. In der vorliegenden Arbeit wurde die neu entdeckte Variante NDM 16b unter epidemiologischen Gesichtspunkten, mit einem in vivo Infektionsmodell sowie die Interaktion von NDM-Varianten mit dem menschlichen Komplementsystem untersucht.
Im ersten Teil der Arbeit erfolgte eine epidemiologische Datenerhebung für 60 blaNDM tragende Patientenisolate des Zeitraums 2007 - 2017 auf Basis klinikinterner Datenbanken zu multiresistenten Erregern und zudem eine quantitative Empfindlichkeitstestung für 13 (Reserve-)Antibiotika. Es fiel eine kontinuierliche Zunahme an NDM-Isolaten und insbesondere von NDM-Varianten mit der Punktmutation M154L auf, da diese Mutation eine erhöhte Hydrolaseaktivität vermittelt. Deutlich erkennbar war eine Korrelation der M154L-Varianten und E. coli. Im Resistenzprofil der blaNDM-positiven Isolate zeigten sich hohe Resistenzraten (> 94%) gegen alle Beta-Laktam-Antibiotika und Fluorchinolone. Fosfomycin und Colistin waren in über 75% der Fälle noch wirksam.
Im zweiten Teil wurden Infektionsversuche mit dem Modellorganismus Galleria mellonella (Larve der großen Wachsmotte) durchgeführt. Dabei zeigte sich, dass die NDM-Produktion der injizierten Erreger keinen Einfluss auf die Pathogenität hatte. Zudem konnte in Therapieversuchen mit Imipenem im lebenden Organismus gezeigt werden, dass über die bakterielle NDM-Produktion die Resistenz gegen Imipenem vermittelt wird.
Im dritten Teil der Arbeit wurden die NDM-Varianten NDM 1Δ28, NDM 4Δ28 und NDM 16bΔ28 hinsichtlich ihres inhibitorischen Potentials auf Komplement untersucht. Mit den erzielten Ergebnissen der funktionellen Tests konnte für den klassischen und den Lektinweg eine signifikante Hemmung durch alle drei NDM Varianten nachgewiesen werden. Ein direkter Vergleich der einzelnen NDM-Varianten ergab, dass NDM 1Δ28 die stärkste und NDM 16bΔ28 die schwächste Inhibition auf den klassischen Komplementweg ausübte. Bindungsanalysen mit einzelnen Komplementkomponenten (C3, C3b, C3c, C4 und C4b) ließen auf eine Interaktion von NDM 1Δ28 mit C4b schließen.
Zusammenfassend leistet diese Arbeit einen Beitrag zur Fortführung epidemiologischer Untersuchungen von NDM Varianten und erbringt den in vivo Nachweis für Resistenzvermittlung durch NDM. Weiterhin wurde gezeigt, dass NDM neben der Carbapenemasefunktion auch eine immunmodulierende Wirkung erfüllt, indem der klassische und Lektinweg des Komplementsystems gehemmt wird. Damit liegt die Vermutung nahe, dass die globale Ausbreitung von NDM-produzierenden Erregern nicht nur durch die Vermittlung der Antibiotikaresistenz, sondern auch durch eine Immunevasion bedingt ist. Zukünftig könnte somit die Erforschung des Mechanismus der Immunevasion ebenso interessant sein wie die Suche nach wirksamen Inhibitoren der NDM.
Beim ischämischen Schlaganfall finden weitreichende systemische immunmodulatorische Anpassungsvorgänge statt. Da Sphingosin-1-Phosphat (S1P)-Signalwege für die Immunzellrekrutierung von hoher Relevanz sind, war angesichts der bekannten immunologischen Veränderungen nach zerebraler Ischämie das Ziel dieser Dissertation die genauen Veränderungen dieses Signalweges zu charakterisieren.
Für diese Charakterisierung wurde ein transientes Fadenokklusionsmodell der A. cerebri media an der Maus verwendet. Die Sphingolipidkonzentrationen wurden drei oder 24 Stunden nach Okklusion in der Milz, im Plasma sowie im Hirngewebe gemessen. Parallel hierzu wurde die Immunzellrekrutierung in die von der Ischämie betroffenen Hemisphäre analysiert.
Zunächst konnte diese Dissertation zeigen, dass in der Akutphase des Schlaganfalls ein S1P-Konzentrationsgradient vorherrscht. Die Milz zeigt hier die niedrigsten Konzentrationen, gefolgt von Plasma und Gehirn. Darüber hinaus besteht auch in der betroffenen Hemisphäre ein S1P-Gradient mit hohen Konzentrationen im Infarktkern, jedoch verminderten Konzentrationen im Periinfarktkortex (PIC).
Zweitens führt eine fokale zerebrale Ischämie zu einer Infiltration von T- und B-Lymphozyten in die ischämische Hemisphäre. Im Gegensatz hierzu kommt es zu einer Schlaganfall-induzierten Lymphopenie im Blut. Hierzu passend konnte ich eine signifikante Abnahme des Gewichts und der B- und T-Lymphozyten der Milz 24 Stunden nach Ischämie nachweisen. Weitere von Immunzellen produzierte Zytokine (IL-6) sowie deren Transkriptionsfaktoren (SPI1, STAT3, FoxP3) zeigten in der Akutphase nach Ischämie ebenfalls eine deutliche Reduktion und wiesen auf die Rekrutierung peripherer Immunzellen (pIZ) aus dem sekundären lymphatischen Organ hin. Folgerichtig waren Leukozyten im Plasma sowohl drei als auch 24 Stunden nach Ischämie signifikant vermehrt, welche insbesondere neutrophilen Granulozyten entsprachen.
Basierend auf der nachgewiesenen Reduktion von T-Helferzellen sowie regulatorischer T-Zellen sowohl in der Milz als auch in der Zirkulation, wurde drittens die Hypothese einer zerebralen Rekrutierung dieser T-Zellpopulationen gemäß dem vorliegenden S1P-Gradienten untersucht. Dabei gelang die Darstellung einer signifikanten Infiltration von CD45+-Zellen in beide Hemisphären, welche insbesondere von T-Helferzellen geprägt war.
Viertens nimmt die S1P-Rezeptor (S1PR)-Expression auf Leukozyten eine bedeutende Stellung in der pIZ-Rekrutierung ein. In diesem Sinne konnte ich zeigen, dass nach zerebraler Ischämie S1P1 signifikant in der Milz vermindert exprimiert wurde. Dieses Ergebnis deutete auf einen Austritt S1P1+ Immunzellen aus der Milz dem etablierten S1P-Gradienten folgend hin. In der ischämischen Hemisphäre hingegen ließ sich ebenfalls eine Herunterregulation der exprimierten mRNA für S1P1 nachweisen, wohingegen S1P2 und S1P3 vermehrt transkribiert wurden. Dieses Ergebnis könnte Folge der mikroglialen Aktivierung sein, die bekanntermaßen mit einer Hochregulation von S1P2 und S1P3 einhergeht.
Abschließend habe ich die Rolle von weiteren Sphingolipiden, u.a. von Ceramiden, untersucht, die einen signifikanten Anstieg in der Milz 24 Stunden nach Ischämie zeigten. Im Gegensatz dazu konnte ich im Gehirn keine Unterschiede der untersuchten Ceramidspezies abgrenzen, sodass in dem hier verwendeten Modell eine Beteiligung an lokalen pathophysiologischen Vorgängen eher unwahrscheinlich erscheint.
Zusammenfassend beschreiben die in dieser Dissertation dargestellten Ergebnisse lokale und systemische Veränderungen des S1P-Signalwegs nach zerebraler Ischämie. Konkordante Veränderungen des Immunsystems deuten auf eine relevante Rolle veränderter S1P-Konzentrationen hin. Weitergehende, funktionelle Untersuchungen der hier beobachteten Ergebnisse müssen die potentielle therapeutische Relevanz für Patienten mit zerebraler Ischämie aufklären.
Einflüsse epigenetischer Mechanismen auf die Gefäßtonusregulation sind bisher kaum untersucht. Ziel der vorliegenden Arbeit war es, die Bedeutung bekannter epigenetischer Modifikatoren in der Gefäßtonuskontrolle aufzuzeigen und molekulare Mechanismen zu identifizieren. Hierzu wurden Vasoreaktivitätsstudien an Mausgefäßen im Organbad durchgeführt und molekularbiologische Methoden eingesetzt. Verwendet wurde ein Mausstamm mit induzierbarem Knockout der Histondemethylase JARID1B (KDM5B) sowie verschiedene Inhibitoren von Histonmethylasen und -demethylasen.
Mittlerweile sind eine Vielzahl an Inhibitoren epigenetischer Modifikatoren kommerziell erhältlich. Getestet wurde u.a. der Wirkstoff GSK343, welcher spezifisch die Funktion der H3K27me3-Methyltransferase Enhancer of zeste homolog 2 (EZH2) inhibiert. Bekannt ist eine Beteiligung von EZH2 in der Carcinogenese und Zellzykluskontrolle. Unter basalen Bedingungen sowie deutlich verstärkt nach mehrstündiger Inkubation mit murinem Lipopolysaccharid (mLPS) zeigte sich eine verzögerte Phenylephrin-induzierte Kontraktion von Präparaten der murinen Aorta thoracica. Da unter inflammatorischen Bedingungen die induzierbare NO-Synthase iNOS stark induziert wird, wurde die Hypothese formuliert, dass eine höhere Bioverfügbarkeit von NO ursächlich für diese Beobachtung ist. NO ist ein potenter Vasodilator und wird im Gefäßendothel produziert. Organbadversuche mit Inhibitoren der iNOS und eNOS konnten jedoch keine Differenzen in der NO-Bioverfügbarkeit zeigen, weder vor noch nach Stimulation mit mLPS. Über schrittweise Depolarisation durch K+-Ionen konnte eine Beeinträchtigung des kontraktilen Apparats der glatten Gefäßmuskelzellen ausgeschlossen werden. Auch die Thromboxan-induzierte Kontraktion, ausgelöst durch das Thromboxan-Analogon U46619, war nicht beeinflusst. Inhibition von EZH2 unter inflammatorischen Bedingungen, wie beispielsweise in der Sepsis, scheint einer Gefäßdysfunktion vorzubeugen. Dies geschieht unabhängig von der NO-Bioverfügbarkeit und ohne Beeinträchtigung der Kontraktilität der glatten Gefäßmuskelzellen sowie der Thromboxan-induzierten Gefäßkontraktion. Es ergibt sich die Hypothese, dass EZH2 nicht in die eigentliche Gefäßtonuskontrolle, sondern in der Transduktion inflammatorischer Signale involviert ist und damit in der Entstehung einer Gefäßdysfunktion. Diese Annahme sollte weiter untersucht werden, da sich durch Inhibition von EZH2 eine mögliche Therapieoption in der Sepsis bietet. Neuste Publikationen bestätigen eine Rolle von EZH2 in der inflammatorischen Signalkaskade.
Die H3K4me3-Histondemethylase JARID1B wird in Gefäßendothelzellen stark exprimiert, bekannt sind eine Rolle in der Embryogenese, Cancerogenese sowie Angiogenese. Die Arteria mesenterica superior der Tamoxifen-induzierbaren globalen Jarid1b-Knockout Maus zeigte eine verstärkte Acetylcholin-induzierte Vasorelaxation. Diese Beobachtung konnte durch Behandlung von Wildtyp- Arterienpräparaten mit dem JARID1B-Inhibitor 2‐4(4‐methylphenyl)‐1,2‐Benziso-thiazol‐3(2H)‐on (PBIT) reproduziert werden. Ein spezifischer Knockout von Jarid1b in Makrophagen zeigte keinen vergleichbaren Phänotyp. Untersucht wurde auch hier die Hypothese, dass Veränderungen der NO-Bioverfügbarkeit Ursache des beobachteten Phänotyps sind. Unterschiede in der NO-Bioverfügbarkeit, der Expression oder des Aktivierungsgrades der eNOS konnten in Versuchen mit Inhibitoren der Synthasen sowie mittels Proteinisolation nicht festgestellt werden. Neben NO wirken Metabolite der Arachidonsäure als Vasorelaxantien. Die Inkubation mit Arachidonsäure im Organbad ergab zunächst keine Unterschiede im Relaxationsverhalten zwischen Knockout- und Wildtypgefäßen. Zur weiteren Untersuchung der Hypothese veränderter Prostanoid-Signalwege sind weitere Studien notwendig. Nach Abschluss der Arbeit konnte gezeigt werden, dass der JARID1B-Knockout die lösliche Epoxid-Hydroxylase (sEH) destabilisiert und damit über verminderten Abbau von Epoxyeicosatriensäuren (EETs) relaxierend und unter Angiotensin II-Einfluss gefäßprotektiv wirkt.
Modifikationen der epigenetischen Regulation in Gefäßzellen wirken sich auf die Gefäßtonusregulation aus. Die Experimente in dieser Arbeit zeigen, dass dies abseits der häufigsten vasoaktiven Autacoid-Signalwege und unter bestimmten Voraussetzungen stattfinden kann. Epigenetische Regulation ermöglicht es, die Gefäßtonuskontrolle den Umgebungsbedingungen anzupassen und spielt in der Pathophysiologie von Gefäßerkrankungen eine entscheidende Rolle.
Therapieoutcome und Epidemiologie des Poplitealarterien-aneurysmas : Auswertung des POPART-Registers
(2021)
Das Poplitealarterienaneurysma (PAA) ist eine seltene Erkrankung, zu der es insbesondere hinsichtlich der neuen endovasculären Therapieverfahren sowie der aktuellen Versorgungsrealität in Deutschland wenig Evidenz gibt. Zur Verbesserung der Evidenzlage wurde 2014 die multizentrische POPART-Registerstudie initiiert. Ziel des Registers sowie dieser Arbeit ist es, die aktuelle Versorgungsleistung des PAA in Deutschland abzubilden und vergleichende Langzeitergebnisse von endovasculären (ER) und offen-operativen PAA-Versorgungen (OR) zu schaffen.
Mittlerweile umfasst das POPART-Register mehr als 42 Zentren aus Deutschland und Luxemburg. Die partizipierenden Zentren verpflichten sich nach Zustimmung zum Studienprotokoll, alle vorstelligen PAA-Patienten zu inkludieren und regelmäßige Nachuntersuchungen durchzuführen. Die Dateneingabe erfolgt über die Online-Datenbank SurveyMonkey®. Ein Monitoring sowie eine kontinuierliche Plausibilitätsprüfung finden zur Sicherung der Datenqualität statt.
Bis 03/2021 wurden n = 1120 Primärbehandlungen ausgewertet, wovon n = 938 (83,7%) eine Versorgung mit OR und n = 132 (11,8%) mit ER erhielten. Fünf ER-Patienten (3,8%) mussten aufgrund akuten Graftversagens intra- oder postoperativ zu OR konvertiert werden.
ER-Patienten waren mit einem medianen Alter von x ̃ = 72 Jahren [51-90] signifikant älter als OR-Patienten mit x ̃ = 68 Jahren [25-98] (p = .001). Bezüglich der Aneurysmamorphologie und der dokumentierten Komorbiditäten zeigten sich keine signifikanten Gruppendifferenzen (p > .05).
Initial symptomatische Patienten wurden signifikant häufiger für OR in Betracht gezogen: Wohingegen nur 48,3% (n = 453) der OR-Patienten vor dem Eingriff asymptomatisch waren, waren mehr als 67% (n = 88) der ER-Patienten hinsichtlich des PAAs symptomfrei (p <.001). Patienten mit akuter Notfallsymptomatik (akute/kritische Ischämie/Ruptur) wurden vornehmlich über OR versorgt (OR: 22,3% vs. ER: 12,1%; p = .007) und entwickelten im postoperativen Verlauf häufiger Komplikationen als elektiv Versorgte beider Gruppen (p < .001). Als häufigste Komplikationen traten in beiden Gruppen Wundheilungsstörungen (OR: 7,7% vs. ER: 3,0%; p = .052) und Blutungen auf (OR: 3,9% vs. ER: 2,3%; p = .465). Schwere postoperative Verläufe waren zudem bei den fünf zu OR konvertierten Patienten aufgetreten.
OR-Patienten waren mit einer Aufenthaltslänge von x ̃ = 10 Tagen [3-68] um mehr als drei Tage länger stationär aufgenommen als ER-Patienten mit x ̃ = 7 Tagen [1-82] (p < .001). Weiterhin waren ER-Patienten signifikant seltener postoperativ auf einer Überwachungsstation untergebracht (p < .001).
Für n = 525 OR-Patienten (56%) und n = 61 ER-Patienten (46,2%) lag im März 2021 ein Follow-up (FU) zur Auswertung vor. Die mittlere FU-Länge betrug x ̅ = 28,9 Monate [0-134] für OR und x ̅ = 23,6 Monate [0-89] für ER. Die primären und sekundären 24-Monats-Offenheitsraten waren für OR-Patienten mit 75,7% bzw. 84,5% signifikant höher gewesen als für ER-Patienten mit 35,9% und 46,8% (p < .001).
OR-Patienten mit autologem Venenbypass wiesen signifikant höhere 2-Jahresoffenheitsraten als jene mit alloplastischer Prothese auf (primäre Offenheitsrate: 81,5% vs. 59,0%; p < .001; sekundäre Offenheitsrate: 89,5% vs. 70,4%; p < .001). Der Venenbypass war auch gerade in der notfälligen Akutversorgung gegenüber der alloplastischen Prothese überlegen (primäre Offenheitsrate: 71,0% vs. 36,2%; p < .001; sekundäre Offenheitsrate: 77,7% vs. 50,0%; p = .002). Asymptomatische Patienten beider Gruppen zeigten bessere Offenheitsraten nach 24 Monaten als symptomatische (primäre Offenheitsrate: 80,2% vs. 63,5%, p < .001; sekundäre Offenheitsrate: 83,2% vs. 77,1%; p = .015). Patienten mit Abstrom aus mindestens zwei Unterschenkelgefäßen wiesen primäre und sekundäre Offenheitsraten von 75,1% und 82,2% auf und damit signifikant bessere als Patienten mit kompromittiertem Abstrom (1-Gefäßabstrom: 61,0% und 74,8%; kein offenes Unterschenkelgefäß: 48,2% und 65,1%; p <.001)
Das POPART-Register zählt mittlerweile zu einer der größten Datensammlungen zur PAA-Versorgung weltweit und stellt die erste Registererhebung zu dieser Entität in Deutschland dar. Die perioperativen Daten suggerieren keinen Nachteil für ER, wenn primär kein komplikativer Verlauf besteht. Die primären und sekundären Offenheitsraten für ER sind jedoch, bei noch unvollständigem FU, signifikant unterlegen.
OR bleibt bei niedrigen Komplikationsraten und exzellenten Zweijahresoffenheitsraten weiterhin klinischer Standard, insbesondere auch bei symptomatischen wie notfälligen Patienten.
Bei Kindern mit akuter lymphoblastischer Leukämie ist eine möglichst frühe und genaue Diagnostik der Infiltration des Zentralen Nervensystems für die Festlegung der weiteren Therapie von essenzieller Bedeutung. Ziel dieser Studie war es, die diagnostische Wertigkeit der Schädel-MRT im Vergleich zum Standarddiagnostikum Lumbalpunktion bezüglich einer leukämischen Beteiligung des ZNS zu untersuchen. Außerdem sollte die Häufigkeit relevanter Zufallsbefunde festgestellt werden, um den Nutzen einer zusätzlich zur Lumbalpunktion durchgeführten MRT zu beurteilen. Es erfolgte eine retrospektive Analyse der Daten von 277 Patienten mit Erstdiagnose und 56 Patienten mit Rezidiv einer ALL, die zwischen 1998 und 2016 an der Klinik für Kinder- und Jugendmedizin des Universitätsklinikums Frankfurt am Main behandelt worden waren. Sie hatten im Rahmen der initialen Diagnostik zusätzlich zur Lumbalpunktion eine Schädel-MRT mit Kontrastmittel erhalten.
Der durchschnittliche zeitliche Abstand zwischen Diagnosestellung und MRT betrug 11 Tage (39,5 Tage bei Rezidivpatienten). Die Sensitivitäten und Spezifitäten der beiden diagnostischen Mittel MRT und Liquor wurden berechnet.
Dazu diente als Goldstandard die endgültige Diagnose des ZNS-Status, die entweder durch die Liquordiagnostik, die Bildgebung oder die Klinik (RetinaInfiltration, Fazialisparese) gestellt wurde.
Insgesamt fanden sich bei 14 der 277 Patienten mit Erstdiagnose Leukämie eine Infiltration des ZNS. Davon waren 2 Patienten in der MRT, 11 Patienten in der Lumbalpunktion und 2 Patienten durch eine Retina-Infiltration als positiv diagnostiziert worden. Nur ein Patient, der in der MRT positiv befundet worden war, hatte in der Liquordiagnostik ein negatives Ergebnis. Bei den 56 Patienten mit Rezidiv ergab die MRT 6 positive Befunde und die Liquordiagnostik zeigte 13 positive Befunde. 3 Patienten waren zudem klinisch mit Fazialisparese (n=2) und retinaler Infiltration (n=1) positiv zu werten. Diese 3 hatten jedoch auch in der Lumbalpunktion ein positives Ergebnis. Von den Patienten, die in der MRT positiv befundet wurden, hatte 1 Patient ein negatives Ergebnis in der Lumbalpunktion.
Dieser zeigte allerdings Symptome und hätte somit die Bildgebung ohnehin erhalten. Für die MRT ergibt sich bei den Patienten mit Erstdiagnose eine Sensitivität von 14,3%, bei den Rezidivpatienten eine Sensitivität von 43%. Die Spezifität liegt bei den Patienten mit Erstdiagnose ALL bei 99,6% und bei den Rezidivpatienten bei 100%. Für die Lumbalpunktion errechnet sich bei den Patienten mit Erstdiagnose eine Sensitivität von 78,6% und bei den Rezidivpatienten eine Sensitivität von 92,9%, mit einer Falsch-negativ-Rate von 21,4% und 7,1%. Die Spezifität der Lumbalpunktion liegt in beiden Gruppen bei 100%.
Bezüglich relevanter Zufallsbefunde ist bei den Patienten mit Erstdiagnose eine Sinusvenenthrombose bei einer klinisch unauffälligen Patientin zu nennen.
Weitere Nebenbefunde, die keine Auswirkungen auf die Therapie hatten, waren Schleimhautschwellungen der Nasennebenhöhlen (n=188), Verlegung der Mastoidzellen (n=45), Hirnvolumenminderung (n=27), Blutungen ohne Therapiebedürftigkeit (n=5), Zysten (n=11) und angeborene Fehlbildungen (n=7). Außerdem wurde bei 6 Rezidivpatienten eine chronische therapieassoziierte Leukenzephalopathie diagnostiziert.
Die vorliegende Studie stellt unseres Wissens nach die bisher umfangreichste Schädel-MRT-Studie bei Kindern mit ALL unter dieser Fragestellung dar. Ihre Nachteile ergeben sich durch die retrospektive Betrachtung und dadurch bedingte eingeschränkte Einheitlichkeit.
Aus unseren Ergebnissen lässt sich schlussfolgern, dass die Schädel-MRT keinen zusätzlichen Nutzen zur alleinigen Lumbalpunktion bringt. Nur ein einziger Patient hatte in der MRT ein positives Ergebnis, welches weder durch die Lumbalpunktion noch durch die Klinik erkannt worden war. Auch in Hinblick auf die geringe Rate an relevanten Nebenbefunden bei asymptomatischen Patienten ergibt sich keine grundsätzliche Notwendigkeit zur Durchführung dieser Bildgebung. Die zusätzliche Belastung einer kontrastmittelgestützten MRT, für die bei kleinen Kindern zudem häufig eine Sedierung erforderlich ist, kann klinisch neurologisch unauffälligen Patienten mit ALL also erspart werden.
Die vorliegende Übersicht zu den Knochenmarkern Knochen-Sialoprotein (BSP), carboxyterminales Typ-I-Kollagen-Telopeptid (CTX) und N‑aminoterminales Typ-I-Kollagen-Telopeptid (NTX) wird im Rahmen der Serie „Tumormarker“ des Zentralblatts für Arbeitsmedizin, Arbeitsschutz und Ergonomie publiziert, die sich mit dem immer häufigeren Gebrauch der Bestimmung von spezifischen Markern bei sog. Manager-Vorsorgen und Check-up-Untersuchungen beschäftigt. BSP, CTX und NTX eignen sich grundsätzlich nicht für solche Vorsorgen, sondern sind Marker zur Therapie‑, Verlaufs- und Rezidivkontrolle von Knochenmetastasen. Unabhängig davon ist über diese Marker vielfach publiziert worden, wobei sich zudem eine hohe Sensitivität und Spezifität zeigt. Die Marker eignen sich aber auf keinen Fall als Screening-Parameter zur Frühdiagnostik und sollten hier nicht eingesetzt werden.
Hintergrund: Die Atheroskleroseexpression unterscheidet sich nicht nur in unterschiedlichen Gefässbetten (koronar, zerebrovaskulär, peripher), sondern auch innerhalb des peripheren Gefässbettes. Der zugrundeliegende Mechanismus für unterschiedliche Atherosklerose-Phänotypen mit proximalem (iliakale Arterien) oder distalem (infragenikuläre Arterien) Atheroskleroseverteilungsmuster ist bis jetzt noch nicht abschliessend geklärt.
Zielsetzung: Das Ziel dieser monozentrischen retrospektiven Kohortenstudie ist es, den Zusammenhang zwischen kardiovaskulären Risikofaktoren und dem Atheroskleroseverteilungs-muster bei Patienten mit PAVK zu untersuchen. Dafür werden symptomatische Patienten mit extremen Atherosklerosephänotypen (proximale vs. distale Atherosklerose) genauer untersucht.
Methodik: Für diese Querschnittsstudie wurden Daten von 15’000 Patienten, welche sich im Zeitraum von 2000-2018 aufgrund einer symptomatischen PAVK einer primären endovaskulären Rekanalisation an den unteren Extremitäten unterziehen liessen, ausgewertet. Dabei wurden die Patienten herausgefiltert, welche angiographisch ein proximales (iliakal) oder distales (krural) Atheroskleroseexpressionsmuster aufwiesen. Von diesen Personen wurden in der Datenbank personen- und gesundheitsbezogene klinischen Angaben extrahiert. In einer multiplen logistischen Regressionsanalyse mit Rückwärtselimination der unabhängigen Variablen wurde der Einfluss verschiedener kardiovaskulärer Risikofaktoren mit proximaler oder distaler Atherosklerosexpression ermittelt.
Resultate: Von insgesamt 637 indentifizierten Patienten (29% Frauen) mit einer primären endovaskulären Rekanalisation hatten 351 (55%) ein proximales und 286 (45%) ein distales Atheroskleroseverteilungsmuster. Weibliches Geschlecht (OR 0.33, (95%CI 0.20-0.54), p=0.011), aktiver Nikotinkonsum (OR 0.16, (95%CI 0.09-0.28), p<0.001), vormaliger Nikotinkonsum (OR 0.33, (95%CI 0.20-0.57), p<0.001), Hypertriglyzeridämie (OR 0.76, (95%CI 0.60-0.96), p=0.021) waren assoziiert mit einem proximalen Befall. Diabetes mellitus (OR 3.25, (95%CI 1.93-5.46), p<0.001), chronische Niereninsuffizienz (OR 1.18, (95%CI 1.08-1.28), p<0.001) und höheres Alter (OR 1.31, (95%CI 1.06-1.61), p=0.011) waren hin-gegen mit einem distalen Befall assoziiert. Andere Faktoren wie Body Mass Index, arterielle Hypertonie, HDL-, LDL-Cholesterin zeigten keine Assoziation mit den untersuchten atherosklerotischen Prädilektionsstellen. Die Resultate der primären Analysen konnten mit den Subgruppenanalysen (Geschlecht, Nikotinkonsum, Diabetes) bestätigt werden.
Schlussfolgerung: Für distale (krurale) Atherosklerose wurden als Hauptrisikofaktoren Diabetes mellitus und chronische Niereninsuffizienz ermittelt. Obwohl kardiovaskuläre Risikofaktoren auf das gesamte Gefässbett wirken, lassen sich aus den Daten in Bezug auf das Atheroskleroseverteilungsmuster eine geschlechtspezifische und eine individuelle Suszeptibilität für kardiovaskuläre Risikofaktoren vermuten. Ausserdem deuten die Daten darauf hin, dass die PAVK mindestens zwei verschiedene atherosklerotische Phänotypen aufweist.
Einleitung: Das Arbeiten in einer Notfallsituation ist stark von einer strukturierten Herangehensweise im Patientenmanagement abhängig. Junge Assistenzärzte sind in ihrem Alltag häufig die ersten vor Ort und sollten daher bereits mit Abschluss des Studiums in der Lage sein, häufige Notfallsituationen zu meistern. In den letzten Jahren hat sich die Simulation als hauptsächlich genutzte Methode für die Ausbildung im Fach Notfallmedizin herauskristallisiert, sodass immer mehr Universitäten realitätsnahe Szenarien für die Ausbildung nutzen. Jedoch ist unklar welches Ausmaß an Realitätsnähe in Hinblick auf Kosten/Aufwand-Nutzen-Bilanz sinnvoll ist. Das Ziel der vorliegenden Arbeit ist es, den Effekt von zwei unterschiedlich realitätsnahen Lernumgebungen (Seminarraum vs. realistische Simulationsumgebung) auf die erlernten notfallmedizinischen Kompetenzen zu analysieren. Dazu wurden Krankheitsbilder gewählt, die jedem Arzt in Präklinik, auf Station und im ambulanten Bereich begegnen können und die zügig erkannt und behandelt werden müssen: Asthma, Sepsis und Apoplex.
Material und Methoden: Bei der vorliegenden Arbeit handelt es sich um eine vergleichende Effektivitätsanalyse im crossover-Design. Teilnehmende waren Studierende des 4. Studienjahres der Goethe-Universität Frankfurt am Main, die den 3-TagesNotfallmedizinkurs im Rahmen ihrer curricularen Ausbildung im Querschnittsbereich Notfallmedizin absolvierten. Am ersten Tag durchliefen alle Studierenden ein standardisiertes Skillstraining notfallmedizinischer Basiskompetenzen. An den Folgetagen wurden verschiedene leitsymptombasierte Module vermittelt, die neben der interaktiven Erarbeitung der theoretischen Lerninhalte eine direkte Anwendung in themenspezifischen Szenarien fokussierten. Für die vorliegende Studie wurden die Teilnehmenden in vier Gruppen randomisiert, wobei Gruppen eins und zwei das Training in der Seminarraumumgebung durchliefen, während drei und vier die Szenarien in der realitätsnahen Simulationsumgebung absolvierten. Am dritten Tag fand eine formative Überprüfung der erlernten Fähigkeiten in Form eines OSCEs statt. Bei dieser Überprüfung absolvierten die Gruppen eins und drei in der Seminarraumumgebung und Gruppen zwei und vier im realitätsnahen Umfeld der Simulation das Assessment. Die Datenauswertung erfolgte mit MS Excel und bias.
Ergebnisse und Fazit: Die vorliegende Studie fand zwischen Juli und Oktober 2018 an der Goethe-Universität in Frankfurt am Main statt. 134 Teilnehmer absolvierten die Studie vollständig. Die Ergebnisse zeigen deutliche Unterschiede in der Performance der vier Gruppen, sowohl insgesamt als auch nach Geschlechtern und mit dem van-Elteren-Test. Prozentual betrachtet zeigten die Teilnehmenden der Gruppe 4 (Training und Prüfung im realitätsnahen Umfeld) die höchsten Ergebnisse. Die Realitätsnähe hat einen positiven Einfluss auf die Performance der Studierenden.
Das Lebenswerk von Prof. Dr. Eduard Güntz mit Schwerpunkt auf seiner Frankfurter Zeit (1951-1969)
(2021)
Der Arzt Eduard Güntz (1903-1973) begann nach dem Studium der Medizin in Marburg, Würzburg und München seine medizinische Laufbahn 1929 am Pathologisch-anatomischen Institut in Dresden unter dem Pathologen Georg Schmorl. Ab 1932 arbeitet er unter Prof. Georg Hohmann an der Orthopädischen Universitätsklinik in Frankfurt, wo er sich 1937 über das Thema „Schmerzen und Leistungsstörungen bei Erkrankungen der Wirbelsäule“ habilitierte. Es folgte seine Berufung an die Universität Kiel, wo er ab 1938 als Leiter der orthopädischen Abteilung der Poliklinik der Universität tätig war. 1939 infizierte er sich im Rahmen seiner beruflichen Tätigkeit mit Poliomyelitis. Davon erholte er sich nie vollständig, nahm aber bereits Ende 1940 seinen Dienst am Patienten wieder auf.
Während der NS-Zeit war Güntz Mitglied der NSDAP und der SA, was 1946 zur Entlassung aus seinem Dienstverhältnis in Kiel und schließlich sogar zum Entzug der Berufserlaubnis führte. Der Entnazifizierungsausschuss stellte letztendlich nach Sichtung vieler Gutachten und Bescheinigungen früherer Mitarbeiter und Patienten die Unbedenklichkeitsbescheinigung aus, sodass Güntz im November 1946 als Facharzt und Professor in Kiel wiedereingestellt wurde.
1951 erfolgte seine Berufung auf den Lehrstuhl für Orthopädie in Frankfurt am Main, den er bis 1969 innehatte. In sein Ordinariat und Tätigkeit als ärztlicher Direktor der Orthopädischen Universitätsklinik Frankfurt am Main (Friedrichsheim) fällt der größte Teil des Wiederaufbaus der durch eine Brandbombe zerstörten Einrichtung nach dem 2. Weltkrieg, mit Gründung eines modernen Rehabilitationszentrums, Orthopädischer Werkstatt und staatlich anerkannter Lehranstalt für Krankengymnastik und Massage. Güntz´ Arbeitsschwerpunkt lag in der konservativen Orthopädie. Er
verfasste 88 wissenschaftliche Arbeiten.
Das Güntz-Zeichen, die von ihm beschriebene abnorme Geradhaltung des Wirbelsäulenabschnitts über einer Bandscheibenschädigung als radiologisches Frühsymptom, wurde nach ihm benannt.
Eduard Güntz verstarb 1973 an den Folgen seiner PoliomyelitisErkrankung.
Die Behandlung eines hepatozellulären Karzinoms (HCC) mittels transarterieller Chemoembolisation (TACE) hat einen hohen Stellenwert in einem multimodalen Therapiekonzept. Diese komplikationsarme, interventionelle Therapie wird stets kontrolliert durchgeführt. Im Rahmen dieser Studie sollte die postinterventionelle Sonografie mit der regelhaft durchgeführten CT-Abdomen verglichen werden. Hierbei wurde die kontrastmittelverstärkte Sonografie (contrast enhanced ultrasound, CEUS) in Verbindung mit einer quantitativen Auswertung der Signalintensitäten des Kontrastmittels über die Zeit (time intensity curve analysis, TICA) verwendet.
Das primäre Ziel der Studie war der Vergleich der Kontrastmittelsonografie und TICA mit dem Grad der Lipiodol-Einlagerung im CT-Abdomen. Hierbei wurde jeweils die größte mittels TACE behandelte Läsion untersucht. Es wurde hierzu die Hypothese aufgestellt, dass die Bewertung der Restperfusion des Tumors in der CEUS mit der Lipiodol-Einlagerung - als Surrogatparameter der Restperfusion - korreliert. Als sekundäres Ziel wurde die Untersuchung auf Nicht-Unterlegenheit der Sonografie gegenüber der CT-Abdomen in Bezug auf mögliche unerwünschte Wirkungen der TACE definiert. So sollte insgesamt geklärt werden, ob eine Ablösung des CTs postinterventionell nach TACE realisierbar ist.
In vorliegender Arbeit wurden insgesamt 175 Interventionen bei 89 Patienten mit HCC und TACE-Behandlung prospektiv eingeschlossen. Am Tag nach TACE wurde jeweils eine Sonografie mit CEUS und TICA sowie eine CT-Abdomen durchgeführt. Im Anschluss wurde das perfundierte Areal der Läsion in der CEUS und die Lipiodol-Einlagerung in der CT-Abdomen verglichen und jeweils in vier Kategorien (nach mRECIST) eingeteilt. Bei der Auswertung waren die Untersucher für das jeweils andere Ergebnis verblindet und zusätzlich wurde eine TICA durchgeführt. Des Weiteren wurde die Detektion von potenziellen Nebenwirkungen der TACE in der Sonografie mit der CT-Abdomen verglichen.
In Bezug auf das primäre Prüfziel konnte mittels Cohen’s Kappa zur Übereinstimmung der Bewertungen in CEUS und CT-Abdomen (Interraterreliabilität) keine statistisch signifikante Vergleichbarkeit gezeigt werden (κ=0,028, p=0,288). Mittels linear bzw. quadratisch gewichtetem Cohen’s Kappa zeigte sich ebenso keine Korrelation zwischen den Bewertungen in CEUS und CT-Abdomen (κ=0,016 bzw. κ=0,012). Bei der Auswertung der quantitativen, mittels TICA ermittelten, Signalintensitäten des Kontrastmittels konnte eine schwache Korrelation mit der Lipiodol-Einlagerung im CT-Abdomen gefunden werden (p=0,032, r=0,180). Ein signifikanter Unterschied zwischen den TICA-Messwerten im Zentrum und der Peripherie des Tumors konnte gezeigt werden (p=0,013). Die Beurteilung von unerwünschten Wirkungen einer TACE ist in vorliegender Arbeit nur bedingt möglich, da in diesem Patientenkollektiv klinisch nur sehr wenige Nebenwirkungen auftraten. Der Nachweis von Korrelaten möglicher Komplikationen, wie einer Dreischichtung der Gallenblasenwand, gelang zwar zuverlässig sowohl in der B-Bild Sonografie als auch in der CT-Abdomen, die Vergleichbarkeit ist jedoch wie oben genannt eingeschränkt.
Es konnte mit ausreichender statistischer Power gezeigt werden, dass die CEUS und die CT-Abdomen in Bezug auf das primäre Prüfziel abweichende Ergebnisse liefern. Weitere Studien mit verändertem Design zur Evaluation der Vorhersagekraft für das Outcome bzgl. des Gesamtüberlebens der Patienten nach TACE sind somit erforderlich, um eine belastbare Bewertung vornehmen zu können. Die bisher veröffentlichte Literatur legt eine gute Aussagekraft der Sonografie nahe. Für die TICA konnte in vorliegender Arbeit in Bezug auf die Lipiodol-Einlagerung im CT-Abdomen keine relevante Korrelation gezeigt werden. Die TICA muss zudem technisch weiterentwickelt werden, um die Implementierung in den klinischen Alltag zu erleichtern. Bisher erscheint der Einsatz aufgrund einer zeitintensiven Auswertung der generierten Daten im klinischen Alltag wenig praktikabel. Eine Ablösung des CTs bezüglich der Detektion von Komplikationen nach TACE erscheint jedoch möglich und vor dem Hintergrund der Strahlenbelastung des Patienten und der Kosten sinnvoll.
Es kann abschließend festgehalten werden, dass die CEUS mit TICA postinterventionell nach TACE eine sichere, kosteneffektive und aussichtsreiche Untersuchungsmodalität darstellt. Mit ggf. weiteren Studien scheint somit die Ablösung des CTs im klinischen Alltag mittelfristig realisierbar.