Institutes
Refine
Year of publication
Document Type
- Article (1861)
- Doctoral Thesis (447)
- Preprint (161)
- Conference Proceeding (112)
- Review (33)
- Book (17)
- Part of Periodical (12)
- Contribution to a Periodical (9)
- Part of a Book (7)
- Report (3)
Has Fulltext
- yes (2664)
Is part of the Bibliography
- no (2664)
Keywords
- COVID-19 (45)
- SARS-CoV-2 (37)
- inflammation (33)
- Epilepsy (20)
- Video (19)
- Inflammation (17)
- prostate cancer (17)
- ADHD (13)
- Cancer (12)
- autophagy (12)
Institute
- Medizin (2664) (remove)
Hintergrund: Die kardiale Magnetresonanztomographie (CMR) gilt als Referenzstandard für die Beurteilung der linksventrikulären Funktion und des Volumens des linken Ventrikels (LV). Neuartige Echtzeittechniken versprechen eine schnelle Bildgebung bei freier Atmung mit ähnlicher Qualität. Ziel dieser Studie war es, die Genauigkeit der standardmäßigen Steady-State-Free-Precession (SSFP)-Cine-Bildgebung bei angehaltenem Atem mit der gleichen Sequenz unter Verwendung von drei Signalmittelungen, während freier Atmung sowie mit einer Compressed-Sensing (Cs)- Echtzeittechnik während der freien Atmung zur Beurteilung von LV-Volumen und Masse zu vergleichen.
Methoden: 24 Probanden wurden mit einer Standard-SSFP-Technik bei angehaltenem Atem (BH), mit derselben Technik bei freier Atmung unter Verwendung von drei durchschnittlichen Herzzyklen (SA-FB) sowie mit einem CS-Echtzeitprotokoll bei freier Atmung (CS-FB) untersucht. Verglichen wurden die Erfassungsdauer, die Genauigkeit sowie die Inter- und Intraobserver-Variabilität von LV-Funktion, Volumen und Masse.
Ergebnisse: Die Echtzeit-Bildgebung war erheblich schneller als die freie Atmung mit drei Signalmittelwerten (p<0.001). Die Korrelation zwischen dem Referenzstandard (BH) und den beiden anderen Techniken war ausgezeichnet mit einem r2 für SA-FB vs. BH zwischen 0.74 - 0.89 und einem r2 für CS-FB vs. BH zwischen 0.81 und 0.94. SA-FB ergab mittlere Fehler zwischen 5.9% und 15% für verschiedene LV-Parameter, während CS-FB zu mittleren Fehlern von 6.5%bis 13% führte. Die Inter- und Intraobserver-Variabilität war bei der Echtzeit-Bildgebung ausgezeichnet und bei der SSFP-Bildgebung (SA-FB und BH) gut.
Schlussfolgerung: Sowohl ein Standardprotokoll mit 3 Signalmittelungen, während der freien Atmung als auch die Compressed Sensing liefern genaue und reproduzierbare Messungen des LV, während die Echtzeit-Bildgebung wesentlich schneller ist.
Diese Arbeit hatte das Ziel, die Größe einer DVT-Aufnahme (FOV) mit der Größe der durch die Indikationsstellung definierten Region (ROI) zu vergleichen. Durch eine speziell dafür entwickelte Software sollten Messungen in den Datensätzen ermöglicht werden. Die dazu verwendeten 332 Datensätze wurden zufallsverteilt aus den mit einem Orthophos SL-3D DVT-Gerät der Firma Dentsply Sirona in der Poliklinik für zahnärztliche Chirurgie und Implantologie des ZZMK (Carolinum) in Frankfurt angefertigten Röntgenaufnahmen selektiert.
Es wurde die Auswertungssoftware ExRoi entwickelt, mit der die Werte des axialen Durchmessers, die Höhe (vertikale Dimension) sowie die Distanz der Mittelpunkte von FOV und ROI direkt in den Datensätzen bestimmt werden konnten. Zusätzlich wurde festgehalten, welche rechtfertigenden Indikationen gestellt und welche Auflösungsmodi verwendet wurden.
Die Stichprobe bestand aus Aufnahmen mit einem axialen Durchmesser von 8 cm [VOL 1] (n= 76, entsprechend 46,39%), 5 cm Durchmesser [VOL 2] (n = 102, entsprechend 30,72%) und 11 cm Durchmesser [VOL 3] (n= 154, entsprechend 22,89%). 95,18% der Aufnahmen wurden im HD-Modus mit laut Herstellerangaben vier Mal so vielen Aufnahmen im Vergleich zum SD-Modus angefertigt. Hauptindikationen waren Implantat Planung (45,1%) und Planungen komplizierter Zahn-Extraktionen (25,5%).
Die Messungen zum Vergleich des axialen Durchmessers zeigten, dass bei Verwendung des VOL 2 die ROI im Mittel den größten Anteil der FOV nutzt (78,52 %), den kleinsten Anteil nutzt durchschnittlich VOL 1 (56,04 %). Dazwischen liegt VOL 3 (69,12 %). In der Vertikalen nutzt die ROI von VOL 3 mittelwertig den größten Anteil der FOV (81,87 %), den kleinsten Mittelwert hat VOL 1 (58,76 %). VOL 2 liegt zwischen diesen Werten (64,47 %).
In allen Fällen war das FOV größer als die ROI und die ROI lag im Bereich des gewählten FOV.
Die Mittelpunkte von FOV und ROI lagen im Mittel in der axialen Ebene in Abhängigkeit vom gewählten Volumen um rund 9-13 mm auseinander, in der coronalen und sagittalen Ebene um rund 5-6mm.
Aus diesen Ergebnissen kann für das verwendete Gerät eine gute Trefferquote für die ROI abgeleitet werden. Höhe und Durchmesser des FOV hätten in den meisten Fällen kleiner gewählt werden können, liegen aber angesichts der vorhandenen Auswahl-Optionen des Röntgengeräts zur Dimensionierung der Volumina in einem akzeptablen Bereich.
Hintergrund:
Zur Klärung der klinischen Relevanz einer Milbensensibilisierung bei Kindern und Jugendlichen mit Asthma bronchiale ist die spezifische bronchiale Allergenprovokation (BAP) der Goldstandard. Aufgrund der technischen und personellen Voraussetzungen, sowie der potentiellen Gefahr einer schweren asthmatischen Spätreaktion ist die BAP nur eingeschränkt in spezialisierten Zentren verfügbar. Im Gegensatz dazu zeichnet sich nasale Allergenprovokation (NPT) durch ein hohes Maß an Patientensicherheit aus und kann ambulant durchgeführt werden. In dieser Studie sollte daher ein Vergleich zwischen der BAP vs. NPT erfolgen und klären inwiefern die NPT eine vorteilhafte Alternative im Diagnostikalgorithmus darstellen kann.
Methodik:
Von 157 untersuchten Patienten mit asthmatischen Beschwerden und positivem Pricktest (Dermatophagoides pteronyssinus; Dermatophagoides farinae) erfüllten 74 die Ein- / Ausschlusskriterien in vollem Umfang (Alter MW: 9,1 + 3,1 Jahre). Nach der BAP und der Messung des eNO, erfolgte eine Blutentnahme zur Bestimmung von Blutbild und spezifischem IgE, ggf. konnte Nasensekret gewonnen werden. Im Anschluss wurde innerhalb von 12 Wochen eine NPT mit Milbenallergen in aufsteigender Verdünnung durchgeführt. Hierbei wurde das Ergebnis zum einen mittels Symptomscore nach Lebel evaluiert, sowie die nasale Obstruktion mittels Peak Nasal Inspiratory Flow Meter (PNIF) bestimmt. Zum Abschluss beantworteten die Patienten einen standardisierten Fragebogen zur Lebensqualität mit Rhinokonjunktivitis (RQLQ).
Ergebnisse:
In der BAP konnten 57 Patienten mit einer bronchialen Frühreaktion (FEV1 - Abfall Mean bei 29,2% ± 7,4) identifiziert werden, von diesen wurden 41 mittels Lebelsymptomscore und 19 mittels PNIF erkannt. Während der Symptomscore nach Lebel damit eine ausreichende Sensitivität von 71,9 % und einen positiv prädiktiven Wert (PPV) von 89,1 % erreichte, war die Sensitivität für den PNIF mit 33,3 % ungenügend bei einem PPV von 82,6 %. Die negativ prädiktiven Werte lagen bei 42,8 %, respektive 25,4 %. Sowohl das eNO größer oder gleich 10 ppb (AUC 0,78) als auch das kumulative spez. IgE größer oder gleich 25,5 kU/l (AUC 0,72) erwiesen sich als gute Prädiktoren einer bronchialen Frühreaktion (EAR), eine Korrelation mit dem Symptomscore nach Lebel konnte jedoch nicht festgestellt werden.
Schlussfolgerung:
Unsere Ergebnisse zeigen für den Symptomscore nach Lebel eine hohe Vorhersagekraft zur Detektion einer EAR in der bronchialen Milbenprovokation. Ein negativer Score konnte eine asthmatische Reaktion jedoch nicht ausreichend ausschließen. Für den PNIF fanden wir keine ausreichende Testvalidität. Besonders bei pädiatrischen Patienten ist zu berücksichtigen, dass diese Messung stark von der individuellen Leistungsfähigkeit beeinflusst wird. Zudem weisen die nasale und bronchiale Mukosa lokale Unterschiede auf, sodass eine nasale Reaktion nicht identisch mit einer EAR ist. Bei Kindern und Jugendlichen mit Asthma bronchiale ist die BAP daher nicht vollständig durch die NPT ersetzbar. Besonders im ambulanten Bereich findet die NPT jedoch ihre Berechtigung, durch die deutlich geringeren Testanforderungen bei einem hohen Maß an Patientensicherheit. Darüber hinaus gehen rhinitische Beschwerden häufig einem Asthma bronchiale voraus, sodass auch falsch positive Testergebnisse im Lebel - Score berücksichtigt werden sollten. Neben dem Symptomscore identifizierten wir sowohl das spezifische IgE als auch das eNO als valide Prädiktoren einer EAR, eine direkte Korrelation zum NPT konnte jedoch nicht gefunden werden.
Hintergrund: Die Aortenklappenstenose stellt in Europa und Nordamerika das häufigste Klappenvitium dar und ist vor allem auf eine degenerative Genese zurückzuführen. Da das Auftreten erster Symptome mit einer schlechten Prognose assoziiert ist, ist die transfemorale Aortenklappenimplantation mittels Katheter (TAVI) als minimalinvasive Therapie schon seit längerem eine Alternative zum operativen Ersatz der Aortenklappe und aktuelles Thema der Forschung. Zwar existiert eine Vielzahl an Transkatheterklappen und es werden fortlaufend neue Generationen entwickelt, allerdings liegt bislang noch keine Studie vor, die einen direkten Vergleich der intraannularen Portico-Prothese (Abbott) mit der ebenfalls selbstexpandierbaren, aber supraannularen, Symetis-Prothese (Boston Scientific) präsentiert.
Methoden: Es erfolgte eine retrospektive Analyse von 142 gematchten (nach Alter, BMI, NYHA-Klasse, EuroScore, insulinpflichtiger Diabetes Mellitus, arterielle Hypertonie, COPD, KHK, präinterventionelle eGFR, cAVK, Schlaganfall, TIA in der Vorgeschichte) Patienten je Klappenmodell im medianen Alter von 83 Jahren, die sich mit einer hochgradigen symptomatischen Aortenklappenstenose im Zeitraum vom 12.10.2015 bis zum 07.01.2020 einer transfemoralen TAVI im Universitätsklinikum in Frankfurt am Main unterzogen. Untersucht wurde als primärer Endpunkt die Gesamtmortalität nach 1 Jahr. Darüber hinaus wurden mittels multivariater Cox-Regression unabhängige Risikofaktoren identifiziert. Als sekundäre Endpunkte wurden Komplikationen innerhalb von 30 Tagen gemäß den Definitionen des Valve Academic Research Consortium (VARC) 2 gewählt wie die Implantationen neuer Schrittmacher, paravalvuläre Leckage, Gefäßkomplikationen und akutes Nierenversagen. Analysiert wurden außerdem prozedurale Faktoren, die Symptomatik anhand der NYHA-Klasse sowie einige Laborparameter vor und nach der TAVI.
Ergebnisse: In dieser Arbeit konnte gezeigt werden, dass die 1-Jahres-Mortalität mit der Portico-Prothese signifikant höher ist als mit der Symetis-Prothese (25,2% vs. 12,2%; p=0,011). Dabei gelten neben der Portico-Prothese eine reduzierte linksventrikuläre Funktion und die NYHA-Klassen III/IV gemäß multivariater Cox-Regressionsanalyse als unabhängige Risikofaktoren. Postinterventionell war in der Portico-Kohorte ein neuer Linksschenkelblock (34,5% vs. 23,2%; p=0,036), die Implantation neuer Schrittmacher (22,6% vs. 11,8%; p=0,011) sowie ein akutes Nierenversagen (25,5% vs. 12,8%; p=0,006) signifikant häufiger. Hinsichtlich prozedurbezogener Faktoren hat sich herausgestellt, dass mit der Symetis-Prothese häufiger nachdilatiert (41,5% vs. 25,3%; p=0,004), mit der Portico-Prothese hingegen häufiger vordilatiert (92,2% vs. 82,3%; p=0,012) wurde. Außerdem wurde in der Portico-Kohorte signifikant mehr Kontrastmittel eingesetzt und das Verfahren mit der Durchleuchtung dauerte signifikant länger. Echokardiographisch resultierte post TAVI mit der Symetis-Prothese eine signifikant andere bzw. günstigere Verteilung der Aortenklappeninsuffizienzgrade. Laborchemisch war der Wert für NT-proBNP als biochemischer Marker für eine Herzinsuffizienz signifikant höher als in der Symetis-Gruppe.
Schlussfolgerung: Diese Arbeit zeigte eine signifikant höhere Mortalität nach 1 Jahr mit der Portico-Prothese im direkten Vergleich mit der Symetis-Prothese. Außerdem ergab der Vergleich signifikant höhere Komplikationsraten in der Portico-Kohorte hinsichtlich Schrittmacherimplantationen, neuem Linksschenkelblock und akutem Nierenversagen. Weitere Studien sollten die beiden Prothesen im längerfristigen Verlauf vergleichend analysieren. Die Ergebnisse dieser Studie können zur Optimierung neuer Klappengenerationen beitragen, indem sie auf potenziell prognosebestimmende Aspekte des Designs und der Implantationstechnik aufmerksam machen. Außerdem sensibilisert die Studie für eine individuell für jeden Patienten angepasste Prothesenauswahl. Möglicherweise sollte bei Vorerkrankungen der Niere oder bei vorbekannten Herzleitungsstörungen die Symetis- gegenüber der Portico-Prothese vorgezogen werden.
Ziel der Studie: Eine psychische Komorbidität spielt im Kontext mit weiteren persönlichen, sozialen und beruflichen Faktoren bei der Ermittlung des spezifischen Rehabilitationsbedarfs der Patienten in Deutschland eine immer bedeutendere Rolle. Um die Zuweisung von Patienten zu einer Rehabilitationsform besser ausdifferenzieren zu können, soll im Rahmen dieser retrospektiven Analyse ermittelt werden, von welchem der beiden untersuchten Rehabilitationskonzepte (OR/VMO) Patienten mit psychischer Komorbidität unter Berücksichtigung von Geschlecht, Erwerbsstatus und orthopädischer Hauptdiagnose stärker profitieren.
Methodik: Mittels der Screening-Fragebögen HADS-A, HADS-D, SIMBO und BPI sowie eines Klinikfragebogens zu Beginn der Rehabilitation wurden Angaben von 913 Probanden (529 m/384 w) ausgewertet. Hiervon wurden 43 % der OR und 57 % der VMO zugewiesen. So wurde die Häufigkeitsverteilung der Faktoren psychische Komorbidität, Geschlecht, Erwerbsstatus und orthopädische Hauptdiagnose festgestellt. Mittels HADS wurde am Ende der Therapie der Benefit durch Vergleich der Scorewert-Mediane ermittelt.
Ergebnisse: Häufigkeitsverteilungen und die Entwicklung der HADS-Scores zeigen, dass die im Vorfeld erfolgte Einteilung gemäß psychischer Komorbidität korrekt war. Frauen waren häufiger von einer psychischen Komorbidität betroffen und erzielten in der VMO größere Erfolge. Bezüglich der orthopädischen Hauptdiagnose ergab sich eine hohe Prävalenz von HWS- und LWS-Beschwerden. Beim Erwerbsstatus (Arbeits(un)fähigkeit, Arbeitslosigkeit, berufliche Problemlage) zeigte sich ein diffuseres Bild, das keine generalisierende Aussage bezüglich der arbeitsweltbezogenen Faktoren zulässt.
Schlussfolgerungen: Das Vorliegen einer psychischen Komorbidität stellt einen zielführenden Indikator dar, der als eines der Hauptzuweisungskriterien zur VMO beizubehalten ist. Auch das weibliche Geschlecht in Verbindung mit dem Vorliegen einer psychischen Komorbidität ist als adäquates Kriterium anzusehen. Bezüglich der orthopädischen Hauptdiagnose können insbesondere HWS-Beschwerden als Zuweisungskriterium geeignet sein. Aufgrund der sehr heterogenen Ergebnisse hinsichtlich der Aspekte des Erwerbsstatus lässt sich festhalten, dass diesbezüglich eine Zuweisung zu einem arbeitsweltbezogenen Therapiekonzept (z. B. MBOR) zielführender erscheint.
Chronisch-entzündliche Dermatosen sind in Deutschland weit verbreitet und haben einen enormen Einfluss auf die Lebensqualität der Erkrankten. Das umfassende Verständnis der molekularen Prozesse und Signalwege bildet die Basis, um mögliche Beziehungen zwischen den Hauterkrankungen aufzudecken. Der Nachweis von Ähnlichkeit und Übereinstimmung in den Signalwegen bietet die Aussicht, dass etablierte Therapien auch bei anderen Erkrankungen helfen können.
Der Zweck dieser Arbeit ist der Nachweis der Expression von IL-1β, IL-17A, IL-22, IL-23 und TNF-α in drei chronisch-entzündlichen Dermatosen: Acne inversa (AI), Sinus pilondalis (SP) und Perifolliculitis capitis abscedens et suffodiens (PCAS). Bei allen untersuchten Diagnosen handelt es sich um potentiell verwandte Erkrankungen der Haarfollikel, die durch Verlegung der Ausführungsgänge zu ausgedehnten Entzündungsreaktionen mit Bildung von Knoten, Abszessen und Fisteln führen. Bereits nachgewiesen ist, dass IL-1β, IL-17A, IL-22, IL-23 und TNF-α eine wichtige Rolle in der Pathogenese von Acne inversa spielen und Antikörpertherapien an einigen dieser Zielproteine spezifisch angreifen, um den Verlauf der Erkrankung zu verbessern.
Die Expression der Proteine wurde in Läsionen von Patienten mit den drei Indikationen immunhistochemisch an paraffiniertem Gewebe untersucht. Wie erwartet, zeigten sich in der überwiegenden Anzahl der Proben große entzündliche Infiltrate und hier wurde die Expression aller untersuchten Zytokine in unterschiedlicher Intensität nachgewiesen. Vielversprechend war insbesondere die Expression von IL-17A und IL-23 in SP und PCAS. Die Expression von IL-1β war insgesamt eher gering ausgeprägt; bei AI noch etwas höher als in SP und PCAS. Die Färbungen auf IL-22 zeigten sich kräftig in allen untersuchten Dermatosen. Allerdings gibt es bisher keine zugelassene Therapie zur Modulation dieses speziellen Zytokins. IL-22 scheint eine zentrale Rolle in
der Pathogenese der AI zu spielen. Mit TNF-α-Blockern wurden schon gute therapeutische Ergebnisse bei AI und PCAS erzielt. Deshalb ist der Nachweis von TNF-α in den entzündlichen Läsionen zu erwarten gewesen. Auch bei den SP-Proben fanden sich deutlich erhöhte Protein-Level, sodass auch hier eine gezielte Therapie von Vorteil sein könnte. Wegen des geringen Probenumfangs und der Methodik sind weitere gezielte Untersuchungen notwendig. Dennoch konnten viele Gemeinsamkeiten der Zytokinexpression ausgemacht werden, was vielversprechende Hinweise auf mögliche Behandlungsansätze bei AI, SP und PCAS zulässt. Diese Arbeit bietet einen ersten Blick auf den immunologischen Phänotyp der verwandten Dermatosen.
Die Bestimmung von Lipoprotein(a) im Plasma mittels kinetischer Nephelometrie (Beckman Instruments) wurde mit einem immunoradiometrischen Assay (Mercodia) verglichen. Untersucht wurden 182 Proben in frischem Zustand und 18 Proben, die für kurze Zeit bei -25 °C gelagert waren. Die Meßergebnisse zeigen eine gute Übereinstimmung der Median werte (147 mg/1 bzw. 160 mg/1) und eine gute Korrelation bei den frischen und den eingefrorenen Proben (r = 0,971/rs= 0,985 bzw. r = 0,971). Die Variationskoeffizienten der Nephelometrie entsprechen mit 4.2% in der Serie (Intraassay) und 5,5-6,5% von Tag zu Tag (Interassay) den bisherigen Literaturwerten. Entgegen der Empfehlung, nur frisches Probenmaterial für die Nephelometrie einzusetzen, wurde bei einer Probe mit einer hohen Lipoprotein(a) Konzentration (960 mg/1) über 5 Wochen keine bedeutende Abnahme der Meßwerte registriert. Um den Einfluß der Triglyzeridkonzentration auf die Lp(a) Bestimmung zu untersuchen, wurden sechs Plasmaproben mit Triglyzeridwerten > 5,75 mmol/1 ausgewählt und in verschiedenen Verdünnungen mit Triglyzeridkonzentrationen zwischen 3,45-8,05 mmol/1 analysiert. Während 4 Proben keinen Einfluß der Triglyzeridkonzentration zeigten, wurde bei 2 Proben ein geringer Abfall der Lipoprotein(a) Meßwerte mit steigender Triglyzeridkonzentration beobachtet.
Einführung: In den letzten Jahren wurden mobile Endgeräte in zunehmenden Maße zur Messung biometrischer Daten wie z.B. Herzfrequenz, Blutdruck, Sauerstoffsättigung und EKG Messungen wie z.B. Rhythmusstörungen verwendet. In den meisten Fällen kann bezüglich eines EKG hierbei nur eine einzige Ableitung gemessen werden. Mit Ausnahme von EKG-Brustgürteln sind Messungen nur in Ruhe möglich. Letztere sind häufig nicht als Medizinprodukte zugelassen. Veränderungen in einem vektoriell, aus einer reduzierten Elektrodenzahl, errechneten EKG unter Belastung, welche mit einem mobilen Endgerät gemessen wurden, sind bisher nicht evaluiert worden. Einige Pathologien werden nur unter Stressbedingungen demaskiert, so dass mit den aktuellen Systemen eine diagnostische Lücke im häuslichen Umfeld existiert. Es wurde ein mit einem mobilen Endgerät (Smartphone/Tablet) vektoriell abgeleitetes 4 Elektroden EKG System mit dem aktuellen Goldstandard 12-Kanal EKG sowohl in Ruhe als auch unter Belastung verglichen.
Methoden und Ergebnisse: 428 Patienten wurden während einer fahrradergometrischen Untersuchung simultan mit beiden EKG Systemen untersucht. Das vektorielle EKG wurde als errechnetes 12-Kanal EKG dargestellt und bezüglich EKG-Qualität und diagnostischer Genauigkeit mit dem Standard EKG verglichen. Alle EKGs wurden unabhängig durch 2 verblindete und in der EKG Interpretation versierten Ärzte untersucht. Die EKG Qualität in beiden Verfahren war gut. In Ruhe gab es eine ausgezeichnete Übereinstimmung zwischen beiden EKG Technologien in Hinsicht auf Rhythmus (98%), AV-Überleitung (97%), Wellendauer (90%) und elektrischer Achse (88-97%). Während der Belastung gab es eine Übereinstimmung in 90% der Fälle. Der positiv prädiktive Wert lag bei 48.5% und der negativ prädiktive Wert bei 94%. ST-Deviationen >0.2 mV zeigten eine 97% Übereinstimmung während des Stresstests. Rhythmusstörungen und intraventrikuläre Leitungsstörungen (Links- und Rechtsschenkelblock) konnten in jeweils >90% der Fälle übereinstimmend identifiziert werden.
Schlussfolgerung: Ein mobiles Endgerät kann benutzt werden, um vektoriell errechnete 12-Kanal EKGs unter Alltagsbedingungen zuverlässig darzustellen. Die diagnostische Aussagekraft dieser EKGs in Ruhe und unter Belastung ist gut.
Bei fehlender Milz nach einer totalen Splenektomie kann es unter anderem zum lebensgefährlichen Postsplenektomie-Syndrom (overwhelming postplenectomy infection, OPSI) kommen, weshalb die partielle Splenektomie (PS) zunehmend in den Fokus rückt. Die Reduktion perioperativer Komplikationen erscheint zudem wünschenswert, weswegen der laparoskopische Operationsansatz zunehmende medizinische Resonanz genießt. Letzteren verbinden Chirurgen häufig mit geringeren postoperativen Schmerzen für den Patienten, besseren kosmetischen Ergebnissen und einer Reduktion chirurgischer Komplikationen.
Ziel dieser Studie war es, anhand verschiedener Parameter die perioperativen Ergebnisse zwischen der laparoskopischen partiellen Splenektomie (LPS) und der offenen partiellen Splenektomie (OPS) bei Kindern und Jugendlichen zu vergleichen. Betrachtet wurde ein Zeitraum von etwa zehn Jahren (2008-2018), wobei insgesamt 26 Patienten die Einschlusskriterien erfüllten. 10 Patienten unterzogen sich der LPS, während bei 16 Patienten eine OPS durchgeführt wurde. Anhand der digitalen Patientenakten wurden verschiedene perioperative Parameter erhoben, welche unter anderem die postoperative Schmerzstärke, den Analgetikabedarf, verschiedene hämatologische Variablen sowie die perioperativen Komplikationen umfassten.
Zwischen den beiden Gruppen unterschieden sich das postoperative Schmerzbefinden mit entsprechend analgetischer Therapie, der zeitliche Beginn des oralen Kostaufbaus und der postoperativen Mobilisation sowie die Dauer des stationären Aufenthalts nicht signifikant. Ferner wurden die chirurgischen Komplikationen anhand der Clavien-Dindo-Klassifikation (CDC) in verschiedene Grade eingeteilt und konnten sowohl in der laparoskopischen als auch in der offen-chirurgisch operierten Gruppe zeigen, dass hauptsächlich leichte Komplikationen vorlagen, bei denen ein Großteil der Patienten lediglich eine medikamentöse Therapie (80.8%) für die aufgetretenen Komplikationen (CDC ≤ II) benötigte. Lediglich bei 13% der offen operierten Patienten bedurfte es einer chirurgischen bzw. endoskopischen Intervention (CDC ≥ III).
Die Operationsdauer zwischen den beiden Gruppen unterschied sich jedoch signifikant. Bei der partiellen Splenektomie nahm der laparoskopische Zugangsweg signifikant mehr Zeit in Anspruch als bei der offen-chirurgisch operierten Gruppe. Darüber hinaus wurde der perioperative Blutverlust anhand der Mercuriali-Formel berechnet und zeigte bei der LPS-Gruppe einen signifikant höheren perioperativen Blutverlust als bei der OPS.
Die durch diese Studie erzielten Resultate zeigen anhand verschiedener perioperativer Parameter, dass die LPS im Vergleich zur etablierten OPS trotz signifikanter Unterschiede in der Operationszeit und dem perioperativen Blutverlust beide sichere und praktikable Operationsverfahren sind. Zusammenfassend stellten sich hinsichtlich der weiteren perioperativen Ergebnisse keine signifikanten Unterschiede zwischen beiden Gruppen dar.
Im Rahmen unserer Untersuchung konnte zudem dargestellt werden, dass die postoperativen Rekonvaleszenzvariablen sowie die Scores zur Erfassung der chirurgischen Komplikationen keinen signifikanten Unterschied ergaben. Ebenso wies die postoperativ dokumentierte Schmerzstärke der Patienten und der daraus resultierende Analgetikabedarf keine signifikanten Unterschiede auf.
Der Nachweis von Chlamydia trachomatis Genomsequenzen ist seit einigen Jahren mit Hilfe kommerzieller Testkits, welche auf dem Prinzip der Polymerase-Ketten-Reaktion (PCR) oder Ligase-Kettenreaktion (LCR) beruhen, möglich. Vor kurzem wurde ein neues Verfahren, die Transcription Mediated Amplification (TMA), etabliert. In der vorliegenden Studie wurden drei Nukleinsäure Amplifikations-Techniken, die PCR, die LCR und die TMA für den Nachweis von Chlamydia trachomatis aus Urinproben miteinander bezüglich Sensitivität und Spezifität verglichen und einem Enzym-Immuno-Assay (EIA) zum C. trachomatis-Antigen-Nachweis aus endozervikalen Abstrichen gegenübergestellt. PCR, LCR und TMA zeigten eine vergleichbare Sensitivität und Spezifität. Diskrepante Ergebnisse ergaben sich im Vergleich mit dem C. trachomatis-Antigen-Nachweis. In 22 Abstrichen war Chlamydien-Antigen nachzuweisen. Nur bei 12 bzw. 11 der untersuchten Prostituierten konnten bei positivem zervikalen Abstrich Chlamydia trachomatis Genomsequenzen im Urin nachgewiesen werden. Bei 5 bzw. 4 Frauen wurde bei negativem Abstrichbefund C. trachomatis DNA bzw. RNA im Urin gefunden. Um bei Frauen eine hohe diagnostische Sensitivität zu erreichen, .sollten Urin und endozervikale Abstriche untersucht werden, da C. trachomatis nicht immer in beiden Probematerialien nachweisbar ist.
Die CT-Diagnostik gewinnt auch über 100 Jahre nach der Entdeckung der Röntgenstrahlung noch immer weiter an Bedeutung im klinischen Alltag. Insbesondere im Bereich des Stagings und der onkologischen Follow-Up-Untersuchungen zählt die Ganzkörper-CT derzeit vielerorts als diagnostischer Goldstandard. Dabei muss jedoch in Kauf genommen werden, dass es zur Applikation nicht unerheblicher Dosiswerte kommt. Das Risiko von Folgeschäden ist dabei nicht von der Hand zu weisen, wobei das Folgemalignom als besonders gefürchtete Komplikation gilt. Die Optimierung der Computertomographie und die Minimierung möglicher Folgeschäden ist daher Gegenstand konstanter klinischer Forschung. Dennoch muss eine Reduktion der Strahlendosis nur äußerst feinfühlig erfolgen, da sie auf technischer Ebene eng mit der realisierbaren Bildqualität korreliert.
Ziel der vorliegenden Arbeit war es, die Nutzen eines 150 kV + Sn Zinnfilter- Protokolls am Gerät Siemens Somatom Force zu untersuchen. Hierbei sollte vor allem darauf eingegangen werden, wie viel Strahlendosis durch die Implementierung eines solchen Protokolls eingespart werden kann, wie sich das Protokoll auf die subjektive und objektive Bildqualität auswirkt, sowie welcher weitere klinische Nutzen zu erwarten ist. Bisher konnten sich ähnliche Protokolle bereits im Rahmen anderer Fragestellungen als nützlich beweisen.
Insgesamt 40 Patienten mit Ganzkörper-Staging im Rahmen eines Multiplen Myeloms wurden in die Studie inkludiert (28 Frauen, 12 Männer). Diese wurden im vereinbarten Untersuchungszeitraum mit dem durch die Ethikkomission genehmigten Studienprotokoll (150 kV + Sn Force) untersucht und waren jeweils retrospektiv auch Teil der anderen Gruppen gewesen (120 KV Definition AS, 120 KV Flash, 120 kV Force).
Auch wenn der intraindividuelle Vergleich inhärent mit einer höheren statistischen Power einhergeht, wurden sicherheitshalber an vordefinierten Stellen Querdurchmesser der Patienten erhoben, um biometrische Gleichheit zu beweisen.
Hier ließen sich keine signifikanten Unterschiede messen. Die Bilddaten der Patienten wurden randomisiert und doppelt verblindet von zwei dem Projekt fremden und berufserfahrenen Radiologen hinsichtlich der subjektiven Bildqualität ausgewertet. Ein Bezug zu den technischen Hintergrundinformationen der Aufnahme war zu keinem Zeitpunkt möglich.
Anschließend erfolgte die statistische Auswertung objektiver Daten. Zum Vergleich der Bildqualität wurden jeweils gemittelte Schwächungswerte aus Muskeln aus artefaktfreien und aus von Artefakten beladenen Arealen erhoben. Aufgrund des homogenen Charakters der Muskeln wurde die ebenso jeweils gemittelte Standardabweichung dieser Strukturen als Hintergrundrauschen definiert. Hieraus wurde eine SNR errechnet.
Der Vergleich von Dosiswerten erfolgte über die aus dem Patientenprotokoll entnehmbaren Angaben, insbesondere des CTDI. Gemeinsam mit den erhobenen Querdurchmessern wurde hieraus eine SSDE gebildet.
Bei allen subjektiven Vergleichen der Studiengruppe (150 kV + Sn Force) wurde bei jeweils starker Korrelation nach Spearman und starker bis sehr starker Übereinstimmung nach Cohen eine gute bis sehr gute Bildqualität attestiert. Damit stellt das Untersuchungsprotokoll Bilder durchweg besser als das Referenzprotokoll auf den Geräten Somatom Definition AS und Somatom Definition Flash dar. Im Direktvergleich zum Referenzprotokoll auf dem Somatom Force ist das Studienprotokoll jeweils mindestens gleichwertig.
Im objektiven Vergleich der Bildqualität zeigte sich als Gütekriterium zunächst, dass Muskeln artefaktfreier Areale in allen vier Gruppen gleich gut dargestellt werden. Bereits bei der Betrachtung der Schwächungswerte artefaktbeladener Muskeln wurde deutlich, dass die anderen Protokolle mit signifikant höherem Signalverlust zu kämpfen haben. Auch das Bildpunktrauschen war in der Studiengruppe (150 kV + Sn Force) überwiegend signifikant niedriger, als das der anderen Gruppen. Lediglich in Artefaktarealen des Untersuchungsabschnitts cCT/HWS konnte die Gruppe 120 kV Force vergleichbar niedrige Rauschwerte aufweisen (p = 1), der Vergleich der SNR wiederholte dieses Ergebnis.
CTDI und SSDE der Gruppe
150 kV Force zeigten im Untersuchungsabschnitt cCT/HWS insbesondere der Gruppe 120 kV Force gegenüber signifikante Dosiseinsparungen von ca. 42 %, im Abschnitt Tho-Knie sogar 64%.
Zusammenfassend zeigte sich durch die Implementierung des Studienprotokolls also mehrheitlich eine Verbesserung sowohl der subjektiven, als auch der objektiven Bildqualität. Bei einer durchschnittlichen Reduktion der applizierten Strahlendosis von ca. 40-60 % (gegenüber dem Referenzprotokoll am Somatom Force) ist der Einsatz des Studienprotokolls für die hier untersuchte Fragestellung im klinischen Alltag also uneingeschränkt zu empfehlen.
Das Ziel dieser Studie war der retrospektive Vergleich zweier fortschrittlicher robotergestützter Angiographie-Systeme in Bezug auf Strahlendosis und Bildqualität bei der Bildgebung im Rahmen der konventionellen transarteriellen Chemoembolisation (cTACE) von bösartigen Lebertumoren.
Dafür haben wir 106 Patienten (insgesamt 57 Frauen und 49 Männer; Durchschnittsalter 60 ± 11 Jahre), welche eine cTACE Therapie an einem der zwei Generationen von Roboter-Angiographieplattformen erhalten hatten, einbezogen. Die Patienten wurden in zwei Gruppen eingeteilt (n=53): Gruppe 1 (Behandlung am Gerät der ersten Generation) und Gruppe 2 (Behandlung am Gerät der zweiten Generation). Die Strahlendosis für die Fluoroskopie und die digitale Subtraktions-Angiographie (DSA) wurde zwischen den Angiographiegeräten der ersten bzw. zweiten Generation verglichen. Zu den besonderen Merkmalen des Systems der zweiten Generation- im Vergleich zum System der ersten Generation - gehörten ein verfeinertes kristallines Detektorsystem, zur verbesserten Rauschunterdrückung und eine fortschrittliche CARE-Filtersoftware, zur Senkung der Strahlendosis. Die Strahlendosis wurde mit einer herkömmlichen im Gerät verbauten Ionisationskammer gemessen. Die Bildqualität wurde von drei unabhängigen Radiologen anhand einer 5-Punkt-Likert-Skala bewertet. Beide Gruppen waren in Bezug auf Anzahl und Lage der Läsionen sowie Körpergewicht, BMI-Werte und anatomische Varianten der versorgenden Leberarterien vergleichbar (alle p > 0,05).
Das Dosisflächenprodukt (DAP) für die Fluoroskopie war in Gruppe 2 signifikant niedriger (1,4 ± 1,1 Gy·cm2) als in Gruppe 1 (2,8 ± 3,4 Gy·cm2; p = 0,001). Für DSA war DAP in Gruppe 2 (2,2 ± 1,2 Gy·cm2) signifikant niedriger (p = 0,003) gegenüber Gruppe 1 (4,7 ± 2,3 Gy·cm2). Die Ergebnisse für die DSA-Bildqualität (IQ) zeigten signifikante Verbesserungen für Gruppe 2 um 30% im Vergleich zu Gruppe 1 (p = 0,004). In der Fluoroskopie waren die Werte für den IQ in Gruppe 2 76% höher als in Gruppe 1 (p = 0,001). Eine gutes bis sehr gutes Inter-rater-agreement mit Kappa- Fleiss-Koeffizienten von κ = 0,75 für Gruppe 1 und κ = 0,74 für Gruppe 2 wurde erreicht.
Zusammenfassend ließ sich feststellen, dass die neueste Generation der robotergestützten Angiographiegeräte im Zusammenhang von cTACE der Leber eine erhebliche Reduzierung der Strahlendosis bei gleichzeitiger Verbesserung der Bildqualität in der Fluoroskopie und DSA-Bildführung ermöglicht.
Rinderplasma-Albumin wurde bei seinem isoelektrischen Punkt gelöst und in einer Unterschichtungszelle ultrazentrifugiert. Die mit Philpot-Svensson- Optik und Phasenplatte gewonnenen Sedimentationskurven wurden nach der SvEdbERG-Methode 1 (Sv.M.), nach der Maximalgradienten-Methode 2 (Mg.M.) und nach der Drei-Punkte-Methode 2 (D.P.M.) ausgewertet.
Die klassische Svedberg - Methode liefert die Sedimentationskonstante s; mit den beiden neuen Methoden kann man auf einfache Weise unmittelbar den Quotienten s/D sowie gleichzeitig und aus denselben Meßgrößen die Sedimentationskonstante s und die Diffusionskonstante D erhalten. (Die Bestimmung des zweiten Momentes der Sedimentationskurve, wie bei der ARCAIBALD-Methode 3 ist dabei nicht erforderlich.)
Nach Sv.M. und Mg.M. ergab sich der gleiche Wert für die Sedimentationskonstante. Nach der D.P.M. wurde eine um etwa 11% größere Sedimentationskonstante erhalten. Diese Abweichung beruht vermutlich auf einem bei der D.P.M. leicht unterlaufenden systematischen Meßfehler.
Der mittlere Fehler der nach Svedberg bestimmten Sedimentationskonstante betrug ± 2,7%. Etwa sechsmal größer war der mittlere Fehler von s und s/D bei der Mg.M., nämlich ± 17%, trotz annähernd gleicher Meßgenauigkeit bei Sv.M. und Mg.M.
Es scheint, daß die neuen Methoden schärfere und eindeutigere Sedimentations-Kurven erfordern als sie mit dem Philpot-Svensson- System bisher im allgemeinen erhalten werden können.
Eine Aussnahme macht dabei die nach der Mg.M. bestimmte Diffusionskonstante D, deren mittlerer Fehler hier 1,2% betrug.
Traumatische Verletzungen fordern jährlich über fünf Millionen Todesopfer. Sie sind bei unter 45-Jährigen die häufigste Ursache für Tod und körperliche Behinderung dar. Ein Polytrauma verursacht eine schwere Belastung für das Immunsystem und ist häufig von schweren Störungen der Immunregulation gekennzeichnet. Die Immunreaktion übersteigt bei schweren Traumata das für lokale Reparaturmechanismen notwendige Maß, und so kommt es je nach Ausmaß der Verletzungen innerhalb der ersten Minuten bis Stunden zu einer systemischen Hyperinflammation, dem sogenannten Systemischen Inflammatorischen Response- Syndrom (SIRS). Auch in nicht verletzten Organen verursacht SIRS Störungen in der Endothel-Funktion, wodurch die Mikrozirkulation in diesen Organgen beeinträchtigt ist. In der Folge kommt es zu interstitieller Ödembildung, zur Gewebsinfiltration durch Leukozyten und zu Zelluntergang. Diese Prozesse können zur Fehlfunktion von Organen bis hin zum Organversagen, und, da sie häufig in mehreren Organen gleichzeitig ablaufen, auch zum klinisch dann oft schwer beherrschbaren Multiorganversagen (MOV) führen. Auf der anderen Seite stoßen schwere Verletzungen antiinflammatorische Prozesse an, die zu einer ausgeprägten Immunsuppression führen können, dem Kompensatorischen Antiinflammatorischen Response-Syndrom (CARS), mit der Folge, dass polytraumatisierte Patienten erhöht anfällig für infektiöse Komplikationen sind. Die beschriebenen Funktionsstörungen des Immunsystems sind ein wichtiger Mortalitätsfaktor von polytraumatisierten Patienten. Während wir SIRS und seine Folgen über die letzten Jahre immer besser verstehen, mit signifikanten Fortschritten auch für die klinische Handhabung dieser Komplikationen des Polytraumas, ist CARS weit schlechter untersucht.
Während der post-traumatschen Immunantwort spielen nicht nur Zellen der angeborenen, sondern auch solche der erworbenen Immunabwehr eine wichtige Rolle. So sind regulatorische T-Zellen (Treg) entscheidend an der posttraumatischen Immunsuppression beteiligt. Treg beeinflussen die immunologische Homöostase Treg mit einem Arsenal immunsuppressiver Werkzeuge. Sie töten oder beeinflussen beispielsweise antigenpräsentierende Zellen oder T-Effektorzellen und verändern das Zytokinmilieu und metabolische Signalwege. Nach einem Trauma kann eine überschießende Aktivität von Treg die immunologische Balance so beeinträchtigen, dass eine posttraumatische Immunsuppression entsteht oder intensiviert wird. Die hier vorgestellte Studie Ziel dient daher dem besseren Verständnis der Dynamik von Treg nach einer stattgehabten traumatischen Verletzung. Dafür untersuchten wir die Verläufe verschiedener Subpopulationen von Treg im Blut schwer verletzter Patienten. Da der Forschung am Menschen in vivo enge ethische und methodologische Grenzen gesetzt sind, nehmen Tiermodelle in der Traumaforschung einen hohen Stellenwert ein. Daher verglichen wir die an Patienten erhobenen Daten über die posttraumatische Dynamik von Treg mit den Verläufen in einem adäquaten Tiermodell.
Aufgrund der guten anatomischen, physiologischen und genetischen Ähnlichkeit zum Menschen werden Tiermodelle am Schwein zunehmend beliebter. Ein Polytraumamodell am Schwein existiert erst seit wenigen Jahren. Über Treg wurde in diesem Rahmen bisher nicht geforscht. Die Charakterisierung ihres Immunphänotyps und ihrer Dynamik könnte die Anwendbarkeit des Schweine-Modells für Fragen der Trauma-Forschung verbessern und gleichzeitig unser Verständnis der Pathophysiologie posttraumatischer Komplikationen wir SIRS oder Sepsis erhöhen.
Bei 20 Traumapatienten (TP) mit einem Injury Severity Score (ISS) ≥ 16 wurde bei Ankunft in der Notaufnahme, nach einem und nach drei Tagen venöses Blut entnommen. Zehn gesunde Freiwillige (HV) fungierten in der Studie als Kontrollgruppe. Das Polytrauma im Großtiermodell am Schwein bestand aus einer Femurfraktur, einer Leberlazeration, einer Lungenkontusion und einem hämorrhagischen Schock, was einen ISS von 27 ergab. Auf die Traumainduktion folgte die Reanimationsphase und die chirurgische Versorgung der Femurfraktur nach dem damage-control-Prinzip. Die Blutentnahmen erfolgten bei den Versuchstieren vor und sofort nach Trauma, sowie nach 24 und 72 Stunden. Wir verglichen die Dynamik der Verläufe der Treg von TP mit denen von HV und mit Daten aus den Tierversuchen. Es herrscht noch kein wissenschaftlicher Konsens darüber, welche Kombination aus immunologischen Oberflächenmarkern die Identifikation von Treg zuverlässig gewährleisten kann. Dies liegt auch daran, dass Treg eine Gruppe verschiedener Unterpopulationen darstellen. Folglich analysierten wir verschiedene Kombinationen. Wir färbten Cluster of differentiation (CD) 4-positive und CD25-positive (CD4+CD25+), CD4+CD25+forkhead box P3 (FoxP3)+, CD4+CD25+CD127-negative (CD127−) und CD4+CD25+CD127−FoxP3+ Zellen mit Antikörpern und charakterisierten die jeweilige Gruppe mithilfe der Durchflusszytometrie. CD4+CD25+CD127− Treg sind beim Menschen bekannt. Beim Schwein werden sie in dieser Studie erstmalig beschrieben.
...
In der vorliegenden Arbeit wurden die Proteine Vlp15/16 und GlpQ aus B. miyamotoi hinsichtlich ihrer Eigenschaft, mit Plasminogen zu interagieren, charakterisiert.
Da einige Fälle von ZNS-Beteiligungen bei B. miyamotoi-Infektionen berichtet wurden, ist anzunehmen, dass diese Borrelienspezies über molekulare Mechanismen zur Überwindung der Blut-Hirn-Schranke verfügt. Eine solche Strategie könnte die Bindung wirtseigener Proteasen wie z.B. Plasminogen sein, um Komponenten der extrazellulären Matrix zu degradieren und dadurch die Dissemination des Erregers zu erleichtern.
Während Vmps, zu welchen auch Vlp15/16 gehört, als membranständige Proteine durch Variation der antigenen Oberflächenmatrix zur Immunevasion des Erregers beitragen, ist GlpQ bei der Hydrolyse von Phospholipiden in den Zellstoffwechsel eingebunden. Trotz dieser unterschiedlichen Funktionen, die den beiden Proteinen zukommen, binden beide Moleküle Plasminogen. Die Eigenschaften dieser Interaktion wurden in dieser Arbeit im Detail untersucht. Die Ergebnisse zeigen, dass Vlp15/16 und GlpQ Plasminogen konzentrationsabhängig binden und die Dissoziationskonstanten (Vlp15/16:Kd = 354 nM ± 62 nM; GlpQ: Kd = 413 nM ± 72 nM) für beide Proteine im Bereich der Serumkonzentration von 2 µM liegen. Darüber hinaus konnte gezeigt werden, dass den beiden Proteinen unterschiedliche Mechanismen zugrunde liegen, Plasminogen zu binden. Während die erhobenen Daten für Vlp15/16 darauf hindeuten, dass Lysin-Reste essenziell für die Interaktion sind, scheinen bei GlpQ ionische Wechselwirkungen von Bedeutung zu sein.
Um die Beteiligung von C-terminal lokalisierten Lysin-Resten für die PlasminogenBindung von GlpQ nachzuweisen, wurden Varianten mit einzelnen Lysin-Substitutionen an zwei unterschiedlichen Positionen (333 und 334) sowie eine Variante mit einer Zweifach-Substitution (GlpQ-K333A-K334A) generiert. Die Bindungsanalysen ergaben, dass insbesondere der Lysin-Rest an Position 334 bei der Interaktion mit Plasminogen beteiligt ist.
Die funktionellen Analysen zeigten, dass das an Vlp15/16 beziehungsweise GlpQ gebundene Plasminogen zu Plasmin aktiviert werden konnte und darüber hinaus dazu in der Lage war, das physiologische Substrat Fibrinogen zu degradieren.
Abschließend wurde die Plasminogen-Bindung an nativen B. miyamotoi-Zellen mittels Immunfluoreszenz-Mikroskopie nachgewiesen.
Die Ergebnisse dieser Arbeit weisen Vlp15/16 und GlpQ als Plasminogen-bindende Proteine aus, mit deren Hilfe B. miyamotoi befähigt ist, Komponenten der extrazellulären Matrix zu degradieren und somit prinzipiell zur Dissemination des Erregers beizutragen.
Einleitung: Feedback ist ein elementarer Bestandteil effektiven Lernens, auch im Medizinstudium, insbesondere beim Erlernen praktischer Fertigkeiten. Feedback kann in verschieden Formen gegeben werden, die Einfluss auf das Erlernen und Behalten der Fertigkeit haben.
Videofeedback, auf der Grundlage von Videoaufzeichnungen einer Tätigkeit, erscheint hierbei eine effektive Methode zum Verstärken des Lerneffektes bei komplexen praktischen Fertigkeiten darzustellen.
Das Ziel der vorliegenden Arbeit war die vergleichende Effektivitätsanalyse von Videofeedback im Vergleich zu mündlichem Feedback auf das Erlernen des sterilen Arbeitens bei der Wundversorgung als Beispiel für eine komplexe praktische Fertigkeit.
Methode: Medizinstudierende an der Goethe-Universität Frankfurt am Main absolvieren im Rahmen ihrer curricularen Ausbildung im 2. bzw. 3. klinischen Semester das dreiwöchige Blockpraktikum Chirurgie. Hierbei durchlaufen sie das einwöchige „Training praktischer Fertigkeiten“ im Skillslab. Im Rahmen dieses aus 12 Modulen bestehenden Trainings absolvieren die Studierenden unter anderem das Modul „Wundversorgung“. In dieser 210-minütigen Trainingseinheit erlernen und üben sie die Versorgung einer einfacher Schnittwunden (von der Anamnese über das sterile Abdecken bis zum Anlegen des Verbandes) unter Anleitung und Supervision eines Peer-Tutors.
Im Rahmen der vorliegenden Arbeit wurden die Studierenden in eine Interventions- und eine Kontrollgruppe randomisiert. Die Interventionsgruppe wurde beim Üben auf Video aufgezeichnet. Im Anschluss erhielten die Studierenden anhand der Videoaufzeichnung Feedback durch einen Peer-Tutor. Die Kontrollgruppe erhielt nach dem Üben Feedback durch den Peer-Tutor ohne Videoaufzeichnung.
Direkt im Anschluss an das Modul absolvierten die Studierenden zwei strukturierte checklistenbasierte formative Prüfungsstationen im Sinne von zwei Objective Structured Clinical Examination-Stationen (OSCE); 2 bis 3 Monate nach dem Training erfolgte die zweite Datenerhebung im Rahmen des summativen curricularen OSCE als Abschlussprüfung des Blockpraktikums Chirurgie.
Ergebnisse: Insgesamt nahmen 107 Studenten an der vorliegenden Studie teil. Am Messzeitpunkt 1 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe. Am Messzeitpunkt 2 mussten an der Prüfungsstation „Wundversorgung“ 39 Studierende durch veränderte und damit nicht mehr vergleichbare Prüfungsbedingungen ausgeschlossen werden. An der zweiten Prüfungsstation konnten alle Studierenden in die Auswertung inkludiert werden. Auch am Messzeitpunkt 2 zeigte sich kein signifikanter Unterschied zwischen Interventions- und Kontrollgruppe.
Schlussfolgerung: Im Kontext des curricularen chirurgischen Training praktischer Fertigkeiten konnte für das Erlernen des sterilen Arbeitens kein Unterschied zwischen reinem mündlichen Feedback und Videofeedback nachgewiesen werden.
Quantitative 7gLp(a)- Bestimmungen im Humanserum wurden mit zwei unterschiedlichen immunelektrophoretischenTechniken - der Raketenimmunelektrophorese (RIE) und dem Zonen- Immunelektrophorese- Assay (ZIA) durchge-führt. Ein Vergleich der Ergebnisse beider Methoden zeigte im Bereich von 6 -80 mg l dl eine gute Übereinstimmung(r = 0.9919).Lp(a) -Konzentrationen unter 6 mg /dl können mit der Raketen- Technik nicht mehr quantitativ nachgewiesen werden,da nach Laurell (12) Präzipitathöhen kürzer als 5mm nicht mehr proportional zur Konzentration des Antigens sind.Bei dem ZIA dagegen können Lp(a)-Konzentrationen von 1 -6 mg /dl noch gut und reproduzierbar nachgewiesenwerden.
Für diese retrospektive Studie wurden 157 Sportlerinnen in den Sportarten Fußball, Handball und Basketball über ihre Verletzungen und Fehlbelastungsfolgen in einem Erfassungszeitraum von 4 Jahren befragt. Die Sportlerinnen wurden in die Leistungsklassen Hochleistungssport und Leistungssport eingeteilt.
Die Probandinnen waren im Fußball durchschnittlich 22,2 Jahre alt, hatten im Schnitt 12,7 Trainingsjahre hinter sich und trainierten 7,9 Stunden in der Woche mit einem prozentualen Krafttrainingsanteil von 23%. Die Wettkampfanzahl pro Jahr lag bei durchschnittlich 32,7. Die relativ kleine Anzahl von 7 Hochleistungsfußballerinnen kann diese Werte als zu niedrig verfälscht haben.
Im Handball lag das Durchschnittsalter bei 25,1 Jahren, 16,3 Trainingsjahren und 8,9 Wochenstunden Training mit 16% Krafttrainingsanteil. Die Zahl der Wettkämpfe betrug durchschnittlich 33,4 pro Jahr.
Die Basketballerinnen waren durchschnittlich 23,6 Jahre alt, seit 12,7 Jahren im Training und von 9,7 Stunden Wochentraining zu 18% im Kraftraum. Sie absolvierten 41,6 Wettkämpfe im Jahr.
Im Erfassungszeitraum von 4 Jahren trat bei fast allen Sportlerinnen, bis auf 4 Leistungssportlerinnen im Fußball, mindestens einmal akut eine Verletzung auf, bei allen jedoch mindestens einmal eine Fehlbelastungsfolge. Das heißt, dass 97% der Befragten mindestens einmal akut verletzt waren, in Sportarten aufgeteilt, dass zu 100% im Handball und Basketball jede Sportlerin mindestens einmal verletzt war.
Im Fußball ergab sich eine Verletzungshäufigkeit von 2,18 akuten Verletzungen, bzw. 2,25 Fehlbelastungsfolgen pro Jahr. Auf je 100 Belastungsstunden gab es 0,47 Verletzungen bzw. 0,50 Fehlbelastungsfolgen pro Jahr. Die Handballerinnen hatten eine Verletzungshäufigkeit von 2,55 pro Jahr und 2,12 Fehlbelastungsfolgen. Auf 100 Belastungsstunden entspricht dies einer Verletzungshäufigkeit von 0,53 akuten Verletzungen pro Spielerin und 0,43 Fehlbelastungsfolgen pro Jahr.
Im Basketball lag die Verletzungshäufigkeit bei 1,89 akuten Verletzungen und bei 1,71 Fehlbelastungsfolgen, bzw. bei 0,35 akuten Verletzungen und bei 0,32 Fehlbelastungsfolgen bezogen auf 100 Belastungsstunden.
Hochleistungssportlerinnen waren aufgrund des relativ hohen Trainingsumfanges und der Wettkampfbelastung gegenüber den Leistungssportlerinnen pro Jahr absolut gesehen häufiger verletzt und mussten mit mehr Fehlbelastungsfolgen rechnen.
Pro Belastungsstunde zeigten jedoch die Leistungssportlerinnen mehr
Sportverletzungen und auch Fehlbelastungsfolgen. Ein erhöhtes Trainingspensum bzw. Wettkampfpensum bedeuten also nicht gleichviel mehr Verletzungen.
Rund 52% aller akuten Verletzungen waren leichte Verletzungen ohne notwendige Sportpause oder ärztliche Behandlung, etwa 28% waren mittelschwer, d.h. sie machten eine Sportpause von kürzer als 2 Wochen und/oder eine Behandlung durch einen Arzt notwendig und etwa 19% waren schwerer Art mit ärztlicher Behandlung und einer Sportpause von länger als 2 Wochen.
77% aller Fehlbelastungsfolgen waren leichte, rund 20% mittelschwer und lediglich ca. 3% aller Fehlbelastungsfolgen schwer. Todesfälle oder Invaliditätsfälle konnte diese Studie nicht erfassen.
Die meisten Verletzungen ereigneten sich im Wettkampf mit ca. 52% im Vergleich zu etwa 48% im Training. Da nun aber die Wettkampfzeit deutlich geringer ist als die Trainingszeit, ergab sich in den einzelnen Sportarten folgende Relation: im Fußball liegt der Faktor, der eine Aussage über die erhöhte Verletzungswahrscheinlichkeit im Wettkampf macht, bei 9, im Basketball bei 17 und im Handball ergab sich der Faktor 20. Diese Zahlen verdeutlichen die erhöhte Risikobereitschaft und damit
Verletzungsgefahr im Wettkampf.
Die häufigsten Verletzungen betrafen die Muskeln mit über 30% aller Verletzungen, insbesondere im Fußball und Handball, gefolgt von Gelenkverletzungen wie Supinationstraumata im oberen Sprunggelenk, besonders im Fußball und Basketball, und Distorsionen der Finger, besonders Handball und Basketball. Die meisten Fehlbelastungsfolgen zeigten sich an Gelenken, wie Hüftgelenk und Sprunggelenk im Fußball, Schulter-, Ellenbogen- und Kniegelenk im Handball und Sprung- und Kniegelenk im Basketball.
Die meisten der oben aufgeführten Beschwerden zogen keine weiteren
Konsequenzen wie Trainingsausfall oder Notwendigkeit einer ärztlichen Behandlung nach sich, sie sollten jedoch Anlass dafür sein, diese als erste Warnsymptome des Körpers zu erkennen, um weitere Schäden vermeiden zu können. Rund 3% aller Verletzungen oder Fehlbelastungsfolgen waren Frakturen, insbesondere im Fußball traten Zehen-, Clavicula-, Nasenbein- und Kieferfrakturen auf. 10% aller Frakturen waren Stressfrakturen.
Die meisten akuten Verletzungen ereigneten sich an der unteren Extremität mit über 50, in allen drei Sportarten, am häufigsten im Fußball (66% im Leistungssport und 59% im Hochleistungssport) und Basketball (67% im Hochleistungssport und 55% im Leistungssport). Auch die Fehlbelastungsfolgen waren an der unteren Extremität am häufigsten, im Basketball 67%, im Handball über 50% und im Fußball 48%.
Die obere Extremität war bei allen drei Sportarten (Fußball 18%, Handball und Basketball je 35%) am zweithäufigsten Ort akuter Verletzungen. Nur im Handball waren auch die Fehlbelastungsfolgen am zweithäufigsten betroffen. Dies war der Rumpf mit 36% im Fußball und 20% im Basketball.
Akute Verletzungen in der Kopfregion traten mit 14% im Fußball, mit 12% im Handball und mit knapp 5% im Basketball auf. Fehlbelastungsfolgen waren nur im Fußball mit fast 10% erwähnenswert.
Der Rumpf war in allen drei Sportraten selten akut verletzt, im Fußball mit fast 3% Anteil an allen akuten Verletzungen noch am häufigsten. Fehlbelastungsfolgen in der Rumpfregion traten bei den Handballerinnen mit fast 11% am seltensten auf.
Die meisten akuten Verletzungen pro Spielerin und Jahr zogen sich die Hochleistungsspielerinnen im Vergleich zu den Leistungssportlerinnen zu, im Fußball mit 2,68, im Handball mit 2,55 und Basketball mit 2,42 pro Spielerin und Jahr. Bei den Leistungssportlerinnen verletzten sich akut pro Jahr mit 2,54 Verletzungen die Handballerinnen, mit 2,08 die Fußballerinnen und mit 1,7 Verletzungen die Basketballerinnen.
Auf je 100 Belastungsstunden, Trainings- und Wettkampfstunden addiert, verletzten sich mit 0,58 akuten Verletzungen pro Jahr am häufigsten die Handballerinnen aus dem Leistungsbereich, gefolgt von den Fußballerinnen mit 0,48 Verletzungen im Leistungs- und 0,45 im Hochleistungsbereich. Die Handballerinnen im Spitzenbereich waren 0,34mal im Jahr akut verletzt. Mit 0,31 im Hochleistungsbereich bzw. 0,37 im Leistungsbereich verletzten sich die Basketballerinnen am seltensten.
Insgesamt gesehen verletzten sich am häufigsten pro Jahr und Spielerin die Handballerinnen mit durchschnittlich 2,55 Verletzungen, die Fußballerinnen mit 2,18 und die Basketballerinnen mit 1,89 Verletzungen.
Auf 100 Belastungsstunden ergab sich die gleiche Reihenfolge.
Die meisten Fehlbelastungsfolgen traten mit 2,54 pro Spielerin und Jahr im Hochleistungsbereich der Fußballerinnen auf und mit 2,48 im Handball des Spitzenbereichs. Mit 1,79 im Leistungsbereich bzw. 1,48 im Hochleistungsbereich waren die Basketballerinnen am seltensten verletzt.
Auf 100 Belastungsstunden zeigt sich mit 0,52 pro Spielerin und Jahr bei den Fußballleistungsspielerinnen die größte Verletzungshäufigkeit, gefolgt von den Handballerinnen im gleichen Leistungsniveau. Mit 0,19 Fehlbelastungsfolgen waren die Basketballerinnen im Hochleistungsbereich am seltensten verletzt.
Alle Sportlerinnen in der jeweiligen Sportart, zusammen betrachtet, zeigen, dass die Fußballerinnen mit 2,48 Fehlbelastungsfolgen pro Jahr zu rechnen haben, Handballerinnen mit 2,12 und Basketballerinnen mit 1,71 Fehlbelastungsfolgen.
Der überwiegende Teil aller akuten Verletzungen und Fehlbelastungsfolgen blieb für die Spielerinnen ohne Konsequenzen, d.h. sie hatten keine Sportpause und benötigten keinen Arztbesuch, in dieser Studie als leichte Verletzungen/Fehlbelastungsfolgen definiert.
Etwa jede vierte Verletzung bei den Basketballerinnen war von schwerer Art, d.h. eine Sportpause von länger als 2 Wochen und eine ärztliche Behandlung waren notwendig, darunter z. Bsp. Außenbandrupturen am oberen Sprunggelenk und Meniskusschäden. Etwa jede fünfte akute Verletzung, wie z. Bsp. Commotio cerebri, Nasenbeinfrakturen oder Distorsionen des Schultergelenkes, zwang die Fußballerinnen und Handballerinnen zu einer zweiwöchigen Sportkarenz.
Schwere Fehlbelastungsfolgen, wie z.B. Stressfrakturen der Tibia, hatten in allen drei Sportarten nur einen verschwindend geringen Anteil.
Vor Beginn eines leistungsmäßig-betriebenen Sports sollte eine sportärztliche Untersuchung durchgeführt werden, um Verletzungen und Überlastungsschäden, die aufgrund von anatomischen Varianten oder pathologischen Bewegungsmustern entstehen könnten, zu vermeiden, bzw. zu reduzieren. Pathologische Befunde bei Jugendlichen können Grund dafür sein, dass vom leistungsmäßigen Spiel abzuraten ist, um Sportschäden zu vermeiden.
Am Anfang sollte die Sportlerin für Materialbeschaffung fachkundigen Rat einholen, um mit optimalem Schutz (z. Bsp. Schienbeinschützer, hohe Basketballschuhe) einer Verletzung vorzubeugen.
Anatomische Varianten und Fehlstellungen des Bewegungsapparates sollten durch entsprechendes Material (z. Bsp. Einlagen, Sprunggelenksorthesen, Tape), aber auch durch ein gezieltes, individuelles Kraft-, Koordinations- und Techniktraining ausgeglichen werden. Besonders der Ausgleich einer muskulären Dysbalance im Bereich der Sprunggelenke (z. Bsp. Supinationstraumata) könnte das Verletzungsrisiko in dieser Region reduzieren.
Das Tapen bestimmter Gelenke (z. B. twin-taping an den Fingern) oder das sog. „physiologische Tapen“ sollte fachkundig angeleitet und ausgeführt werden.
Fehlerhafte Technik, mangelnde Kondition und mangelnder Trainingsaufbau sind ebenfalls Ursache für Verletzungen und Überlastungsschäden.
Somit ist die Zusammenarbeit von Ärzten, Trainern, Sportpsychologen und Physiotherapeuten von großer Bedeutung, um auf ausreichende Regenerationszeiten, realistische Zielsetzungen in der Rehabilitation, gesunde und richtige Ernährung sowie auf einen gutstrukturierten Trainingsaufbau achten zu können.
Im leistungsmäßig-betriebenen Sport ist die Risikobereitschaft immer hoch, so dass besonders im Auftreten von weiteren Faktoren wie Konzentrationsschwäche, Müdigkeit, mangelhaften Materials, fehlerhafter Ernährung etc. ein erhöhtes Verletztungspotential vorliegt.
Der überwiegende Anteil aller in dieser Studie erfassten Verletzungen trat während eines Wettkampfes auf, auch durch den Einfluss des Gegners. Um den Anteil an den Verletzungen, die aufgrund von Regelwidrigkeiten entstanden sind, zu reduzieren, sind von den Schiedsrichtern diese Regelverstöße konsequent zu ahnden, bzw. die Spielregeln durch die Sportverbände zu ändern.
Zielsetzung: Die Daten für das Jahr 2018 des Registers „Abdominelles Aortenaneurysma“ (AAA) des Deutschen Instituts für Gefäßmedizinische Gesundheitsforschung (DIGG) der Deutschen Gesellschaft für Gefäßchirurgie und Gefäßmedizin werden vorgestellt.
Methodik: Im Jahr 2018 beteiligten sich an dem Register insgesamt 135 Kliniken. Für die offene Versorgung (OR) des intakten AAA (iAAA) gaben 118 (87,4 %) Kliniken, für die endovaskuläre Versorgung (EVAR) des iAAA 133 (98,5 %) Kliniken Daten ein. Für das rupturierte AAA (rAAA) wurden von 80 Kliniken (59,3 %) (EVAR) bzw. 65 (48,1 %) Kliniken (OR) Patienten gemeldet. Ausgewertet wurden die Daten von 4051 stationär behandelten Patienten.
Ergebnisse: 2800 iAAA (75,8 %) wurden endovaskulär und 895 (24,2 %) offen versorgt. Bei den endovaskulär versorgten Patienten mit iAAA verlief der Eingriff in 86,4 % der Fälle komplikationslos. Es verstarben insgesamt 32 Patienten (1,1 %) bis zur Entlassung. Bei den offen versorgten Patienten wiesen 73,4 % der Patienten keine Komplikationen auf. Verstorben sind insgesamt 42 Patienten (4,7 %). Von den 356 Patienten mit rAAA wurden 192 (53,9 %) endovaskulär und 164 (46,1 %) offen versorgt. Nur 11,0 % der mit OR versorgten Patienten, aber 23,4 % bei EVAR wiesen freies Blut in der Bauchhöhle auf. Bei EVAR sind 30,7 % der Patienten während des stationären Aufenthalts verstorben, bei OR 20,1 %.
Schlussfolgerung: Die Ergebnisse des Jahres 2018 zu Klinikletalität und Morbidität bei endovaskulärer und offener Versorgung des iAAA bestätigen weitestgehend die publizierten Ergebnisse für die Jahre 2013 bis 2017. Beim rAAA wurde 2018 erstmals über mehr endovaskuläre als offene Versorgungen berichtet – mit Ergebnissen, die denen der Vorjahre diametral entgegengesetzt waren. Patienten mit EVAR wiesen die höhere Komorbidität als Patienten mit OR auf und die Klinikletalität war höher. Es bleiben die Ergebnisse der Folgejahre abzuwarten, um diesen Trend genauer bewerten zu können.
Hintergrund: Durch COVID-19 kam es weltweit, insbesondere in den ersten Wochen der Pandemie, zu einer Verschiebung und Absage elektiver Operationen in allen chirurgischen Fachdisziplinen. Eine Beschreibung der spezifischen Situation in gefäßchirurgischen Kliniken in Deutschland während dieser Periode ist bislang nicht erfolgt.
Ziel der Arbeit: Zweck der Befragung war die Erfassung der gefäßchirurgischen Leistungserbringung in der Zeit von März 2020 bis Dezember 2020, sowie von logistischen und infrastrukturellen Veränderungen, die sich durch die pandemische Lage ergeben hatten. Hierbei lag der Fokus der Umfrage auf der möglichst realitätsnahen Abbildung der Versorgungssituation anhand der Einschätzung der leitenden Gefäßchirurg*innen.
Material und Methoden: In Zusammenarbeit mit der Deutschen Gesellschaft für Gefäßchirurgie und Gefäßmedizin (DGG) wurde das leitende ärztliche Personal von gefäßchirurgischen Einrichtungen in Deutschland aufgefordert, an der Umfrage teilzunehmen. Die Beantwortung der Fragen erfolgte anonym.
Ergebnisse: Durch COVID-19 und korrespondierende Maßnahmen kam und kommt es zu relevanten Absagen und Verschiebungen von Operationen, Verlust an Kapazitäten und einer gesteigerten Personalbelastung. Es traten im Beobachtungszeitraum verspätete Versorgungen gefäßchirurgischer Krankheitsbilder und ein gehäuftes Auftreten schwererer klinischer Stadien verglichen mit dem entsprechenden Vorjahreszeitraum auf. Betroffen sind alle Versorgungsstufen, größtenteils dauern diese Veränderungen an.
Diskussion: Um der strukturellen Schwächung und den Einschränkungen in der Patientenversorgung zu begegnen, sind klinische Abläufe, Patientenaufklärung und Priorisierung zu optimieren. Neue Konzepte wie z. B. Telemedizin und engmaschigere klinische Kontrolle sind ggf. sinnvoll. Eine erforderliche Infrastruktur für Notfallmanagement (COVID) darf im Alltag nicht die Versorgungsqualität der gefäßchirurgischen Patient*innen negativ beeinflussen.
Im 20. Jahrhundert entwickelte sich die Kinderchirurgie aus der Allgemeinchirurgie als eigenständiges Fachgebiet, da zunehmend klar wurde, dass Kinder einer anderen Behandlung bedürfen als Erwachsene und andere Rahmenbedingungen benötigen. Während sich die Erwachsenenchirurgie danach in immer mehr Subdisziplinen aufteilte, ist die Kinderchirurgie ein generalistisches chirurgisches Fach geblieben.
Die vorliegende Arbeit analysiert die Entwicklung der Kinderchirurgie in Deutschland im Hinblick auf medizinische und nicht-medizinische Aspekte und die aktuelle Versorgungssituation, letzteres mit einem Vergleich der Ergebnisqualität ausgewählter angeborener Fehlbildungen im internationalen Vergleich.
Für die Analyse wurden Methoden der Versorgungsforschung angewandt. Die beinhaltete insbesondere die Nutzung von öffentlichen Statistiken und Sekundärdaten, die Statistiken der Deutschen Gesellschaft für Kinderchirurgie sowie die Befragung von ausgewählten Gruppen. Die Analyse bezog sich im Detail auf die Anzahl der Einrichtungen, die akademische und nicht akademische Ausrichtung der Leistungserbringer, die regionale Verteilung, die Personalentwicklung, die Verteilung von Patientinnen und Patienten zwischen den Fachgebieten und innerhalb der Kinderchirurgie und die Netzwerkbildung. Weiterhin wurde die Ergebnisqualität ausgewählter angeborener Fehlbildungen im internationalen Kontext analysiert.
Die Kinderchirurgie ist in Deutschland die Hauptdisziplin für die chirurgische Behandlung von Kindern und Jugendlichen geworden. Sie hat eine weitgehende Flächendeckung erreicht. Die Entwicklung wurde dabei von politischen Entscheidungen beeinflusst, was am Beispiel der Stagnation der Niederlassungen und der Zunahme der kinderchirurgischen Einrichtungen nach Änderung der Perinatal-Versorgung gezeigt werden konnte. Das Spektrum der Kinderchirurgie umfasst die allgemeine Kinderchirurgie, die Neugeborenenchirurgie, Kinderurologie, Kindertraumatologie, Thoraxchirurgie, Teile der Kinderneurochirurgie, plastische Kinderchirurgie, operative Kinderonkologie und die Verbrennungsmedizin. Sie geht damit weit über die Versorgung von angeborenen Fehlbildungen hinaus, wenngleich diese im Zentrum der politischen Diskussionen stehen. Die Arbeitsbedingungen in der Kinderchirurgie haben sich in den letzten Jahren konstant geändert. Die Zahl der Kliniken hat kontinuierlich zugenommen, genauso wie die Zahl der Fachärztinnen und Fachärzte. Der Anteil an Frauen und an Teilzeitbeschäftigten stieg ebenfalls. Die Zahl der ausgeschriebenen Stellen nahm in den Jahren 2021 und 2022 deutlich zu. Die Patientenzahl in den Abteilungen nahm insbesondere seit 2017 ab.
Für die Analyse der Ergebnisqualität wurden die Krankheitsbilder Ösophagusatresie, Dünndarmatresie, Colonatresie, Bauchwanddefekte und Zwerchfellhernien gewählt. Für Kinder mit Ösophagusatresie und Bauchwanddefekten konnte aufgrund der spezifischen Prozeduren die dezentrale Versorgung für Deutschland aufgezeigt werden. Der Vergleich der Ergebnisqualität der Versorgung von angeborenen Fehlbildungen zeigte keine schlechteres Mortalität bei den operierten Kindern mit Ösophagusatresie, den Kindern mit Bauchwanddefekten, Zwerchfellhernie und Darmatresien. Die Verweildauer entsprach bei der Ösophagusatresie, den Bauchwanddefekten und Zwerchfellhernie dem internationalen Vergleich, bei den Darmatresien war sie länger. Weiterhin gab es eine vermehrte Anlage von Stomata bei den Darmatresien.
Die Auswertung der Perinatalzentren Level 1 und 2 ergab eine konstant große Anzahl von Zentren ohne Kinderchirurgie am eigenen Standort. Im Bereich der seltenen Erkrankungen zeigte die Zuordnung der Kliniken zu den verschiedenen Zentren keine durchgehende Systematik. Das Gütesiegel „Ausgezeichnet für Kinder“ hatten 26 kinderchirurgische Kliniken, das Gütesiegel „Das schwerbrandverletzte Kind“ erhielten 16 Zentren für schwerbrandverletzte Kinder, 4 Erwachsenenzentren, die auch Kinder behandelten und 6 spezialisierte Kliniken für brandverletzte Kinder.
Zusammenfassend zeigt die Arbeit die erreichte Flächendeckung der Kinderchirurgie, die teilweise durch politische Entscheidungen geprägt ist. Das Spektrum ist weiterhin generalistisch geblieben, auch wenn nicht jede Abteilung alle Anteile des Spektrums abdeckt. Die Versorgung von angeborenen Fehlbildungen erfolgt grundsätzlich dezentral.
Toll-like Rezeptoren (TLRs) spielen als Pathogen-Erkennungsrezeptoren eine wichtige Rolle und vermitteln die angeborene Immunität. Nach Erkennung spezifischer Pathogene lösen sie in der Rezeptor tragenden Zelle eine Entzündungsreaktion aus und es kommt unter anderem zur Aktivierung von Proteinkinasen, des Transkriptionsfaktors NF-κB und zur Sekretion von Zytokinen. Während der TLR4 für die Erkennung von Lipopolysacchariden (LPS) verantwortlich ist, dient der TLR2 unter anderem als Rezeptor für Peptidoglycan, Lipoteichonsäure und Lipoproteine von gram-positiven Bakterien. In dieser Dissertation wurde das Vorkommen der TLR2 und TLR4 in den circumventriculären Organen (CVO), speziell im Subcommissuralorgan (SCO), untersucht. Im Hinblick darauf, dass die circumventriculären Organe durch das Fehlen einer Blut-Hirn-Schranke gekennzeichnet sind, ist das Vorkommen einer Abwehr durch das angeborene Immunsystem im Sinne von TLR2 und TLR4 von besonderem Interesse gewesen. Zur Darstellung der Verteilung der beiden Rezeptoren wurden immunhistochemische Färbungen an Gewebeschnitten von Wistar-Ratten durchgeführt.
Es konnte ein Vorkommen beider Rezeptor-Typen in den circumventriculären Organen und dem Plexus choroideus nachgewiesen werden. Vor allem zeigt sich ein verstärktes Vorkommen von TLRs an Gefäßen und dem fenestrierten Endothel der circumventriculären Organe sowie den umgebenden perivaskulären Räumen. Das SCO zeigte vor allem dort eine starke Tingierung, wo es in Kontakt zu den Ependymzellen des dritten Ventrikels steht. Die Rezeptoren scheinen auf Eventualitäten an prädisponierten Stellen entwickelt zu sein. Dies ermöglicht eine sofortige Abwehrreaktion auch bei raschem Eindringen von Pathogenen. Es wurden kaum immunreaktive Neurone oder Perikaryen gefunden, was auf eine Auseinandersetzung der Pathogene im zentralen Nervensystem (ZNS) mit den Epithelbarrieren spricht. Die frühzeitige Inhibition der Schadenskaskade durch die TLRs bereits an den Gefäßen der CVOs könnte neuroprotektive Bedeutung haben.
Objective: Vertigo is a common side effect of cochlear implant (CI) treatment. This prospective study examines the incidence of postoperative vertigo over time and aims to analyze influencing factors such as electrode design and insertion angle (IA).
Study Design and Setting: This is a prospective study which has been conducted at a tertiary referral center (academic hospital).
Patients: A total of 29 adults were enrolled and received a unilateral CI using one of six different electrode carriers, which were categorized into “structure-preserving” (I), “potentially structure-preserving” (II), and “not structure-preserving” (III).
Intervention: Subjective vertigo was assessed by questionnaires at five different time-points before up to 6 months after surgery. The participants were divided into four groups depending on the time of the presence of vertigo before and after surgery. Preoperatively and at 6 months postoperatively, a comprehensive vertigo diagnosis consisting of Romberg test, Unterberger test, subjective visual vertical, optokinetic test, video head impulse test, and caloric irrigation test was performed. In addition, the IA was determined, and the patients were divided in two groups (<430°; ≥430°).
Main Outcome Measures: The incidence of vertigo after CI surgery (group 1) was reported, as well as the correlation of subjective vertigo with electrode array categories (I–III) and IA.
Results: Among the participants, 45.8% experienced new vertigo after implantation. Based on the questionnaire data, a vestibular origin was suspected in 72.7%. The results did not show a significant correlation with subjective vertigo for any of the performed tests. In group 1 with postoperative vertigo, 18% of patients showed conspicuous results in a quantitative analysis of caloric irrigation test despite the fact that the category I or II electrodes were implanted, which are suitable for structure preservation. Average IA was 404° for the overall group and 409° for group 1. There was no statistically significant correlation between IA and perceived vertigo.
Conclusions: Though vertigo after CI surgery seems to be a common complication, the test battery used here could not objectify the symptoms. Further studies should clarify whether this is due to the multifactorial cause of vertigo or to the lack of sensitivity of the tests currently in use. The proof of reduced probability for vertigo when using atraumatic electrode carrier was not successful, nor was the proof of a negative influence of the insertion depth.
Die vorliegende Studie befasst sich mit dem Einfluss minimalinvasiver Zugangswege zur Mitralklappe auf den Herzrhythmus, den Erfolg einer perioperativ durchgeführten Ablation und die postoperative Notwendigkeit eines Herzschrittmachers.
Mitralklappenvitien und deren herzchirurgische Versorgung sind in vielen Fällen mit präoperativ bestehendem oder postoperativ neu auftretendem Vorhofflimmern assoziiert. In den vergangenen Jahrzehnten haben sich neben der medikamentösen Therapie des Vorhofflimmerns und der durch die Mitralklappeninsuffizienz induzierten Herzinsuffizienz verschiedene minimalinvasive chirurgische Zugangswege zur Mitralklappe sowie Ablationsverfahren etabliert und einen kurativen Therapieansatz gebildet.
Die Ablation im Zuge einer Mitralklappenchirurgie ist zu einem alltäglich durchgeführten Verfahren geworden.
Neu auftretendes Vorhofflimmern im Rahmen der Mitralklappenchirurgie kann perioperativ begrenzt sein und konvertiert häufig innerhalb der ersten 6 Wochen spontan in den Sinusrhythmus. Es geht aber mit einer erhöhten Mortalität und Hospitalisierungszeit einher. Das neu auftretende Vorhofflimmern kann jedoch auch persistieren oder erst im Langzeitverlauf entstehen. Auch die Notwendigkeit eines Herzschrittmachers kann durch Mitralklappeneingriffe insbesondere mit additiver Ablation aufgrund der anatomischen Gegebenheiten erhöht sein.
In unserer Arbeit ist von Interesse, ob sich die unten genannten Zugangswege im Hinblick auf das Neuauftreten von Vorhofflimmern im Langzeitverlauf, die Vorhofflimmerrezidivrate nach Ablation und die Schrittmacherrate mit und ohne durchgeführte Ablation unterscheiden.
Die vorliegende Studie umfasst alle Mitralklappenoperationen, die zwischen 1998 und 2015 in der Klinik für Thorax-, Herz- und thorakale Gefäßchirurgie der Universitätsklinik Frankfurt am Main über die folgenden drei minimalinvasiven Zugangswege, durchgeführt wurden: Gruppe A bildeten 300 Patienten, die im genannten Zeitraum über eine anterolaterale Minithorakotomie mittels Chitwood-Klemme operiert wurden. Gruppe B bestand aus 687 Patienten, die über eine partielle obere Sternotomie mit superiorem transseptalem Zugang operiert wurden. Die 219 Patienten, bei denen eine partielle obere Sternotomie mit transcavalem Zugang angewandt wurde, bildeten Gruppe C.
Die Auswertung erfolgte anhand von Patientenakten, internen und externen Untersuchungsbefunden und eines standardisierten Fragebogens im Follow-up. Es erfolgte eine zweite Auswertung nach Propensity Matching, um präoperative signifikante Unterschiede der Gruppen zu egalisieren.
Im Ergebnis konnte in unserer Studie gezeigt werden, dass die atriale Inzision einen entscheidenden Einfluss auf den Ablationserfolg sowie auf die Schrittmacherinzidenz hat. Bekannt war dabei ein höheres Risiko für postoperatives Vorhofflimmern und Schrittmacherimplantationen aufgrund der anatomischen Gegebenheiten bei Gruppe B. Dass jedoch Gruppe C ein signifikant noch höheres Risiko für Schrittmacherimplantationen mit sich bringt, war überraschend und ist derzeit nicht in der Literatur beschrieben.
In der multivariaten Analyse nach Matching waren Gruppe C, eine additive Ablation und das Alter signifikante unabhängige Prädiktoren für Schrittmacherimplantationen. In der logistischen Regression war Gruppe A ein unabhängiger Prädiktor für den Ablationserfolg zum Zeitpunkt der Entlassung. In der Langzeitbeobachtung trat Gruppe C an Stelle von Gruppe A, möglicherweise aufgrund der bei Gruppe A vorliegenden längsten Follow-up-Zeit. Wie schon in der vorliegenden Literatur diskutiert waren auch in unserer Auswertung hohes Alter und eine präoperative linksatriale Vergrößerung unabhängige Prädiktoren für den langfristigen Ablationserfolg.
Es bedarf weiterer vergleichender Studien mit einheitlichen Follow-up-Zeiten, um die hier gezeigten Ergebnisse zu überprüfen. Insbesondere der transcavale Zugang, der sich im negativen Sinne auf die Zahl der Schrittmacherimplantationen auszuwirken scheint, gibt Anlass für weitere Untersuchungen.
Health-care personnel (HCP) are exposed to infectious diseases throughout the course of their work. The concerns of pregnant HCP are considerable because certain otherwise mild infections may affect fetal development. We studied 424 pregnant HCP at the University Hospital Frankfurt / Germany between March 2007 and July 2011. Serological tests were carried out for varicella zoster virus (VZV), measles, mumps, rubella (MMR), cytomegalovirus (CMV) and parvovirus B19. Our overall seroprevalence data with regard to VZV, MMR, CMV and parvovirus B 19 corresponded to the general population. It was striking that, only 57.1% of the study population was immune against the four vaccine-preventable diseases (MMR, VZV). Our study suggests that a comprehensive approach to improving the vaccination status of said HCP before pregnancy is paramount.
Zum virologischen Nachweis einer akuten Influenza und zur Überprüfung des Immunstatus steht eine Vielzahl von Untersuchungsmethoden zur Verfügung. Bei Verdacht auf eine Influenzavirusinfektion liefert der Rachenabstrich das geeignete Untersuchungsmaterial. Das tiefe Nasopharynxaspirat ist etwas sensitiver, Sputum etwas weniger ergiebig. Die RT-PCR ermöglicht in 1–2 h nach Materialeingang ein sensitives und spezifisches Ergebnis. Typen, Subtypen und Driftvarianten lassen sich durch geeignete Primersonden, die kommerziell zur Verfügung stehen, einwandfrei identifizieren. Demgegenüber ist die Zellkultur-gestützte Virusisolierung zeitaufwendiger und stärker abhängig von einer sachgerechten Materialgewinnung und –überbringung (Kühlkette). PCR und Virusanzüchtung ermöglichen die geno- bzw. phänotypische Testung auf Therapieresistenzen. Der Antigentest ist eine einfache (bed-side) Schnellmethode. Seine Spezifität ist gut, die Sensitivität limitiert; daher kann der Antigentest nicht zur individuellen Ausschlussdiagnose eingesetzt werden. Influenzavirusspezifische Antikörper erscheinen im Blut erst in der zweiten Krankheitswoche. Die Serodiagnostik erfolgt typenspezifisch mit Komplementbindungsreaktion (KBR), IFT und ELISA über eine signifikante Titerbewegung oder den Nachweis von IgA-Antikörpern. IgG-spezifische IFT und ELISA Methoden geben Auskunft über die Influenzavirus-typspezifische Durchseuchung. Die klinisch relevantere subtypen- und variantenspezifische Influenzavirusimmunität wird mit dem HHT oder NT gemessen.
Die 1990 eingeführten ersten kommerziellen HCV-Antikörper-Screening Tests wurden im Laufe der Jahre bezüglich ihrer Sensitivität und Spezifität erheblich verbessert. Inzwischen sind auch standardisierte Verfahren zum qualitativen und quantitativen HCV-RNA-Nachweis verfügbar, die Dank der Einführung eines internationalen Standards miteinander vergleichbar sind. Aber auch mittels Antigen-ELISA ist es möglich, die im Patientenblut zirkulierende Virusmenge zu quantifizieren. Einer der Hauptübertragungswege – Bluttransfusion und Blutprodukte – der HCV-Infektion wurde durch die Verbesserung der virologischen Diagnostik nahezu eliminiert. Inzwischen sind i. v.-Drogenabhängige die Hauptrisikogruppe für eine HCV-Infektion. Bislang nur zu Forschungszwecken etablierte Methoden zur Messung der zellulären Immunität oder auch die Messung neutralisierender Antikörper könnten zum Beispiel im Rahmen einer Impfstoffentwicklung an Bedeutung gewinnen.
Dual-energy CT (DECT) has emerged into clinical routine as an imaging technique with unique postprocessing utilities that improve the evaluation of different body areas. The virtual non-calcium (VNCa) reconstruction algorithm has shown beneficial effects on the depiction of bone marrow pathologies such as bone marrow edema. Its main advantage is the ability to substantially increase the image contrast of structures that are usually covered with calcium mineral, such as calcified vessels or bone marrow, and to depict a large number of traumatic, inflammatory, infiltrative, and degenerative disorders affecting either the spine or the appendicular skeleton. Therefore, VNCa imaging represents another step forward for DECT to image conditions and disorders that usually require the use of more expensive and time-consuming techniques such as magnetic resonance imaging, positron emission tomography/CT, or bone scintigraphy. The aim of this review article is to explain the technical background of VNCa imaging, showcase its applicability in the different body regions, and provide an updated outlook on the clinical impact of this technique, which goes beyond the sole improvement in image quality.
Background: Computerized virtual patients (VP) have spread into many areas of healthcare delivery and medical education. They provide various advantages like flexibility in pace and space of learning, a high degree of teaching reproducibility and a cost effectiveness. However, the educational benefit of VP as an additive or also as an alternative to traditional teaching formats remains unclear. Moreover, there are no randomized-controlled studies that investigated the use of VP in a dental curriculum. Therefore, this study investigates VP as an alternative to lecturer-led small-group teaching in a curricular, randomized and controlled setting.
Methods: Randomized and controlled cohort study. Four VP cases were created according to previously published design principles and compared with lecturer-led small group teaching (SGT) within the Oral and Maxillofacial Surgery clerkship for dental students at the Department for Cranio-, Oral and Maxillofacial Plastic Surgery, Goethe University, Frankfurt, Germany. Clinical competence was measured prior (T0), directly (T1) and 6 weeks (T2) after the intervention using theoretical tests and a self-assessment questionnaire. Furthermore, VP design was evaluated using a validated toolkit.
Results: Fifty-seven students (VP = 32; SGT = 25) agreed to participate in the study. No competence differences were found at T0 (p = 0.56). The VP group outperformed (p < .0001) the SGT group at T1. At T2 there was no difference between both groups (p = 0.55). Both interventions led to a significant growth in self-assessed competence. The VP group felt better prepared to diagnose and treat real patients and regarded VP cases as a rewarding learning experience.
Conclusions: VP cases are an effective alternative to lecture-led SGT in terms of learning efficacy in the short and long-term as well as self-assessed competence growth and student satisfaction. Furthermore, integrating VP cases within a curricular Oral and Maxillofacial Surgery Clerkship is feasible and leads to substantial growth of clinical competence in undergraduate dental students.
Background: Standardized neuropsychological testing serves to quantify cognitive impairment in multiple sclerosis (MS) patients. However, the exact mechanism underlying the translation of cognitive dysfunction into difficulties in everyday tasks has remained unclear. To answer this question, we tested if MS patients with intact vs. impaired information processing speed measured by the Symbol Digit Modalities Test (SDMT) differ in their visual search behavior during ecologically valid tasks reflecting everyday activities.
Methods: Forty-three patients with relapsing-remitting MS enrolled in an eye-tracking experiment consisting of a visual search task with naturalistic images. Patients were grouped into “impaired” and “unimpaired” according to their SDMT performance. Reaction time, accuracy and eye-tracking parameters were measured.
Results: The groups did not differ regarding age, gender, and visual acuity. Patients with impaired SDMT (cut-off SDMT-z-score < −1.5) performance needed more time to find and fixate the target (q = 0.006). They spent less time fixating the target (q = 0.042). Impaired patients had slower reaction times and were less accurate (both q = 0.0495) even after controlling for patients' upper extremity function. Exploratory analysis revealed that unimpaired patients had higher accuracy than impaired patients particularly when the announced target was in unexpected location (p = 0.037). Correlational analysis suggested that SDMT performance is inversely linked to the time to first fixation of the target only if the announced target was in its expected location (r = −0.498, p = 0.003 vs. r = −0.212, p = 0.229).
Conclusion: Dysfunctional visual search behavior may be one of the mechanisms translating cognitive deficits into difficulties in everyday tasks in MS patients. Our results suggest that cognitively impaired patients search their visual environment less efficiently and this is particularly evident when top-down processes have to be employed.
Aims: Understanding the orientation of fracture lines and mechanisms is the essential key to sufficient surgical therapy, but there is still a lack of visualization and teaching methods in traumatology and fracture theory. 3D-printed models offer easy approach to those fractures. This paper explains the use of the teaching possibility with 3-dimensional models of transitional fractures of the ankle.
Methods and results: For generating 3D printable models, already obtained CT data were used and segmented into its different tissues, especially parts concerning the fracture. After the segmentation process, the models were produced with FFF (fused filament fabrication) printing technology. The fracture models then were used for hands-on teaching courses in AO course (Arbeitsgemeinschaft für Osteosynthesefragen) of pediatric traumatology in 2020 in Frankfurt. In the course fracture anatomy with typical fracture lines, approaches, and screw placement could be shown, discussed and practiced.
Conclusion: The study shows the use of 3D-printed teaching models and helps to understand complicated fractures, in this case, transitional fractures of the ankle. The teaching method can be adapted to numerous other use cases.
The evaluation of pharmacological data using machine learning requires high data quality. Therefore, data preprocessing, that is, cleaning analytical laboratory errors, replacing missing values or outliers, and transforming data adequately before actual data analysis, is crucial. Because current tools available for this purpose often require programming skills, preprocessing tools with graphical user interfaces that can be used interactively are needed. In collaboration between data scientists and experts in bioanalytical diagnostics, a graphical software package for data preprocessing called pguIMP is proposed, which contains a fixed sequence of preprocessing steps to enable reproducible interactive data preprocessing. As an R-based package, it also allows direct integration into this data science environment without requiring any programming knowledge. The implementation of contemporary data processing methods, including machine-learning-based imputation techniques, ensures the generation of corrected and cleaned bioanalytical data sets that preserve data structures such as clusters better than is possible with classical methods. This was evaluated on bioanalytical data sets from lipidomics and drug research using k-nearest-neighbors-based imputation followed by k-means clustering and density-based spatial clustering of applications with noise. The R package provides a Shiny-based web interface designed to be easy to use for non–data analysis experts. It is demonstrated that the spectrum of methods provided is suitable as a standard pipeline for preprocessing bioanalytical data in biomedical research domains. The R package pguIMP is freely available at the comprehensive R archive network (https://cran.r-project.org/web/packages/pguIMP/index.html).
Bis einschließlich 10. Januar 2006 infizierten sich in Asien rund 150 Menschen mit dem Erreger der Vogelgrippe H5N1. In sechs Ländern (Kambodscha, China, Indonesien, Thailand, Vietnam und Türkei) verstarben an der “Hühnergrippe” rund 80 Patienten. Eine Übertragung von Mensch zu Mensch scheint in Einzelfällen möglich. Eine Pandemie hat der Erreger bisher nicht ausgelöst: Er wurde nicht (effektiv) von Mensch zu Mensch übertragen.
Aktuell erscheint aber eine Ausweitung der Hühnergrippe auch in Europa denkbar. Meldungen aus Rumänien im Oktober 2005 lassen eine Ausbreitung des H5N1-Erregers bei Wasservögeln vermuten. Jetzt (Stand Januar 2006) wurden auch aus der Türkei mehrere Infektionen des Menschen, davon drei Todesfälle, bekannt.
Sorge bereitet Experten die Möglichkeit eines genetischen “Reassortment” durch eine gleichzeitige Doppel-Infektion eines Wirtes (Mensch, Schwein) mit humanen und aviären Influenza-A-Viren-Erregern. Der neue Subtyp könnte bei passender Adaption an die menschlichen Zellen zu einer neuen Pandemie führen.
The thickness of the cerebral cortex can provide valuable information about normal and abnormal neuroanatomy. High resolution MRI together with powerful image processing techniques has made it possible to perform these measurements automatically over the whole brain. Here we present a method for automatically generating voxel-based cortical thickness (VBCT) maps. This technique results in maps where each voxel in the grey matter is assigned a thickness value. Sub-voxel measurements of thickness are possible using sub-sampling and interpolation of the image information. The method is applied to repeated MRI scans of a single subject from two MRI scanners to demonstrate its robustness and reproducibility. A simulated data set is used to show that small focal differences in thickness between two groups of subjects can be detected. We propose that the analysis of VBCT maps can provide results that are complementary to other anatomical analyses such as voxel-based morphometry.
Hintergrund: Kardiovaskuläre Erkrankungen sind die Haupttodesursache in den Industrienationen. Viele betroffene Patienten haben nur ein geringes Verständnis für ihre Erkrankung. Insbesondere endovaskuläre Eingriffe überschreiten Vorstellungskraft und Verständnis der Patienten häufig um ein Vielfaches. Die ärztliche Eingriffsaufklärung soll den Patienten Einsicht über das Verfahren und mögliche Komplikationen ermöglichen, um dem Patienten autonome Entscheidungen zu erleichtern. In der einschlägigen Literatur wird vielfach diskutiert, wie sich der Aufklärungsprozess komplizierter Prozeduren, wie etwa einer Herzkatheteruntersuchung, optimieren lässt. Jüngst wurden dabei insbesondere moderne Ansätze, wie multimediale Verfahren oder interaktive Tools evaluiert, wobei diese Methoden nach aktueller Studienlage zu einer Verbesserung des Verständnisses und einer Reduktion der Untersuchungsangst führen konnten. Insbesondere Patienten mit geringem Bildungsniveau profitieren dabei von persönlichen Erfahrungen zur Verbesserung des prozeduralen Verständnisses. Diesen Ergebnissen entsprechend, macht es sich die vorliegende Arbeit zur Aufgabe, zu evaluieren, ob sich die Implementierung eines VR-Simulators in den Aufklärungsprozess einer Herzkatheteruntersuchung positiv auf Informiertheit und Untersuchungsangst bei den Patienten auswirkt.
Patienten und Methoden: Nach mündlicher Einwilligung zur Teilnahme an unserer Studie, erhielt ein Teil der Patienten zusätzlich zur herkömmlichen verbalen Aufklärung eine Demonstration des Untersuchungsablaufs einer PCI an einem VR-Simulator. Zusätzlich erhielten diese Patienten die Möglichkeit eine Katheteruntersuchung am Simulator nachzuempfinden. Für unsere Studie verwendeten wir einen VR-Simulator der Firma Xitact® (später Mentice®) mit einer Software der Firma Cathi®. Der Simulationsgruppe wurden 3 verschiedene Komplikationen mittels Abbildungen demonstriert. Im Anschluss beantworteten sowohl die konventionell, als auch die mit Simulation aufgeklärten Patienten einen von uns konzipierten Fragebogen.
Ergebnisse: Beide Gruppen fühlten sich nach der Aufklärung ausreichend informiert. Bezüglich der subjektiven Informiertheit zeigten sich keine signifikanten Unterschiede zur konventionellen Aufklärungsmethode (p=0.11). In der Kontrollgruppe bestanden nach konventioneller Aufklärung, trotz guter subjektiver Informiertheit, bei fast 90% der Patienten weiterhin offene Fragen bezüglich der Untersuchung, während sich diese Diskrepanz in der Simulationsgruppe nicht ergab (p<0.00001). Ferner standen die Patienten der Simulationsgruppe der anstehenden Untersuchung ruhiger gegenüber (0=0.049), während die Patienten der Kontrollgruppe angaben, tendenziell unruhig in die Untersuchung zu gehen (p=0.002). Es boten sich keinerlei Hinweise darauf, dass die Demonstration möglicher Komplikationen zu einer verstärkten Untersuchungsangst geführt hätte. Die Implementierung des Simulators hat sich insgesamt positiv auf das prozedurale Interesse des Patienten ausgewirkt.
Schlussfolgerung: Insgesamt hatte die Implementierung des VR Simulators in die Patientenaufklärung überwiegend positive Effekte und keinerlei negativen Effekte. Im direkten Vergleich zur konventionellen Aufklärung zeigten sich bezüglich der Informiertheit zunächst keine signifikanten Unterschiede zur konventionellen Aufklärungsmethode. Die erhobenen Daten deuten jedoch auf eine Überlegenheit der simulationsgestützten Aufklärung in Bezug auf Verständnis und Untersuchungsangst hin. Festzuhalten ist allerdings der hohe zusätzliche zeitliche Aufwand, mit dem eine simulationsgestützte Aufklärung verbunden ist. Die generelle Implementierung eines VR Simulators allein zum Zwecke der Patientenaufklärung wird daher nur bedingt empfohlen. Kliniken, die bereits über einen VR Simulator verfügen, sollten allerdings erwägen, diesen nicht nur für Ausbildungszwecke zu verwenden, sondern auch zum Zwecke der Patientenaufklärung.
In recent years, the clinical usefulness of the Wada test (WT) has been debated among researchers in the field. Therefore, we aimed to assess its contribution to the prediction of change in verbal learning and verbal memory function after epilepsy surgery. Data from 56 patients with temporal lobe epilepsy who underwent WT and subsequent surgery were analyzed retrospectively. Additionally, a standard neuropsychological assessment evaluating attentional, learning and memory, visuospatial, language, and executive function was performed both before and 12 months after surgery. Hierarchical linear regression analyses were used to determine the incremental value of WT results over socio-demographic, clinical, and neuropsychological characteristics in predicting postsurgical change in patients’ verbal learning and verbal memory function. The incorporation of WT results significantly improved the prediction models of postsurgical change in verbal learning (∆R2 = 0.233, p = .032) and verbal memory function (∆R2 = 0.386, p = .005). Presurgical performance and WT scores accounted for 41.8% of the variance in postsurgical change in verbal learning function, and 51.1% of the variance in postsurgical change in verbal memory function. Our findings confirm that WT results are of significant incremental value for the prediction of postsurgical change in verbal learning and verbal memory function. Thus, the WT contributes to determining the risks of epilepsy surgery and, therefore, remains an important part of the presurgical work-up of selected patients with clear clinical indications.
Trotz der Relevanz des Themas Suizidalität und gut bekannter Risikofaktoren gibt es bisher keine deutsche Leitlinie zur Suizidalität im Erwachsenenalter. In diesem Beitrag werden zunächst die Geschichte und die Hintergründe der Arbeit mit Leitlinien beschrieben. Der aktuelle Stand der Leitlinien für psychische Erkrankungen in Deutschland wird dargestellt und auf suizidpräventive Inhalte hin untersucht. Die Notwendigkeit evidenzbasierter Suizidprävention und einer spezifischen Leitlinie zur Suizidprävention bei Erwachsenen wird diskutiert.
Nur durch gezielte Suizidpräventionsstrategien und Interventionen für die jeweiligen Risikogruppen und unter Beachtung von Alters- und Geschlechtsspezifität kann für alle Betroffenen eine flächendeckende, gut erreichbare, bedarfs- und versorgungsgerechte, finanzierbare sowie nachhaltige medizinische Versorgung auf einem hohen Niveau sichergestellt werden. Dies gilt für den ambulanten und den stationären Bereich sowie für deren Schnittstellen. Bei Suizidalität handelt es sich um ein diagnoseübergreifendes, in unterschiedlichen Versorgungskontexten auftretendes Syndrom mit komplexem Behandlungsbedarf, weshalb intersektorale und multiprofessionelle Aspekte in einer entsprechenden Leitlinie besonders zu adressieren sind. Wissenschaftliche Evidenz und interdisziplinärer Konsens unter Expertinnen und Experten zum Umgang mit suizidalem Verhalten in der medizinischen Versorgung können dazu beitragen, Morbidität und Mortalität im Zusammenhang mit Suizidalität zu reduzieren. Im August 2021 wurde die Finanzierung einer S3-Leitlinie „Umgang mit Suizidalität“ vom Innovationsfonds des Gemeinsamen Bundesausschusses bewilligt.
Wastewater-based epidemiology (WBE) has demonstrated its importance to support SARS-CoV-2 epidemiology complementing individual testing strategies. Due to their immune-evasive potential and the resulting significance for public health, close monitoring of SARS-CoV-2 variants of concern (VoC) is required to evaluate the regulation of early local countermeasures. In this study, we demonstrate a rapid workflow for wastewater-based early detection and monitoring of the newly emerging SARS-CoV-2 VoCs Omicron in the end of 2021 at the municipal wastewater treatment plant (WWTP) Emschermuendung (KLEM) in the Federal State of North-Rhine-Westphalia (NRW, Germany).
Initially, available primers detecting Omicron-related mutations were rapidly validated in a central laboratory. Subsequently, RT-qPCR analysis of purified SARS-CoV-2 RNA was performed in a decentral PCR laboratory in close proximity to KLEM. This decentralized approach enabled the early detection of K417N present in Omicron in samples collected on 8th December 2021 and the detection of further mutations (N501Y, Δ69/70) in subsequent biweekly sampling campaigns. The presence of Omicron in wastewater was confirmed by next generation sequencing (NGS) in a central laboratory with samples obtained on 14th December 2021. Moreover, the relative increase of the mutant fraction of Omicron was quantitatively monitored over time by dPCR in a central PCR laboratory starting on 12th December 2021 confirming Omicron as the dominant variant by the end of 2021.
In conclusions, WBE plays a crucial role in surveillance of SARS-CoV-2 variants and is suitable as an early warning system to identify variant emergence. In particular, the successive workflow using RT-qPCR, RT-dPCR and NGS demonstrates the strength of WBE as a versatile tool to monitor variant spreading.
Hintergrund: Die Verankerung der Kompetenzorientierung und die Betonung der praktisch-klinischen Ausbildung im Rahmen des Medizinstudiums sind zentrale Punkte in den Neuerungen der Ärztlichen Approbationsordnung. Mit der Entwicklung des Nationalen Kompetenzbasierten Lernzielkatalogs Medizin (NKLM) ist ein Rahmenwerk erstellt und verabschiedet worden, das die Inhalte des gesamten Medizinstudiums in Deutschland abbilden und eine Implementierung kompetenzorientierter Lernziele an den Fakultäten forcieren soll. Um diesem Ziel gerecht zu werden, müssen bereits an den Fakultäten vorhandene Lehrveranstaltungen mit dem NKLM abgeglichen und im Rahmen eines Curriculum Mappings kartiert werden. Ziel der vorliegenden Arbeit ist daher die Kartierung der im Frankfurter Blockpraktikum Chirurgie erlernten Kompetenzen im Sinne eines Curriculum Mappings in Anlehnung an die im NKLM formulierten Lernziele. Zudem wurde folgenden Fragestellungen nachgegangen: Welcher Umfang kompetenzorientierter Lernziele kann Studierenden in einem zweiwöchigen Praktikum Chirurgie vermittelt werden? Wie ist die Vermittlung der einzelnen Kapitel des NKLM im Blockpraktikum Chirurgie gewichtet? Gibt es Unterschiede der erreichten Lernziele in Abhängigkeit des Geschlechts der Studierenden, der besuchten Fachrichtung bzw. des besuchten Lehrkrankenhauses?
Material und Methoden: Im Rahmen der vorliegenden Arbeit wurden Medizinstudierende im zweiten bzw. dritten klinischen Semester unmittelbar nach Abschluss ihres Blockpraktikums Chirurgie gebeten, unter Nutzung eines Online-Fragebogens anzugeben, welche der im NKLM formulierten Lernziele sie im zweiwöchigen Blockpraktikum Chirurgie gelernt haben. Somit konnte für jedes Kapitel dargestellt werden, zu welchem prozentualen Anteil die Lernziele dieses Kapitels erreicht worden sind. Zudem wurden die soziodemographischen Daten der Studierenden, die Fachrichtung des Blockpraktikums und das Lehrkrankenhaus erfasst. Die statistische Auswertung erfolgte mit dem Wilcoxon-Mann-Whitney Test und dem Kruskal-Wallis Test.
Ergebnisse: Insgesamt nahmen 81 Studierenden (28 Männer, 53 Frauen) aus dem 2. bzw 3. klinischen Semester an der Studie teil. Insgesamt wurden im zweiwöchigen Blockpraktikum Chirurgie 8,78 ± 5,10% (Min. 1,01%; Max. 29,84%) aller Lernziele von den Studierenden erreicht. Hierbei wurden anteilig die meisten Lernziele in den Kapiteln 5-11 (Abschnitt 1 „Ärztliche Rollen“) mit 29,92 ± 15,22% (Min. 0,00%; Max. 63,10%) vermittelt. Aus Abschnitt 2 („Medizinisches Wissen, klinische Fähigkeiten und professionelle Haltungen“) wurden vor allem die Lernziele der Kapitel 14b „Klinisch-praktische Fertigkeiten“ (15,49 ± 7,78% (Min. 0,00%; Max. 41,30%) und 14c „Ärztliche Gesprächsführung“ (22,98 ± 16,47% (Min. 0,00%; Max. 70,69%) von den Studierenden erreicht. Männer geben durchschnittlich an, mehr Lernziele erreicht zu haben als Frauen (9,84% vs. 8,22%; p=0.104731). Weiterhin haben Studierende, die ihr Praktikum in einem Lehrkrankenhaus mit weniger als 100 chirurgischen Bettenplätzen (10,60 ± 6,75%; Min. 2,33%; Max. 29,84%) oder in einer Rotation (9,95 ± 6,67%; Min. 1,90%; Max. 29,84%) durch mehrere Fachrichtungen absolvierten, angegeben mehr Lernziele erreicht zu haben als andere Studierende insgesamt.
Schlussfolgerung: Das zweiwöchige Blockpraktikum Chirurgie in Frankfurt kann den Studierenden (im Hinblick auf die Gesamtdauer des Medizinstudiums) einen großen Anteil der im NKLM formulierten Lernziele vermitteln. Vor allem die Lernziele der „Ärztlichen Rollen“ und der „klinisch-praktischen Fertigkeiten“ werden erlernt. Die Vermittlung gelingt besonders umfangreich in kleineren Lehrkrankenhäusern. Trotzdem bietet das Blockpraktikum Chirurgie den Teilnehmer nur einen kleinen Einblick in den Fachbereich Chirurgie. Für die Vermittlung von spezifischen chirurgischen Fähigkeiten, Prinzipen chirurgischer Diagnostik und Therapie, sowie Aspekte der „Patientenzentrierten Gesundheitsversorgung“ sind andere Formate notwendig.
Die Niere ist das in Deutschland am häufigsten transplantierte Organ. Patienten nach Nierentransplantation haben aufgrund der notwendigen Immunsuppression ein erhöhtes Risiko für Infektionen. Die häufigste Infektion nach einer Nierentransplantation ist die Harnwegsinfektion, eine lebensbedrohliche Verlaufsform mit Entwicklung von Organdysfunktionen bezeichnet man als Urosepsis. Durch die Immunsuppression kann die Erkennung des septischen Krankheitsbildes erheblich erschwert sein, da typische körperliche Reaktionen auf eine Infektion unter Immunsuppression (z.B. Fieber, Tachykardie) verändert ablaufen.
Im Rahmen einer Sepsis laufen parallel pro- und antiinflammatorische Prozesse ab. Ein Überwiegen der antiinflammatorischen Prozesse kann zur Entwicklung einer „Sepsis-induzierten Immunsuppression“ führen, welche ein deutliches Mortalitätsrisiko darstellt, da sie zur fehlenden Sanierung des Infektionsfokus sowie zur Entwicklung sekundärer (z.T. opportunistischer) Infektionen führen kann. Ein zentraler antiinflammatorischer Prozess ist die Apoptose von CD4 und CD8 Lymphozyten. Die Möglichkeit der therapeutischen Beeinflussung dieses immunsupprimierten Zustandes ist aktuell Gegenstand zahlreicher Studien. Ziele der vorliegenden Arbeit waren die Überprüfung, ob sich der Abfall der Lymphoyztenzahl/eine Lymphopenie im Rahmen einer Infektionsepsiode auch in der immunsupprimierten Patientenklientel nach Nierentranplantation darstel-len lässt. Des Weiteren sollte diskutiert werden, ob der Nachweis einer reduzierten CD4/8 Lymphozytenzahl geeignet sein kann, diagnostisch die Infektionssituation einzuschätzen und ggf. die immunsuppressive Therapie anzupassen.
In dieser retrospektiven Kohortenanalyse wurden die Daten von nierentransplantierten Patienten ausgewertet, welche in den Jahren 2010 und 2011 im Universitätsklinikum der Goethe-Universität Frankfurt am Main aufgrund einer Harnwegsinfektion (n=47) oder Urosepsis (n=75) behandelt wurden. Es erfolgte ein Ver-gleich der CD4/CD8 Lymphozytenzahl vor, während und nach einer Infektions-episode. Ergänzend wurden die Häufigkeit einer CMV-Reaktivierung/-Infektion sowie das ursächliche bakterielle Erregerspektrum mit zugehörigem Antibiotika-resistenzmuster erhoben.
Sowohl Patienten mit Urosepsis als auch mit Harnwegsinfektion zeigten einen signifikanten Abfall der CD4 Lymphozyten im Rahmen der Infektionsepisode (p<0,01; p<0,05). Patienten mit Urosepsis zeigten zudem einen signifikanten Abfall der CD8 Lymphozyten (p<0,01). Patienten mit Erregernachweis in der Blutkultur zeigten signifikant niedrigere CD4/8 Lymphozyten während der Infek-tionsepisode (p<0,05) als Patienten mit negativer Blutkultur. Eine niedrige CD4/8 Lymphozytenzahl korrelierte besser mit einem Erregernachweis mittels Blutkultur als das Erfüllen der SIRS Kriterien. Mit Behandlung der Infektionsepi-sode zeigte sich ein Wiederanstieg der CD4/8 Lymphozytenzahlen. Unter Re-duktion/Pausieren der immunsuppressiven Therapie kam es zu keiner Abstoßungsreaktion/keinem Versterben eines Patienten im Rahmen der Infektionsepisode. Zu einem CMV-DNA Nachweis kam es bei 15 Patienten (20%) der Gruppe Urosepsis sowie 8 Patienten (17%) der Gruppe Harnwegsinfektion während der Infektionsepisode. Sowohl in Urin- als auch Blutkulturen waren E.coli gefolgt von Enterokokken die häufigsten nachgewiesenen Erreger. E.coli fanden sich signifikant häufiger in Urin- und Blutkulturen bei Urosepsis, Enterokokken signifikant häufiger in Urinkulturen bei Harnwegsinfektionen. Es zeigten sich hohe Antibiotikaresistenzraten insbesondere gegenüber Cotrimoxazol (59% der E.coli) und Fluorchinolonen (45% der E.coli, 82% der Enterokokken). 11% der E.coli und 62% der Klebsiellen waren als 3MRGN Erreger zu klassifizieren, 15% der Klebsiellen als 4MRGN mit Carbapenemresistenz.
Zusammenfassend lässt sich auch bei immunsupprimier-ten/nierentransplantierten Patienten im Rahmen einer Infektionsepisode ein signifikanter Abfall der CD4/8 Lymphozyten nachweisen. Das Reduzieren/Pausieren der immunsupressiven Therapie erscheint anhand der vorgelegten Daten sinnvoll, ein Monitoring der CD4/8 Lymphozytenzahl könnte zur Therapiesteuerung geeignet sein. Im Rahmen weiterer prospektiver Studien könnte eine Erarbeitung eines festen Schemas der Anpassung der immunsuppressiven Therapie an eine bestimmte CD4/8 Lymphozytenzahl sinnvoll sein. Passend zur Vergleichsliteratur waren E.coli und Enterokokken die am häufigsten nachgewiesenen Erreger. Die hohen Antibiotikaresistenzmuster unterstreichen die Notwendigkeit, das lokale Erregermilieu zu kennen, um möglichst passend kalkuliert antibiotisch behandeln zu können.
Hintergrund: ei der Behandlung des lokal-begrenzten PCa stellen die radikale Prostatektomie sowie die definitive Radiotherapie den aktuellen Therapiestandard dar. Die Effektivität der High-Dose-Rate(HDR)-Brachytherapie (BRT) als Monotherapie in der kurativen Behandlung des lokalisierten PCa wird im Zusammenhang mit aktuellen Literaturdaten bekräftigt. Die vorliegende Arbeit berichtet die onkologischen Ergebnisse sowie der Langzeittoxizität eines 3-Implantat-Protokolls mittels alleiniger HDR-BRT in der Behandlung von Patienten mit lokal-begrenztem Prostatakarzinom.
Patienten und Methoden: Von Februar 2008 bis Dezember 2012 wurden 450 konsekutive Patienten mit klinisch lokalisiertem Prostatakarzinom mit einer HDR-Monotherapie behandelt. Alle Patienten erhielten drei transperineale Einzel-Fraktion-Implantate von 11, 5 Gy, die an ein intraoperatives echtzeit-transrektales ultraschall-definiertes Planungsbehandlungsvolumen bis zu einer physikalischen Gesamtdosis von 34,5 Gy mit interfraktionärem Intervall von 21 Tagen appliziert wurden. Das biochemische Versagen wurde gemäß der Phoenix Consensus Criteria und die urogenitale/gastrointestinale Toxizität unter Verwendung der Common Toxicity Criteria for Adverse Events Version 3.0 definiert.
Ergebnisse: Die mediane Nachbeobachtungszeit betrug 56,3 Monaten (4,4-91,7 Monate). Die 60- und 90-monatigen Gesamtüberlebensraten, die biochemische Kontrolle und die metastasenfreien Überlebensraten betrugen 96 %, 95 %, 99 % bzw. 94 %, 92 % und 97 %. Die Toxizität wurde pro Ereignis erfasst. Späte Grad-2- und 3-urogenitalen Komplikationen traten bei 14,2 % bzw. 0,8 % der Patienten auf. Ein Patient zeigte Inkontinenz Grad 4, welche mittels permanenter Urostomie behandelt werden musste. Späte Grad-2-gastrointestinale Toxizität betrug 0,4 % und keine Instanzen von Grad-3 oder höherer Spätfolgen wurden gemeldet.
Schlussfolgerung: Unsere Ergebnisse bestätigen die HDR-Brachytherapie als eine sichere und effektive monotherapeutische Behandlungsmethode für klinisch lokalisierten Prostatakrebs.
Background: Increasing numbers of patients surviving malignant bone tumors around the knee joint have led to an increasing importance to investigate long-term results. This study assessed the long-term results of rotationplasty after resection of malignant bone tumors regarding functional outcome and quality of life to allow better comparison with other treatment options in bone cancer treatment.
Procedure: 60 participants who underwent rotationplasty due to bone cancer took part in this multicentric questionnaire- based study. The long-term functional outcome was measured by the Musculoskeletal tumor society score (MSTS) and the Tegner activity level scale. The health-related quality of life (HRQL) was assessed by using the Short Form Health Survey (SF-36).
Results: Patients treated with rotationplasty (median follow- up of 22 years, range 10–47 years) regained a high level of activity (median MSTS score of 24). Even a return to high level sports was possible (mean Tegner activity level scale of 4). Duration of follow-up did not influence the functional outcome. HRQL scores were comparable to the general German popula tion. Concerns of psychological problems due to the unusual appearance of the rotated foot have not been confirmed.
Conclusion: Rotationplasty can be a good alternative to en- doprosthetic replacement or amputation, either as primary surgery or as a salvage procedure. Especially for growing children and very active patients rotationplasty should be considered.
White matter abnormalities across different epilepsy syndromes in adults: an ENIGMA Epilepsy study
(2019)
The epilepsies are commonly accompanied by widespread abnormalities in cerebral white matter. ENIGMA-Epilepsy is a large quantitative brain imaging consortium, aggregating data to investigate patterns of neuroimaging abnormalities in common epilepsy syndromes, including temporal lobe epilepsy, extratemporal epilepsy, and genetic generalized epilepsy. Our goal was to rank the most robust white matter microstructural differences across and within syndromes in a multicentre sample of adult epilepsy patients. Diffusion-weighted MRI data were analyzed from 1,069 non-epileptic controls and 1,249 patients: temporal lobe epilepsy with hippocampal sclerosis (N=599), temporal lobe epilepsy with normal MRI (N=275), genetic generalized epilepsy (N=182) and nonlesional extratemporal epilepsy (N=193). A harmonized protocol using tract-based spatial statistics was used to derive skeletonized maps of fractional anisotropy and mean diffusivity for each participant, and fiber tracts were segmented using a diffusion MRI atlas. Data were harmonized to correct for scanner-specific variations in diffusion measures using a batch-effect correction tool (ComBat). Analyses of covariance, adjusting for age and sex, examined differences between each epilepsy syndrome and controls for each white matter tract (Bonferroni corrected at p<0.001). Across “all epilepsies” lower fractional anisotropy was observed in most fiber tracts with small to medium effect sizes, especially in the corpus callosum, cingulum and external capsule. Less robust effects were seen with mean diffusivity. Syndrome-specific fractional anisotropy and mean diffusivity differences were most pronounced in patients with hippocampal sclerosis in the ipsilateral parahippocampal cingulum and external capsule, with smaller effects across most other tracts. Those with temporal lobe epilepsy and normal MRI showed a similar pattern of greater ipsilateral than contralateral abnormalities, but less marked than those in patients with hippocampal sclerosis. Patients with generalized and extratemporal epilepsies had pronounced differences in fractional anisotropy in the corpus callosum, corona radiata and external capsule, and in mean diffusivity of the anterior corona radiata. Earlier age of seizure onset and longer disease duration were associated with a greater extent of microstructural abnormalities in patients with hippocampal sclerosis. We demonstrate microstructural abnormalities across major association, commissural, and projection fibers in a large multicentre study of epilepsy. Overall, epilepsy patients showed white matter abnormalities in the corpus callosum, cingulum and external capsule, with differing severity across epilepsy syndromes. These data further define the spectrum of white matter abnormalities in common epilepsy syndromes, yielding new insights into pathological substrates that may be used to guide future therapeutic and genetic studies.
Background: Peanuts are a member of the legume family (botanical family Leguminosae) and peanut allergies are the most common cause of food anaphylaxis in many countries. The prevalence of peanut allergy is increasing.
Methods: Experts from Germany and Austria performed a standardized literature search and published their consensus recommendations in a White Paper on Peanut Allergy, which this care pathway is based upon, thus, providing a comprehensive diagnosis and treatment algorithm.
Results: The most important diagnostic key elements include a detailed clinical medical history, evidence of peanut-specific sensitization by means of skin prick testing and/or in vitro determination of the peanut (extract)-specific IgE and/or the molecular component diagnostics (most important Ara h 2-specific IgE, sometimes also Ara h1-, 3-, 6-, 8- and 9-specific IgE) as well as the gold standard, the double-blind, placebo-controlled food challenge. The diagnostic algorithms were created for the following constellations: Suspected primary peanut allergy with a clear history of systemic immediate-type reaction, suspected primary peanut allergy with questionable symptoms, suspected secondary (possibly pollen-associated) peanut allergy with a history of solely oropharyngeal symptoms and incidental finding of sensitization and no peanut ingestion so far.
Conclusions: After established diagnosis the standard of care is counseling to avoid peanut contact and prescription of emergency medications (oral antihistamines, oral steroids, inhaled β2-agonists, injectable intramuscular epinephrine) as needed. Instruction on the use of these emergency medications should be provided. A preparation for oral immunotherapy (OIT) for 4 to 17 years old peanut allergic children/ adolescents has been recently approved by the regulatory authorities. OIT for peanut allergy shows high efficacy and an acceptable safety profile, improves quality of life, and health economic aspects. Thus it offers a therapeutic option for peanut allergic children and adolescents.
White paper peanut allergy
(2022)
The current management of a primary IgE-mediated peanut allergy consists of the two basic pillars “exposure prophylaxis” with avoidance of the allergen and “emergency therapy” with short-term treatment of an acute allergic reaction after accidental ingestion. Accidental reactions are common despite attempted avoidance. The severity of an allergic or even anaphylactic reaction after accidental ingestion is difficult to assess prior to reaction. In addition, reaction thresholds may vary depending on the accompanying augmentation factor. Therefore, every peanut allergic patient should receive individual dietary counseling as well as instructions for the use of the emergency kit and a structured patient education program (anaphylaxis group training), if necessary. For the first time, since fall 2021 a causal treatment option with a drug for oral immunotherapy will now be available for 4‑ to 17-year-old peanut-allergic children and adolescents. The oral immunotherapy with peanut protein as defatted powder of Arachis hypogaea L., semen (peanuts) leads to desensitization with a good efficacy record and an acceptable safety profile. Other treatment options with different therapeutic approaches are also under development and will probably expand the range for treatment in the coming years.
The current management of a primary IgE-mediated peanut allergy consists of the two basic pillars “exposure prophylaxis” with avoidance of the allergen and “emergency therapy” with short-term treatment of an acute allergic reaction after accidental ingestion. Accidental reactions are common despite attempted avoidance. The severity of an allergic or even anaphylactic reaction after accidental ingestion is difficult to assess prior to reaction. In addition, reaction thresholds may vary depending on the accompanying augmentation factor. Therefore, every peanut allergic patient should receive individual dietary counseling as well as instructions for the use of the emergency kit and a structured patient education program (anaphylaxis group training), if necessary. For the first time, since fall 2021 a causal treatment option with a drug for oral immunotherapy will now be available for 4‑ to 17-year-old peanut-allergic children and adolescents. The oral immunotherapy with peanut protein as defatted powder of Arachis hypogaea L., semen (peanuts) leads to desensitization with a good efficacy record and an acceptable safety profile. Other treatment options with different therapeutic approaches are also under development and will probably expand the range for treatment in the coming years.
Myocardial injury as induced by myocardial infarction results in tissue ischemia, which critically incepts cardiomyocyte death. Endothelial cells play a crucial role in restoring oxygen and nutrient supply to the heart. Latest advances in single-cell multi-omics, together with genetic lineage tracing, reveal a transcriptional and phenotypical adaptation to the injured microenvironment, which includes alterations in metabolic, mesenchymal, hematopoietic and pro-inflammatory signatures. The extent of transition in mesenchymal or hematopoietic cell lineages is still debated, but it is clear that several of the adaptive phenotypical changes are transient and endothelial cells revert back to a naïve cell state after resolution of injury responses. This resilience of endothelial cells to acute stress responses is important for preventing chronic dysfunction. Here, we summarize how endothelial cells adjust to injury and how this dynamic response contributes to repair and regeneration. We will highlight intrinsic and microenvironmental factors that contribute to endothelial cell resilience and may be targetable to maintain a functionally active, healthy microcirculation.
Several studies suggested that transcription factor (TF) binding to DNA may be impaired or enhanced by DNA methylation. We present MeDeMo, a toolbox for TF motif analysis that combines information about DNA methylation with models capturing intra-motif dependencies. In a large-scale study using ChIP-seq data for 335 TFs, we identify novel TFs that are affected by DNA methylation. Overall, we find that CpG methylation decreases the likelihood of binding for the majority of TFs. For a considerable subset of TFs, we show that intra-motif dependencies are pivotal for accurately modelling the impact of DNA methylation on TF binding.
Wirkung von Glia-Maturationsfaktor (GMF) und Adhäsionsfaktor (ADF) auf Kulturen leukämischer Zellen
(1987)
GMF was isolated from the glia of different brain parts of calf. Its influence on the input of 3H-TdR was tested in leukaemic and non-malignant lymphocites. GMF isolated from the diencephalon proved to be the most effective one. The used substance of reference was DBcAMP. The cAMP contents of leukaemic cells were lower than those of non-malignant cells, whereas the level of cGMP was higher in the first ones. We found both in non-malignant cultures and in cultures of leukaemic cells that the impact of GMF and AdF elevated the cAMP value and reduced cGMP. The adhesion of cAMP to the nuclei of leukaemic was reduced in comparison with non-malignant cells. The nuclei of leukaemic cells showed increased adhesive capacity after pre-incubation with GMF and AdF. The adhesive capacity of non-malignant nuclei remained unchanged. The adenylcyclase activity (AC) was diminished in leukaemic cells. It could not be stimulated by means of catecholamines. GMF and AdF produced a slight increase of the basal Ac activity in cultures of leukaemic cells only. But isoproterenol led to a distinct increase of the Ac activity in leukaemic cells when incubation with those two factors preceded it.
Progranulin deficiency in humans is associated with neurodegeneration. Its mechanisms are not yet fully understood. We performed a Yeast-2-Hybrid screen using human full-length progranulin as bait to assess the interactions of progranulin. Progranulin was screened against human fetal brain and human bone marrow libraries using the standard Matchmaker technology (Clontech). This article contains the full Y2H data table, including blast results and sequences, a sorted table according to selection criteria for likely positive, putatively positive, likely false and false preys, and tables showing the gene ontology terms associated with the likely and putative preys of the brain and bone marrow libraries. The interactions with autophagy proteins were confirmed and functionally analyzed in "Progranulin overexpression in sensory neurons attenuates neuropathic pain in mice: Role of autophagy" (C. Altmann, S. Hardt, C. Fischer, J. Heidler, H.Y. Lim, A. Haussler, B. Albuquerque, B. Zimmer, C. Moser, C. Behrends, F. Koentgen, I. Wittig, M.H. Schmidt, A.M. Clement, T. Deller, I. Tegeder, 2016).
Mutations in the Von Hippel–Lindau (VHL) gene are the driving force in many forms of clear cell renal cell carcinoma (ccRCC) and promote hypoxia-inducible factor (HIF)-dependent tumor proliferation, metastasis and angiogenesis. Despite the progress that has already been made, ccRCC generally remain resistant to conventional therapies and ccRCC patients suffer from metastasis and acquired resistance, highlighting the need for novel therapeutic options. Cysteinyl leukotriene receptor 1 (CysLTR1) antagonists, like zafirlukast, are administered in bronchial asthma to control eicosanoid signaling. Intriguingly, long-term use of zafirlukast decreases cancer risk and leukotriene receptor antagonists inhibit tumor growth, but the mechanisms still remain unexplored. Therefore, we aim to understand the mechanisms of zafirlukast-mediated cell death in ccRCC cells. We show that zafirlukast induces VHL-dependent and TNFα-independent non-apoptotic and non-necroptotic cell death in ccRCC cells. Cell death triggered by zafirlukast could be rescued with antioxidants and the PARP-1 inhibitor Olaparib, and additionally relies on HIF-2α. Finally, MG-132-mediated proteasome inhibition sensitized VHL wild-type cells to zafirlukast-induced cell death and inhibition of HIF-2α rescued zafirlukast- and MG-132-triggered cell death. Together, these results highlight the importance of VHL, HIF and proteasomal degradation in zafirlukast-induced oxidative cell death with potentially novel therapeutic implications for ccRCC.
Um eine gezielte Prophylaxe und Therapie der Urolithiasis zu ermöglichen und um die Rezidivrate zu senken, ist die genaue Kenntnis der Steinzusammensetzung erforderlich. Wegen des hohen Beschaffungspreises sind Röntgendiffraktion und Infrarotspektroskopie nur wenigen Laboratorien vorbehalten, andererseits sollten unspezifisch-chemische Steinanalysenmethoden wegen deren geringeren Sensitivität und Spezifität heute nicht mehr angewendet werden.
In dieser Arbeit wird eine unter dem Mikroskop durchführbare Harnsteinkomponentenanalysenmethode (Harzalith) beschrieben. Es handelt sich um eine mikroskopisch-mikrochemische Harnsteinanalysenmethode. Sie basiert auf der Auswertung mikroskopisch typischer, leicht einprägsamer Farbmuster, die sich je nach Steinzusammensetzung in charakteristischer Weise nach Zugabe des Steinmaterials zum Reagenz innerhalb von Sekunden entwickeln.
Eine Bewertung der mikroskopisch-mikrochemischen Harnsteinkomponentenanalyse gegenüber Röntgendiffraktion, Infrarotspektroskopie und unspezifisch-chemischen Methoden erfolgt anhand von Ergebnissen aus über 10jähriger eigener Anwendungserfahrung.
Folgende Vorteile werden kurz dargestellt:
1. Es werden Steinkomponenten und nicht nur Ionen erfaßt.
2. Es können geringste Steinprobenmengen analysiert werden.
3. Die Ergebnisse der Methode hinsichtlich Richtigkeit, Sensitivität und Spezifität sind in gleicher Größenordnung wie die von Infrarotspektroskopie und Röntgendiffraktion.
4. Die Methode ist einfach zu erlernen, schnell, genau und von leichter Handhabung. Sie ist damit eine echte Alternative gegenüber den anderen apparativ-aufwendigen Harnsteinanalysenverfahren.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.
Neuroendokrine Tumoren (NET) sind eine seltene Krankheit mit einem breitgefächerten heterogenen Erscheinungsbild, wodurch sich die Diagnose der Tumoren aus einer Vielzahl aus Gründen häufig um Jahre verzögert (1). In dieser Arbeit analysierten wir einen großen Datensatz in einem tertiären Referenzzentrum (UKF) von 1984-2019, um die Symptomatik vor der Diagnose des Tumors sowie den Zeitraum von der Tumormanifestation bis zur Diagnose weiter zu klären. Für die deskriptiven Analysen kamen SPSS, Cox-Regression und Log-Rank-Test zur Anwendung.
Insgesamt schloss die retrospektive Studie 488 gastroenteropankreastische (GEP)-NET mit 486 Patienten ≥ 18 Jahren ein, wovon knapp mehr als die Hälfte männlich (52,9%) waren. Das mittlere Alter bei Erstdiagnose (ED) betrug 58 Jahre (477/486, 9 unbekannt). Die häufigsten Primärtumorlokalisationen stellten Pankreas (143/488 Patienten) und Dünndarm (145/488 Patienten) dar. Die Mehrheit der NET waren langsam wachsende G1-Tumoren mit einem Ki67 < 3% (155/330). Die Hälfte der Patienten entwickelten im Verlauf Fernmetastasen, wobei die meisten bereits bei der ED vorlagen und insbesondere die Leber als Metastasierungsorgan dominierte. Bei mehr als 60% der Patienten konnten Angaben zur klinischen Symptomatik vor der ED detektiert werden, wovon wiederum mehr als die Hälfte symptomatisch waren. 42% der symptomatischen Patienten zeigten NET-spezifische Symptome (Bauchschmerzen 77/128; 60,2%, Durchfall 51/128; 39,8%, Flush 19/128; 14,8%, Karzinoidsyndrom 8/128; 6,3% Tachykardie 6/128; 4,7%). In der primären bildgebenden Diagnostik dominierten konventionelle Bildgebungen wie Sonographie und Computertomographie (CT), wobei nuklearmedizinische Diagnostik eine Seltenheit darstellte. Mehr als 30% der Tumoren wurden als Zufallsbefunde im Rahmen einer bildgebenden Diagnostik oder Operation diagnostiziert. Die Mehrheit der Patienten stellte sich initial außerhalb unserer Klinik vor, nur etwa 15% wurden innerhalb unserer Klinik insbesondere in der Gastroenterologie vorstellig, wo der NET diagnostiziert wurde.
Die Phase von der Tumormanifestation bis zur ED aller NET betrug im Median 17 Tage. Das Vorhandensein von Fernmetastasen sowie Symptomen führte zu keiner signifikanten Kürzung der Phase und einer schnelleren ED des NET (Median 65,5 vs. 90 Tage, p = 0,4).
In der vorliegenden in vitro-Studie wurde der Einfluß von zwei Insertionstechniken auf die zervikale Randqualität von Klasse-II-Kompositrestaurationen unter Zuhilfenahme von Kunststoffmatrizen und Lichtkeilen untersucht. Als weiteren Versuchsparameter wählte man zur Adaptation des Füllungsmaterials neben herkömmlichen Metallinstrumenten zusätzlich modifizierte Biberschwanzpinsel.
Iron deficiency (ID) is a common manifestation of inflammatory bowel disease (IBD), arising primarily due to chronic inflammation and/or blood loss. There is no gold standard for ID diagnosis, which is often complicated by concomitant inflammation. Zinc protoporphyrin (ZnPP) correlates with parameters of iron homeostasis and has been identified as a promising marker for ID, irrespective of inflammation. We investigated the diagnostic performance of ZnPP in ID, iron deficiency anemia, anemia of chronic disease and mixed anemia in a cross-sectional study in 130 patients with IBD. Different parameters were compared by receiver operator characteristic (ROC) analysis as detectors of iron-restricted erythropoiesis (IRE). IRE was detected in 91 patients (70.0%); fifty-nine (64.8%) had absolute ID and 23 (25.4%) functional ID. When inflammation was present, ZnPP was a more reliable sole biomarker of IRE than MCV, transferrin saturation (TSAT) or ferritin (AUC; 0.855 vs. 0.763, 0.834% and 0.772, respectively). The specificity of TSAT was significantly lower than ZnPP when inflammation was present (38% vs. 71%, respectively). We conclude that ZnPP is a reliable biomarker of functional ID in patients with IBD and more dependable than ferritin or TSAT, which are influenced by chronic inflammation. We propose that ZnPP may also have utility in patients with other chronic diseases.
Zinc finger proteins (ZNF) are a large group of transcription factors with diverse functions. We recently discovered that endothelial cells harbour a specific mechanism to limit the action of ZNF354C, whose function in endothelial cells is unknown. Given that ZNF354C has so far only been studied in bone and tumour, its function was determined in endothelial cells. ZNF354C is expressed in vascular cells and localises to the nucleus and cytoplasm. Overexpression of ZNF354C in human endothelial cells results in a marked inhibition of endothelial sprouting. RNA-sequencing of human microvascular endothelial cells with and without overexpression of ZNF354C revealed that the protein is a potent transcriptional repressor. ZNF354C contains an active KRAB domain which mediates this suppression as shown by mutagenesis analysis. ZNF354C interacts with dsDNA, TRIM28 and histones, as observed by proximity ligation and immunoprecipitation. Moreover, chromatin immunoprecipitation revealed that the ZNF binds to specific endothelial-relevant target-gene promoters. ZNF354C suppresses these genes as shown by CRISPR/Cas knockout and RNAi. Inhibition of endothelial sprouting by ZNF354C is dependent on the amino acids DV and MLE of the KRAB domain. These results demonstrate that ZNF354C is a repressive transcription factor which acts through a KRAB domain to inhibit endothelial angiogenic sprouting.
Einleitung: Das Arbeiten in einer Notfallsituation ist stark von einer strukturierten Herangehensweise im Patientenmanagement abhängig. Junge Assistenzärzte sind in ihrem Alltag häufig die ersten vor Ort und sollten daher bereits mit Abschluss des Studiums in der Lage sein, häufige Notfallsituationen zu meistern. In den letzten Jahren hat sich die Simulation als hauptsächlich genutzte Methode für die Ausbildung im Fach Notfallmedizin herauskristallisiert, sodass immer mehr Universitäten realitätsnahe Szenarien für die Ausbildung nutzen. Jedoch ist unklar welches Ausmaß an Realitätsnähe in Hinblick auf Kosten/Aufwand-Nutzen-Bilanz sinnvoll ist. Das Ziel der vorliegenden Arbeit ist es, den Effekt von zwei unterschiedlich realitätsnahen Lernumgebungen (Seminarraum vs. realistische Simulationsumgebung) auf die erlernten notfallmedizinischen Kompetenzen zu analysieren. Dazu wurden Krankheitsbilder gewählt, die jedem Arzt in Präklinik, auf Station und im ambulanten Bereich begegnen können und die zügig erkannt und behandelt werden müssen: Asthma, Sepsis und Apoplex.
Material und Methoden: Bei der vorliegenden Arbeit handelt es sich um eine vergleichende Effektivitätsanalyse im crossover-Design. Teilnehmende waren Studierende des 4. Studienjahres der Goethe-Universität Frankfurt am Main, die den 3-TagesNotfallmedizinkurs im Rahmen ihrer curricularen Ausbildung im Querschnittsbereich Notfallmedizin absolvierten. Am ersten Tag durchliefen alle Studierenden ein standardisiertes Skillstraining notfallmedizinischer Basiskompetenzen. An den Folgetagen wurden verschiedene leitsymptombasierte Module vermittelt, die neben der interaktiven Erarbeitung der theoretischen Lerninhalte eine direkte Anwendung in themenspezifischen Szenarien fokussierten. Für die vorliegende Studie wurden die Teilnehmenden in vier Gruppen randomisiert, wobei Gruppen eins und zwei das Training in der Seminarraumumgebung durchliefen, während drei und vier die Szenarien in der realitätsnahen Simulationsumgebung absolvierten. Am dritten Tag fand eine formative Überprüfung der erlernten Fähigkeiten in Form eines OSCEs statt. Bei dieser Überprüfung absolvierten die Gruppen eins und drei in der Seminarraumumgebung und Gruppen zwei und vier im realitätsnahen Umfeld der Simulation das Assessment. Die Datenauswertung erfolgte mit MS Excel und bias.
Ergebnisse und Fazit: Die vorliegende Studie fand zwischen Juli und Oktober 2018 an der Goethe-Universität in Frankfurt am Main statt. 134 Teilnehmer absolvierten die Studie vollständig. Die Ergebnisse zeigen deutliche Unterschiede in der Performance der vier Gruppen, sowohl insgesamt als auch nach Geschlechtern und mit dem van-Elteren-Test. Prozentual betrachtet zeigten die Teilnehmenden der Gruppe 4 (Training und Prüfung im realitätsnahen Umfeld) die höchsten Ergebnisse. Die Realitätsnähe hat einen positiven Einfluss auf die Performance der Studierenden.
This research project investigated how motor activity, such as cycling, influences the acquisition of foreign language vocabulary under two distinct conditions of auditory-motor-synchronisation. In a mixed subject design, 48 participants had to learn 40 Polish-German vocabulary pairs by auditory presentation over headphones in two different conditions, in which they performed motor activity cycling on a bicycle ergometer: in experiment 1, vocabulary was presented in a fixed rhythm while in experiment 2, participants self-initiated the presentation of vocabulary through pedalling. After having listened to the word pairs, they had to perform online vocabulary tests, one directly after the learning session and a second one 24 hours later from home. Additionally, the individual pitch perception preference (i.e. fundamental vs. spectral pitch perception) of the participants was determined.
The results showed that fundamental listeners forgot significantly more vocabulary than spectral listeners during the fixed than during the self-initiated condition. There was no difference within the groups for the self-initiated condition. The analysis of the motor data revealed a significantly more accurate synchronisation for fundamental listeners during the fixed condition. Therefore, this study provides first evidence for the benefit of self-initiated auditory-motor synchronisation in the process of learning a foreign language in adults. It also reveals that pitch preference has an effect on auditory-motor synchronisation.
Die Labordiagnose einer Infektionskrankheit beruht auf dem Nachweis des Infektionserregers oder der spezifischen Immunreaktion unter Berücksichtigung der klinischen Plausibilität. Biologische Testverfahren wie der Zellkulturversuch erbringen nur näherungsweise ein quantitatives Ergebnis und sind mit einer relativ großen Streuung behaftet. Das gilt auch für Antikörperassays, soweit sie über ein biologisches Testsignal abgelesen werden (CPE, Agglutination, Komplementverbrauch). Moderne serologische und molekularbiologische Untersuchungsmethoden der Virologie werden i. d. R. über ein physikochemisches Testssignal abgelesen und quantitativ ausgewertet. Dadurch gelingt die nationale und internationale Standardisierung, die sich in Ringversuchen gut überprüfen lässt. Aus biologischen Gründen ist meist eine log. Ergebnisberechnung angezeigt, was für „ signifikante “ Unterschiede in Verlaufsuntersuchungen zu berücksichtigen ist: Da sowohl Infektion als auch Immunreaktion dynamische Prozesse darstellen, können Normalwerte in der virologischen Labordiagnostik nur restriktiv definiert werden. Ihre Ergebnisse sind mehr oder minder individuell interpretationsbedürftig.
Astrozyten sind außerordentlich vielseitige Zellen, die im Gefüge des zentralen Nervensystems wichtige Rollen in der synaptischen Signalübertragung, im Neurotransmitterstoffwechsel sowie unter anderem in der Regulation der Energiesubstrataufnahme und der lokalen Durchblutung spielen. Die genannten Prozesse weisen eine ausgeprägte Abhängigkeit von lokal verfügbaren Energieäquivalenten auf. Astrozyten können als Reaktion auf verstärkte, umliegende synaptische Aktivität nicht nur anaerobe Stoffwechselwege wie z.B. Glykolyse hochregulieren, sondern weisen auch eine enorme oxidative Verstoffwechselungskapazität auf. Die Mechanismen zur Regulation des oxidativen Stoffwechsels sind z.B. in Hepatozyten oder Muskelzellen genauer beschrieben, wie vieles andere jedoch in Glia untererforscht. Einer der Signalwege zur Aktivierung des obligat aeroben Citratzyklus über das Schlüsselenzym Pyruvatdehydrogenase-Komplex (PDC) führt in Hepatozyten über die Proteinkinase Cδ (PKCδ). Diese bewerkstelligt die Aktivierung der PDC über eine Dephosphorylierung der Pyruvatdehydrogenase (PDH) durch die PDH-Phosphatase 1 (PDP1).
Die selbst in peripheren Astrozytenforsätzen zahlreich vorhandenen Mitochondrien sind bislang in ihrer Funktion und Regulation nur unzureichend untersucht worden. Daher stellte sich die Frage, ob ein solcher PKCδ-vermittelter Signalweg auch in Astrozyten (über die Aktivierung der PDH) zur Aktivierung des mitochondrialen Stoffwechsels führen könnte, insbesondere um auf einen höheren Energiebedarf reagieren zu können.
Nach zahlreichen Versuchen zum Nachweis des Vorliegens der beteiligten Enzyme in der postulierten Signalkaskade wurden primäre Astrozyten mit Glutamat stimuliert, wodurch eine erhöhte synaptische Aktivität in unmittelbarer Umgebung simuliert wurde. Mithilfe von anti-PKCδ-, anti-PDC- und phosphospezifischen anti-phospho-PDC-Antikörpern sowie der Nutzung Objekt-orientierter Bildverarbeitungsmethoden konnte eine Glutamat-induzierte, mitochondriale Translokation der PKCδ mit nachfolgender Dephosphorylierung des PDC (und damit dessen Aktivierung) gezeigt werden. Beide Prozesse, PKCδ-Translokation und PDH-Dephosphorylierung, werden durch den metabotropen Glutamatrezeptor 5 (mGluR5) vermittelt, wie sich durch dessen pharmakologische Inhibition zeigen lässt. Die mitochondriale Translokation der PKCδ und ihre Kinaseaktivität tragen dabei maßgeblich zur Aktivierung des PDC bei, sodass durch das Einwirken von Glutamat eine lokale Modulation des glialen oxidativen Stoffwechsels und der damit verbundenen Produktion von Adenosintriphosphat (ATP) ermöglicht wird. Da Astrozyten (v.a. mit ihren feinen peripheren Fortsätzen) besonders in der Nähe von Synapsen für die Funktionalität von Neuronen essentielle, ATP-verbrauchende Prozesse wie z.B. Glutamattransport aufrechterhalten müssen, ist eine solche Regulation durch Glutamat selbst als Indikator vermehrter synaptischer Aktivität naheliegend. Dabei scheint Glutamat in dualer Funktion sowohl signalgebend die Aktivität des Citratzyklus zu beeinflussen als auch nach Aufnahme in die Zelle selbst als Substrat zum anaplerotischen Einschleusen in den Citratzyklus zur Verfügung zu stehen. Mithilfe von luminometrischen ATP-Assays sowie mGluR- und isoformspezifischen PKC-Inhibitoren konnte gezeigt werden, dass einem durch Glutamat verursachten Abfall der intrazellulären ATP-Spiegel (aufgrund der damit einhergehenden Mehrbelastung der Zelle für Transportprozesse und z.B. Ionenhomöostase) durch die mGluR5/PKCδ-vermittelte Aktivierung der PDH entgegengewirkt werden könnte.
In Zusammenschau könnte der mGluR5/PKCδ/PDH-vermittelte Signalweg gewissermaßen eine Bereitschaft bieten, um für gliale Stoffwechselprozesse die Deckung des Energiebedarfs in Astrozytenfortsätzen bei Aktivität angrenzender Synapsen (im Rahmen des Modells der dreiteiligen Synapse) zu ermöglichen. Eine mögliche pathophysiologische Rolle dieses Mechanismus bei zahlreichen neurodegenerativen Erkrankungen (bei denen häufig ein gestörter Energiestoffwechsel und/oder gliale Dysfunktion vermutet wird) müsste in weiterführenden Studien untersucht werden.
Wir erprobten die Verwendung von Primärgefäßen in einem voll selektiven, patientenorientiert arbeitenden Analysensystem. Unter Routinebedingungen wurden die Veränderungen von 18 Blutbestandteilen (Enzyme, Substrate, Elektrolyte) in Serumproben untersucht, die im Probennahmegefäß nach Zentrifugation längere Zeit über dem Blutkuchen aufbewahrt wurden. Innerhalb von 5 Std. waren nur geringfügige und kaum klinisch relevante Differenzen zu beobachten. Um auch im Einzelfall hämolyse- bzw. diffusionsbedingte Veränderungen von Serumbestandteilen auszuschließen, bemühten wir uns um die Entwicklung eines Ventilfilters, der hinsichtlich seiner Handhabung und Funktionalität Routine-Anforderungen genügt und die Geometrie 'des Primärgefäßes nicht verändert.
In der vorliegenden Dissertation wird eine Zusammenfassung über den aktuellen Wissensstand zu Aufmerksamkeitsdefizit- /Hyperaktivitätsstörungen sowie bestehenden Therapieoptionen gegeben. Anschließend wird eine eigene Pilotstudie vorgestellt, in welcher zwei nicht-pharmakolgische Interventionen, Neurofeedback (NF, EEG-Biofeedback) und Marburger Konzentrationstraining (MKT), miteinander verglichen werden. In den letzten Jahren hat der Evidenzgrad des Neurofeedbacks kontinuierlich zugenommen. Neurofeedback ist ein verhaltenstherapeutisches Verfahren mit dem Ziel, abhängig vom angewandten Trainings-Protokoll eine entsprechende Veränderung des EEG-Frequenzspektrums oder der ereigniskorrelierten Potentiale bei Patienten zu bewirken. Mittels dieser Modifikationen soll eine Verbesserung der ADHS-Symptomatik bedingt werden. Das Marburger Konzentrationstraining stellt eine kognitiv-behaviorale Gruppentherapie dar, deren Durchführung an das Manual von Krowatschek und Mitarbeiter (2004a) angelehnt wurde. Aus dem natürlichen Patientenzulauf der kinder- und jugendpsychiatrischen Ambulanz der Johann Wolfgang Goethe-Universität wurden 47 Kinder im Alter von 6 bis 14 Jahren mit der Diagnose einer einfachen Aktivitäts- und Aufmerksamkeitsstörung (F90.0) zufällig auf die Interventionen verteilt. Unter gleichen Rahmenbedingungen erhielten 22 Probanden 10 Einzelsitzungen à 45 Minuten NF-Training mit einem Theta/Beta-Protokoll und 25 Probanden 6 Gruppensitzungen des Marburger Konzentrationstrainings à 60 Minuten. Parallel wurde ein Elterntraining mit insgesamt 5 Sitzungen angeboten. Zur Erfassung und Evaluation der ADHS-Kernsymptomatik sowie begleitender Psychopathologien wurden zu zwei Messzeitpunkten T1 (= direkt vor) und T2 (= direkt nach) dem Training sowohl neuropsychologische Testungen (objektive Ebene) durchgeführt als auch Fragebögen an Kinder, Eltern und Lehrer (subjektive Ebenen) verteilt. Die Analysen ergaben für beide Interventionen eine Reduktion der Kernsymptomatik. Wider Erwarten kam es in der NF-Gruppe lediglich zu einer tendenziellen Verminderung impulsiver und hyperaktiver Verhaltensweisen, während die MKT-Gruppe signifikante Ergebnisse für alle Verhaltensbereiche aufwies. Dementsprechend bestätigte eine Vergleichsevaluation, entgegen der ursprünglichen Annahmen eine Überlegenheit der MKT-Bedingung bezüglich der Kernsymptomatik. 125 von 189 Vergleichsanalysen zur Begleitproblematik erbrachten für beide Interventionen signifikante Verbesserungen im schulischen und sozialen Bereich sowie in Bezug auf begleitende Psychopathologien und die Gesamtproblematik. Hier wiederum erwies sich das Neurofeedback im familiären Bereich als überlegen. Auf der Suche nach Prädiktoren zeigten die Variablen „Alter“, „Erziehungsstil“ und „Teilnahme am Elterntraining“ bedeutsame Effekte. So scheinen ältere Kinder eher vom NF, die jüngeren Kinder hingegen vor allem vom MKT zu profitieren. Die Einbeziehung der Eltern ins Training scheint auf jeden Fall sinnvoll zu sein, wobei sich hier keine eindeutigen Rückschlüsse ziehen lassen. Des Weiteren ließ sich bei den Teilnehmern des Marburger Konzentrationstrainings ein prädiktiver Einfluss von Geschlecht und Intelligenzquotient erahnen. In der Zusammenschau konnte für beide Interventionen der Evidenzgrad als Therapie einer Aufmerksamkeitsdefizit- /Hyperaktivitätsstörung erhöht werden. Beide Behandlungen vermindern die Kernsymptomatik, wobei das Neurofeedback scheinbar speziell die Impulskontrolle erhöht während das Marburger Konzentrationstraining einen besonders großen Einfluss auf die Unaufmerksamkeit ausübt. Auch bezüglich der Begleitsymptomatik werden jeweils signifikante Effekte erzielt. Diesbezüglich zeigte sich hier das Neurofeedback im familiären Bereich überlegen. Zum Teil lassen sich die Veränderungen auf spezifische Trainingseffekte zurückführen. Es ergaben sich erstmalig Hinweise auf Prädiktoren. In jedem Fall ist weitere Forschungsarbeit mit größeren Stichproben, angemessenen Kontrollbedingungen und Veränderungsmaßen notwendig. So bleiben noch viele Fragen offen, wie beispielsweise die spezifischen Wirkungsweisen beider Interventionen, entsprechende Rahmenbedingungen, Prädiktoren und die Langfristigkeit der Behandlungsmethoden.
Osteocalcin (auch Bone 6 la Protein [B G P] genannt), ein 49 Aminosäuren enthaltendes Knochenmatrixprotein, wird in den Osteoblasten synthetisiert und bei gesteigertem Knochenumsatz im Serum erhöht gefunden. Osteocalcin im Serum kann mittels eines Hadioimmunoassays gemessen werden. Die Werte steigen mit dem Lebensalter an und zeigen einen zirkadianen Rhythmus. Beim primären Hyperparathyreoidismus sind die Osteocalcinwerte erhöht. Bei Patienten mit Mammacarcinom zeigt ein Osteocalcinanstieg stets eine Metastasierung im Knochen an. Die Hyperthyreose geht mit erhöhten Osteocalcinwerten einher. Über den diagnostischen Wert einer Osteocalcinbestimmung beim Plasmozytom läßt sich zur Zeit noch keine sichere Aussage machen. Patienten mit einer histomorphometrisch gesicherten „low-turnover'"Osteoporose weisen niedrige Osteocalclnspiegel auf. Die stark erhöhten Osteocalcinwerte bei der renalen Osteopathie (sekundärer Hyperparathyreoidismus, Osteomalazie) sind z.T. auch au feine verminderte renale Elimination von Osteocalcin bei eingeschränkter glomerulärer Filtrationsrate zurückzuführen. Zusammenfassend stellt die Osteocalcinbestimmung eine Bereicherung der diagnostischen Möglichkeiten zur Beurteilung des Knochenumsatzes darf sollte vorerst jedoch noch vorwiegend wissenschaftlichen Fragestellungen vorbehalten sein.
Die Zöliakie ist eine immunvermittelte Systemerkrankung, die durch den Konsum glutenhaltiger Nahrung ausgelöst werden kann. Hierbei spielen sowohl eine genetische Prädisposition als auch verschiedene Umweltfaktoren eine Rolle. Die wissenschaftliche und gesellschaftliche Relevanz der Zöliakie hat in den letzten 25 Jahren zunehmend an Bedeutung gewonnen. Was man heute über die Erkrankung weiß, ist Ergebnis einer Vielzahl von Studien und Veröffentlichungen.
Ziel dieser Arbeit war anhand von szientometrischen Analysen ein umfassendes Bild über diese Forschungslandschaft zu erstellen. Es wurden dabei sowohl quantitative als auch qualitative Analyseverfahren zur Anwendung gebracht.
Einleitung: Empathie ist ein entscheidender Faktor mit direktem Bezug auf das therapeutische Outcome in der Arzt-Patienten Beziehung. Die Ausbildung junger Mediziner:innen ist jedoch sehr fachlich orientiert, soziale Fähigkeiten werden nur in geringem Ausmaß gelehrt. Am Fachbereich Medizin der Goethe Universität Frankfurt wurden Simulationspatient:innen (SPs) bisher hauptsächlich in Prüfungen eingesetzt, nicht aber in der Lehre. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob der Einsatz von SPs in der curricularen Lehre im Fach Chirurgie zur Vermittlung von strukturierten chirurgischen Anamnese- und Aufklärungsgesprächen umsetzbar ist, ob dieses einen Einfluss auf das empathische Verhalten der Studierenden hat, und ob es bei der gezeigten Empathie einen Unterschied zwischen SPs und reale Patient:innen (RPs) gibt. Zusätzlich wird untersucht, ob der Einsatz von SPs einen Einfluss auf den Lernerfolg in kommunikationsbasierten Prüfungen hat.
Methoden: Studienteilnehmende waren Studierende im 3. klinischen Semester am Fachbereich Medizin der Goethe Universität, die aktuell ihr curriculares Blockpraktikum Chirurgie absolvierten. Im Rahmen des Blockpraktikums Chirurgie durchliefen die Studierenden das ‚Training Praktischer Fertigkeiten‘ und hierbei das Modul ‚Kommunikation (Anamnese und Aufklärung)‘. Das Modul dauerte insgesamt 210 Minuten und setzte sich aus theoretischen Einheiten sowie praktischen Übungen (Rollenspielen) zusammen. Die Studienteilnehmenden wurden in 3 Studiengruppen randomisiert. Alle Teilnehmenden füllten zunächst zwei Fragebögen zum selbsteingeschätzten Empathielevel aus und lernten die identischen theoretischen Inhalte des Moduls. In den Rollenspielen trainierte Gruppe 1 mit SPs und wusste auch, dass es sich um SPs handelt. Gruppe 2 übte ebenfalls mit SPs, ging aber davon aus, dass es sich um reale Patient:innen handelte (Inkognito Patient:innen = IPs), Gruppe 3 übte mit RPs und war auch darüber informiert. Im Anschluss wurden die Studierenden anhand eines 10-Items Fragebogen in Hinblick auf die gezeigte Empathie durch die (Simulations-)-Patient:innen bewertet. Der Lernerfolg wurde anhand der Ergebnisse des Chirurgie-OSCE’s, den die Teilnehmenden 5-12 Wochen nach dem Modul absolvierten, ausgewertet.
Ergebnisse: Es zeigten sich signifikante Unterschiede bei dem vom Patienten wahrgenommenen Empathielevel zwischen Gruppe 1 (SP) und 2 (IP) und 1 (SP) und 3 (RP), nicht aber zwischen Gruppe 2 (IP) und 3 (RP). In dieser Konstellation wurden Studierende, welche mit RPs übten oder zumindest davon ausgingen, signifikant weniger empathisch bewertet. Es zeigten sich signifikante Unterschiede in der Eigeneinschätzung zwischen Männern und Frauen, nicht aber in der Fremdeinschätzung. Es gab keine signifikanten Unterschiede in den Ergebnissen der kommunikationsbasierenden Stationen der Chirurgie-OSCE zwischen den einzelnen Gruppen.
Schlussfolgerung: Der Einsatz von SPs im Hinblick auf den Lernerfolg in kommunikationsbasierenden Prüfungen ist gerechtfertigt und eine gute Möglichkeit, um Studierenden das Üben von Gesprächssituationen realistisch zu ermöglichen, ohne dabei akut klinische Patient:innen rekrutieren zu müssen. Dabei muss aber beachtet werden, dass das empathische Verhalten der Studierenden ein anderes ist, wenn sie mit RPs arbeiten, beziehungsweise davon ausgehen, mit einem RP zu arbeiten. Zur Förderung der Empathie sollten RPs und Feedback durch diese früh in die studentische Lehre implementiert werden.
1. Electron micrographs of ultra-thin sections of Staphylococcus aureus and Micrococcus lysodeikticus in Vestopal as embedding medium disclose a multiplicity of DNA containing threads with varying interparticular distances.
2. The diameter of these threads is about one tenth of the average optimal section thickness.
3. This section thickness inevitably is implicated in the visualization of the internal distances between the threads as well as in some common trends in the DNA pool, a fact that has to be accounted for in the analysis of the macromolecules.
4. By spreading lysozyme protoplasts of M. lysodeikticus on a water-air interface in a Langmuir trough and by transferring this surface layer to carbon supported Formvar films, two-dimensional systems can be demonstrated which as a thread of constant width comprise the total DNA content of one microorganism each.
5. Such a macromolecular system shows equally shaped, coiled loops in a peripheral zone and many crossings towards the center. Branching of threads never has been observed so far.
From this evidence we conlude:
a) Intracellular DNA in these bacteria seems to exist in one pool as a “woolen ball” which is centered in the cytoplasm as a more or less dense object.
b) This “woolen ball“ embodies the total amount of DNA most probably as one single threadlike unit.
6. Partial destruction of the thread system of protoplasts will result upon changing optimal spreading conditions.
7. The same kind of destruction is shown upon isolation of the DNA from protoplasts, the length of the threads being an inverse function of the number of precipitation steps showing purification.
No disease modifying therapy is currently available for Parkinson’s disease (PD), the second most common neurodegenerative disease. The long non-motor prodromal phase of PD is a window of opportunity for early detection and intervention. However, we lack the pathophysiological understanding to develop selective biomarkers and interventions. By developing a mutant α-synuclein selective-overexpression mouse model of prodromal PD, we identified a cell-autonomous selective Kv4 channelopathy in dorsal motor nucleus of the vagus (DMV) neurons. This functional remodeling of intact DMV neurons leads to impaired pacemaker function in vitro and in vivo, which in turn reduces gastrointestinal motility which is a common, very early symptom of prodromal PD. We show for the first time a causal chain of events from α-synuclein via a biophysical dysfunction of specific neuronal populations to a clinically relevant prodromal symptom. These findings can facilitate the rational design of clinical biomarkers to identify people at risk for PD.
Purpose: Recent studies demonstrated a contribution of adrenoceptors (ARs) to osteoarthritis (OA) pathogenesis. Several AR subtypes are expressed in joint tissues and the β2-AR subtype seems to play a major role during OA progression. However, the importance of β2-AR has not yet been investigated in knee OA. Therefore, we examined the development of knee OA in β2-AR-deficient (Adrb2-/-) mice after surgical OA induction.
Methods: OA was induced by destabilization of the medial meniscus (DMM) in male wildtype (WT) and Adrb2-/- mice. Cartilage degeneration and synovial inflammation were evaluated by histological scoring. Subchondral bone remodeling was analyzed using micro-CT. Osteoblast (alkaline phosphatase - ALP) and osteoclast (cathepsin K - CatK) activity were analyzed by immunostainings. To evaluate β2-AR deficiency-associated effects, body weight, sympathetic tone (splenic norepinephrine (NE) via HPLC) and serum leptin levels (ELISA) were determined. Expression of the second major AR, the α2-AR, was analyzed in joint tissues by immunostaining.
Results: WT and Adrb2-/- DMM mice developed comparable changes in cartilage degeneration and synovial inflammation. Adrb2-/- DMM mice displayed elevated calcified cartilage and subchondral bone plate thickness as well as increased epiphyseal BV/TV compared to WTs, while there were no significant differences in Sham animals. In the subchondral bone of Adrb2-/- mice, osteoblasts activity increased and osteoclast activity deceased. Adrb2-/- mice had significantly higher body weight and fat mass compared to WT mice. Serum leptin levels increased in Adrb2-/- DMM compared to WT DMM without any difference between the respective Shams. There was no difference in the development of meniscal ossicles and osteophytes or in the subarticular trabecular microstructure between Adrb2-/- and WT DMM as well as Adrb2-/- and WT Sham mice. Number of α2-AR-positive cells was lower in Adrb2-/- than in WT mice in all analyzed tissues and decreased in both Adrb2-/- and WT over time.
Conclusion: We propose that the increased bone mass in Adrb2-/- DMM mice was not only due to β2-AR deficiency but to a synergistic effect of OA and elevated leptin concentrations. Taken together, β2-AR plays a major role in OA-related subchondral bone remodeling and is thus an attractive target for the exploration of novel therapeutic avenues.
Although, during the past decades, substantial advances emerged in identifying major local and systemic factors contributing to initiation and progression of osteoarthritis (OA), some neuroendocrine mechanisms are still not understood or even neglected when thinking about novel therapeutic options. One of which is the sympathetic nervous system that exhibits various OA-promoting effects in different tissues of the joint. Interestingly, the β2-adrenoceptor (AR) mediates the majority of these effects as demonstrated by several in vitro, in vivo as well as in clinical studies. This review article does not only summarize studies of the past two decades demonstrating that the β2-AR plays an OA-promoting role in different tissues of the joint but also aims to encourage the reader to think about next-level research to discover novel and innovative preventive and/or therapeutic strategies targeting the β2-AR in OA.
„Ein Griff ins Rohr!“
(2022)