Refine
Year of publication
Document Type
- Article (5330)
- Doctoral Thesis (1508)
- Part of Periodical (211)
- Conference Proceeding (189)
- Preprint (171)
- Book (86)
- Contribution to a Periodical (67)
- Review (50)
- Working Paper (22)
- Part of a Book (17)
Language
Keywords
- inflammation (80)
- COVID-19 (60)
- SARS-CoV-2 (48)
- Inflammation (38)
- apoptosis (38)
- cancer (38)
- glioblastoma (38)
- breast cancer (34)
- autophagy (29)
- prostate cancer (28)
Institute
- Medizin (7671) (remove)
Ependymomas encompass a heterogeneous group of central nervous system (CNS) neoplasms that occur along the entire neuroaxis. In recent years, extensive (epi-)genomic profiling efforts have identified several molecular groups of ependymoma that are characterized by distinct molecular alterations and/or patterns. Based on unsupervised visualization of a large cohort of genome-wide DNA methylation data, we identified a highly distinct group of pediatric-type tumors (n = 40) forming a cluster separate from all established CNS tumor types, of which a high proportion were histopathologically diagnosed as ependymoma. RNA sequencing revealed recurrent fusions involving the pleomorphic adenoma gene-like 1 (PLAGL1) gene in 19 of 20 of the samples analyzed, with the most common fusion being EWSR1:PLAGL1 (n = 13). Five tumors showed a PLAGL1:FOXO1 fusion and one a PLAGL1:EP300 fusion. High transcript levels of PLAGL1 were noted in these tumors, with concurrent overexpression of the imprinted genes H19 and IGF2, which are regulated by PLAGL1. Histopathological review of cases with sufficient material (n = 16) demonstrated a broad morphological spectrum of tumors with predominant ependymoma-like features. Immunohistochemically, tumors were GFAP positive and OLIG2- and SOX10 negative. In 3/16 of the cases, a dot-like positivity for EMA was detected. All tumors in our series were located in the supratentorial compartment. Median age of the patients at the time of diagnosis was 6.2 years. Median progression-free survival was 35 months (for 11 patients with data available). In summary, our findings suggest the existence of a novel group of supratentorial neuroepithelial tumors that are characterized by recurrent PLAGL1 fusions and enriched for pediatric patients.
Background: Compound flaps offer the advantage of one stage defect reconstruction respecting all relevant tissues and early functional recovery by optimal vascularity of all components. Due to its specific vascular anatomy and the three-dimensional donor site, compound flaps with bone components may result in higher complication rates compared to soft tissue compound flaps. The meta-analysis summarizes the available evidence and evaluates whether bone components are a risk factor for periprocedural complications in upper extremity multidimensional defect reconstruction. Method: PubMed and Embase were searched for all publications addressing compound free flaps for upper extremity defect reconstruction with bone or soft tissue components published between January 1988 and May 2018. The methodological quality was assessed with the American Society of Plastic Surgeons Evidence Rating Scale for Therapeutic Studies. Flap loss, thrombosis rate, early infection, hematoma, seroma, as well as donor site complications were extracted and analyzed. Results: Twelve out of 1157 potentially eligible studies (evidence-III) comprising 159 patients were finally included with publication bias for all summarized complication rates. Complication rates for flaps with/ without bone components were: total flap loss 5%, 95% CI = 3%–10% (6%/5%); partial flap loss 8%, 95% CI = 5%–15%, (9%/8%); arterial/venous thrombosis 7%, 95% CI = 4%–12%, (8%/5%)/14%, 95% CI = 9%–21% (16%/6%, P < .05) with higher risk for flaps with bone components; infection 6%, 95% CI = 3%–12% (6%/6%); hematoma 6%, 95% CI = 3%–11% (6%/5%); seroma 5%, 95% CI = 3%–10% (5%/5%); dehiscence 10%, 95% CI = 6%–17% (11%/9%). Conclusion: Compound flaps for upper extremity defect reconstruction including bone components have a higher venous thrombosis rate compared to compound soft-tissue flaps.
Scores to identify patients at high risk of progression of coronavirus disease (COVID-19), caused by the severe acute respiratory syndrome coronavirus 2 (SARS-CoV-2), may become instrumental for clinical decision-making and patient management. We used patient data from the multicentre Lean European Open Survey on SARS-CoV-2-Infected Patients (LEOSS) and applied variable selection to develop a simplified scoring system to identify patients at increased risk of critical illness or death. A total of 1946 patients who tested positive for SARS-CoV-2 were included in the initial analysis and assigned to derivation and validation cohorts (n = 1297 and n = 649, respectively). Stability selection from over 100 baseline predictors for the combined endpoint of progression to the critical phase or COVID-19-related death enabled the development of a simplified score consisting of five predictors: C-reactive protein (CRP), age, clinical disease phase (uncomplicated vs. complicated), serum urea, and D-dimer (abbreviated as CAPS-D score). This score yielded an area under the curve (AUC) of 0.81 (95% confidence interval [CI]: 0.77–0.85) in the validation cohort for predicting the combined endpoint within 7 days of diagnosis and 0.81 (95% CI: 0.77–0.85) during full follow-up. We used an additional prospective cohort of 682 patients, diagnosed largely after the “first wave” of the pandemic to validate the predictive accuracy of the score and observed similar results (AUC for the event within 7 days: 0.83 [95% CI: 0.78–0.87]; for full follow-up: 0.82 [95% CI: 0.78–0.86]). An easily applicable score to calculate the risk of COVID-19 progression to critical illness or death was thus established and validated.
Background: Number of positive prostate biopsy cores represents a key determinant between high versus very high-risk prostate cancer (PCa). We performed a critical appraisal of the association between the number of positive prostate biopsy cores and CSM in high versus very high-risk PCa. Methods: Within Surveillance, Epidemiology, and End Results database (2010–2016), 13,836 high versus 20,359 very high-risk PCa patients were identified. Discrimination according to 11 different positive prostate biopsy core cut-offs (≥2–≥12) were tested in Kaplan–Meier, cumulative incidence, and multivariable Cox and competing risks regression models. Results: Among 11 tested positive prostate biopsy core cut-offs, more than or equal to 8 (high-risk vs. very high-risk: n = 18,986 vs. n = 15,209, median prostate-specific antigen [PSA]: 10.6 vs. 16.8 ng/ml, <.001) yielded optimal discrimination and was closely followed by the established more than or equal to 5 cut-off (high-risk vs. very high-risk: n = 13,836 vs. n = 20,359, median PSA: 16.5 vs. 11.1 ng/ml, p < .001). Stratification according to more than or equal to 8 positive prostate biopsy cores resulted in CSM rates of 4.1 versus 14.2% (delta: 10.1%, multivariable hazard ratio: 2.2, p < .001) and stratification according to more than or equal to 5 positive prostate biopsy cores with CSM rates of 3.7 versus 11.9% (delta: 8.2%, multivariable hazard ratio: 2.0, p < .001) in respectively high versus very high-risk PCa. Conclusions: The more than or equal to 8 positive prostate biopsy cores cutoff yielded optimal results. It was very closely followed by more than or equal to 5 positive prostate biopsy cores. In consequence, virtually the same endorsement may be made for either cutoff. However, more than or equal to 5 positive prostate biopsy cores cutoff, based on its existing wide implementation, might represent the optimal choice.
Ataxia-telangiectasia (A-T) is a hereditary immune system disorder with neurodegeneration. Its first neurologic symptoms include ataxic gait in early childhood, with slowly progressive cerebellar ataxia, oculomotor apraxia, oculocutaneous telangiectasia, and progressive muscle weakness. Neonatal screening for severe T-cell deficiency was recently found to diagnose A-T patients with a significantly reduced naïve T-cell pool. Our study includes 69 A-T patients between 8 January 2002 and 1 December 2019. Nineteen cases of cancer were diagnosed in 17 patients (25%), with a median overall survival [OS; 95% cumulative indcidence (CI)] of 26·9 years for the entire cohort. The 15-year OS of 82·5% (72–95%) was significantly decreased among A-T patients with malignancies, who had a median OS of 2·11 years, with a two-year-estimated OS of 50·7% (31–82%). Haematological malignancies were the major causes of death within the initial years of life with a 15 times increased risk for death [HR (95% CI): 6·9 (3·1–15.2), P < 0·001] upon malignancy diagnosis. Male patients with A-T are at a higher cancer risk than their female counterparts. This manuscript highlights the need for cancer surveillance and prevention, as well as optimal treatment in this cohort.
Background: Fabry disease (FD), the second most prevalent lysosomal storage disorder, is classified as a rare disease. It often leads to significant quality of life impairments and premature death. Many cases remain undiagnosed due to the rarity and heterogeneity. Further, costs related to treatment often constitute a substantial financial burden for patients and health systems. While its epidemiology is still unclear, newborn screenings suggest that its actual prevalence rate is significantly higher than previously suspected. Methods: Based on well-established methodologies, this study gives an overview about the background of the development of FD-related research and provides a critical view of future needs. Results: On the grounds of benchmarking findings, an increasing research activity on FD can be observed. Most publishing countries are the USA, some European countries, Japan, Taiwan, and South Korea. In general, high-income countries publish comparably more on FD than low- or middle-income economies. The countries' financial and infrastructural background are unveiled as crucial factors for the FD research activity. Conclusions: Overall, there is a need to foster FD research infrastructure in developing and emerging countries with focus on cost-intensive genetic research that is independent from economic interests of big pharmaceutical companies.
Objective: Deep brain stimulation (DBS) of the ventral intermediate nucleus (VIM) is a mainstay treatment for severe and drug-refractory essential tremor (ET). Although stimulation-induced dysarthria has been extensively described, possible impairment of swallowing has not been systematically investigated yet. Methods: Twelve patients with ET and bilateral VIM-DBS with self-reported dysphagia after VIM-DBS were included. Swallowing function was assessed clinically and using by flexible endoscopic evaluation of swallowing in the stim-ON and in the stim-OFF condition. Presence, severity, and improvement of dysphagia were recorded. Results: During stim-ON, the presence of dysphagia could be objectified in all patients, 42% showing mild, 42% moderate, and 16 % severe dysphagia. During stim-OFF, all patients experienced a statistically significant improvement of swallowing function. Interpretation: VIM-DBS may have an impact on swallowing physiology in ET-patients. Further studies to elucidate the prevalence and underlying pathophysiological mechanisms are warranted.
Background: Breast cancer is the leading cause of cancer-related deaths in women, demanding new treatment options. With the advent of immune checkpoint blockade, immunotherapy emerged as a treatment option. In addition to lymphocytes, tumor-associated macrophages exert a significant, albeit controversial, impact on tumor development. Pro-inflammatory macrophages are thought to hinder, whereas anti-inflammatory macrophages promote tumor growth. However, molecular markers to identify prognostic macrophage populations remain elusive. Methods: We isolated two macrophage subsets, from 48 primary human breast tumors, distinguished by the expression of CD206. Their transcriptomes were analyzed via RNA-Seq, and potential prognostic macrophage markers were validated by PhenOptics in tissue microarrays of patients with invasive breast cancer. Results: Normal human breast tissue contained mainly CD206+ macrophages, while increased relative amounts of CD206− macrophages were observed in tumors. The presence of CD206+ macrophages correlated with a pronounced lymphocyte infiltrate and subsets of CD206+ macrophages, expressing SERPINH1 and collagen 1, or MORC4, were unexpectedly associated with improved survival of breast cancer patients. In contrast, MHCIIhi CD206− macrophages were linked with a poor survival prognosis. Conclusion: Our data highlight the heterogeneity of tumor-infiltrating macrophages and suggest the use of multiple phenotypic markers to predict the impact of macrophage subpopulations on cancer prognosis. We identified novel macrophage markers that correlate with the survival of patients with invasive mammary carcinoma.
Aims: Systemic inflammatory response, identified by increased total leucocyte counts, was shown to be a strong predictor of mortality after transcatheter aortic valve implantation (TAVI). Yet the mechanisms of inflammation-associated poor outcome after TAVI are unclear. Therefore, the present study aimed at investigating individual inflammatory signatures and functional heterogeneity of circulating myeloid and T-lymphocyte subsets and their impact on 1 year survival in a single-centre cohort of patients with severe aortic stenosis undergoing TAVI. Methods and results: One hundred twenty-nine consecutive patients with severe symptomatic aortic stenosis admitted for transfemoral TAVI were included. Blood samples were obtained at baseline, immediately after, and 24 h and 3 days after TAVI, and these were analysed for inflammatory and cardiac biomarkers. Myeloid and T-lymphocyte subsets were measured using flow cytometry. The inflammatory parameters were first analysed as continuous variables; and in case of association with outcome and area under receiver operating characteristic (ROC) curve (AUC) ≥ 0.6, the values were dichotomized using optimal cut-off points. Several baseline inflammatory parameters, including high-sensitivity C-reactive protein (hsCRP; HR = 1.37, 95% CI: 1.15–1.63; P < 0.0001) and IL-6 (HR = 1.02, 95% CI: 1.01–1.03; P = 0.003), lower counts of Th2 (HR = 0.95, 95% CI: 0.91–0.99; P = 0.009), and increased percentages of Th17 cells (HR = 1.19, 95% CI: 1.02–1.38; P = 0.024) were associated with 12 month all-cause mortality. Among postprocedural parameters, only increased post-TAVI counts of non-classical monocytes immediately after TAVI were predictive of outcome (HR = 1.03, 95% CI: 1.01–1.05; P = 0.003). The occurrence of SIRS criteria within 48 h post-TAVI showed no significant association with 12 month mortality (HR = 0.57, 95% CI: 0.13–2.43, P = 0.45). In multivariate analysis of discrete or dichotomized clinical and inflammatory variables, the presence of diabetes mellitus (HR = 3.50; 95% CI: 1.42–8.62; P = 0.006), low left ventricular (LV) ejection fraction (HR = 3.16; 95% CI: 1.35–7.39; P = 0.008), increased baseline hsCRP (HR = 5.22; 95% CI: 2.09–13.01; P < 0.0001), and low baseline Th2 cell counts (HR = 8.83; 95% CI: 3.02–25.80) were significant predictors of death. The prognostic value of the linear prediction score calculated of these parameters was superior to the Society of Thoracic Surgeons score (AUC: 0.88; 95% CI: 0.78–0.99 vs. 0.75; 95% CI: 0.64–0.86, respectively; P = 0.036). Finally, when analysing LV remodelling outcomes, ROC curve analysis revealed that low numbers of Tregs (P = 0.017; AUC: 0.69) and increased Th17/Treg ratio (P = 0.012; AUC: 0.70) were predictive of adverse remodelling after TAVI. Conclusions: Our findings demonstrate an association of specific pre-existing inflammatory phenotypes with increased mortality and adverse LV remodelling after TAVI. Distinct monocyte and T-cell signatures might provide additive biomarkers to improve pre-procedural risk stratification in patients referred to TAVI for severe aortic stenosis.
Aims: Inadequate treatment is one of the factors interfering with a successful social and working life. Among students, it can impair their health and learning progress. In the field of medicine the problem of inadequate treatment seems widespread. This study examines wether inadequate treatment in internships differs between medicine and other academic disciplines.
Method: Using a questionnaire, the frequency, forms and severity of inadequate treatment among students were compared between the disciplines of medicine, civil engineering and teaching.
Results: 69,3% of medical students reported inadequate treatment during their internships, about twice as many as students of other disciplines. The ratios of verbal, non-verbal and organisational inadequate treatment were similar between the different academic disciplines. However, medical students executed tasks without receiving sufficient safety precautions or training significantly more often (sevenfold) than students of other disciplines. In total however, the experienced incidents of inadequate treatment were seen as similarly severe across the different academic fields.
Conclusion: Inadequate treatment of students during internships is a larger problem in medicine than in civil engineering or teaching, particularly concerning the performance of unsafe tasks. With regard to the health of students and patients, inadequate treatment in the medical education should be tackled. Previous studies suggest that this goal can be achieved only through longtime extensive measures on the level of students, lecturers, faculty and teaching hospitals.
Die allergische Rhinitis (AR) zählt zu einer der häufigsten chronischen Atemwegserkrankungen und betrifft weltweit etwa 500 Millionen Menschen. Bei einem Teil der Patienten mit rhinitischer Symptomatik lassen sich in den herkömmlichen Tests jedoch keine Hinweise für eine Allergensensibilisierung aufweisen. Diese Patienten wurden in der Vergangenheit häufig der Gruppe der nicht-allergischen Rhinitis (NAR) zugeordnet, welche über 200 Millionen Menschen weltweit betrifft. In den letzten zwei Jahrzehnten hat sich die lokale allergische Rhinitis (LAR) als wichtige Differentialdiagnose zur NAR oder idiopathischen Rhinitis (IR) ergeben. Einige Autoren postulieren, dass bis zu einem Viertel der chronischen Rhinitiker von LAR betroffen sein könnten und bis zu 62,5 % der bisher als NAR oder IR klassifizierten Patienten eine LAR haben könnten. Die LAR wird durch allergiesuggerierende Rhinitissymptome, eine positive Reaktion im nasalen Provokationstest (NPT) mit Inhalationsallergenen und das gelegentliche Vorhandensein spezifischer Antikörper in der Nasen-schleimhaut definiert, ohne dass ein Nachweis systemischer Sensibilisierung zu finden ist.
Da große Unterschiede der LAR-Prävalenzangaben herrschen, war es das Ziel der Arbeit, diese bei Personen mit ganzjähriger Rhinitis herauszufinden und die nasale Mukosa auf lokales spezifisches IgE (sIgE) zu untersuchen.
Hierfür wurden aus einer Gruppe von insgesamt 156 gescreenten Testpersonen 63 weitergehend erforscht. Einundzwanzig Patienten mit ganzjähriger NAR wurden herausgefiltert, untersucht und deren Ergebnisse mit denen von
24 AR Patienten und Hausstaubmilben (HDM)-Allergie sowie 18 Kontrollen verglichen. Wir untersuchten die Ausprägung der klinischen Symptomatik sowie die Reaktion im Haut-Prick-Test, das Gesamt-IgE und sIgE gegen die Milbenspezies Dermatophagoides pteronyssinus (D1) und Dermatophagoides farinae (D2) in Serum und Nasensekret (NS) und führten mit allen einen NPT mit D2 durch. Der NPT wurde mithilfe der Messung des peak nasal inspiratory flow (PNIF) und des Lebel-Scores bewertet.
Während sich die Ausprägung der klinischen Symptomatik der NAR- und AR Patienten sehr ähnelte, wies keiner der NAR-Patienten nasales sIgE gegen HDM oder eine positive Reaktion im NPT gegen D2 auf. Der Nasensummenscore lag sowohl bei AR- und NAR-Patienten im Median bei 11 von 24 Punkten (Range: 6–21 Punkte beziehungsweise 6–20 Punkte) und hob sich signifikant von dem der Kontrollen ab, welche einen Score von 0 Punkten (Range: 0–5 Punkte) aufwiesen. Der Median des sIgE-D1 und sIgE-D2 im NS lag sowohl bei NAR Patienten als auch Kontrollen bei 0,1 kU/L (Range: 0,1–0,1 kU/L) und unterschied sich nicht signifikant voneinander. Im Gegensatz dazu zeigten 94,12 % der untersuchten AR-Proben erhöhtes sIgE-D1 oder sIgE-D2 im NS. Die mediane Konzentration im NS lag bei AR-Patienten für sIgE-D1 bei 1,19 kU/L (Range: 0,1–14,93 kU/L) und für sIgE-D2 bei 2,34 kU/L (Range: 0,1–22,14 kU/L). Der NPT mit D2 war bei 13/14 AR-Patienten (= 92,86 %) und keinem der NAR-Patienten oder Kontrollen positiv. Sowohl die absolute als auch die prozentuale PNIF-Abnahme nach HDM-Provokation unterschied sich zwischen AR-Patienten und Kontrollen sowie zwischen Patienten mit AR und NAR signifikant. Die prozentuale PNIF-Reduktion lag nach HDM-Provokation in der AR-Gruppe bei 55,85 %, der NAR-Gruppe bei 7,14 % und bei Kontrollen bei 0 %. Es ließ sich jedoch kein signifikanter Unterschied zwischen Kontrollen und NAR-Patienten feststellen.
Aufgrund der erhobenen Ergebnisse ist festzuhalten, dass wir nur in der Gruppe der AR positive NPTs und nasales sIgE gegen HDM-Spezies nachweisen konnten und wir demnach für diese Studie eine Prävalenz der LAR unter den NAR-Patienten von 0 % feststellen. Wir gehen in Zusammenschau unserer Befunde daher davon aus, dass die Prävalenz von LAR im Bereich der NAR oder IR in der untersuchten in Deutschland lebenden Population deutlich niedriger sein muss als zuvor in anderen Populationen berichtet.
Das kolorektale Karzinom stellt die zweithäufigste Krebstodesursache bei Männern und Frauen in der Bundesrepublik Deutschland dar
Das CRC hat aus diesem Grund eine große Bedeutung in chirurgischen und radiologischen Fachgebieten. Hierbei spielen zahlreiche Verfahren und Behandlungsmethoden eine zentrale Rolle, um das CRC und die hiervon ausgehenden kolorektalen Lebermetastasen zu behandeln und eine bestmögliche Therapie zu evaluieren. Über die letzten Jahrzehnte haben sich daher viele verschiedene Methoden für die Behandlung von CRLMs entwickelt, wie Mikrowellenablation (MWA), laserinduzierte interstitielle Thermotherapie (LITT), Radiofrequenzablation (RFA) und das chirurgische Vorgehen. Die vielversprechendste unter den Techniken und Verfahren stellt die chirurgische Resektion dar. Problematisch ist hierbei, dass viele erkrankte Patienten keine ausreichend gute körperliche Verfassung mehr aufweisen, um eine Resektion ohne große Risiken durchführen zu können.
Das Hauptziel dieser Studie war es nun, eine möglichst genaue und
aussagekräftige Untersuchung von Patientengruppen durchzuführen, bei denen eine kolorektale Lebermetastase diagnostiziert wurde. In der vorliegenden Studie wurden 132 Patienten mit kolorektalen Lebermetastasen (CRLM) untersucht, welche zwischen 2010 und 2018 mit einer CT-gesteuerten MWA-Therapie im Institut für Diagnostische und Interventionelle Radiologie des Universitätsklinikums in Frankfurt am Main behandelt wurden. Hierbei war von besonderer Bedeutung, welche prognostischen Parameter die Überlebenszeiten und Überlebensraten beeinflussen. Die Daten konnten anhand von vielfältigen Personendaten und den dazugehörigen Therapieverläufen erhoben werden. Außerdem wurden CT-Bilder, welche im Zuge der Behandlung entstanden waren, für die Erhebung zusätzlicher Parameter verwendet. Die erhobenen Daten und Messwerte wurden retrospektiv ermittelt und umfassten eine große Patientengruppe. Dies steigert die Aussagekraft der Ergebnisse und Kennzahlen wesentlich. Ein besonderes Augenmerk lag auf der Einteilung der Patienten in zwei Gruppen entsprechend ihrer Behandlungsindikation.
Zu den prognostischen Faktoren zählten das Ablationssystem, die Lokation der Metastasen, die Anzahl der Metastasen, der technische Erfolg, die Energie und Leistung, der Durchmesser und das Volumen der Metastasen, die Vor- und Nachbehandlung und die Lokalrezidive.
Die Patientengruppe mit palliativer Therapieindikation (1.08 Jahre) zeigte eine signifikant geringere mediane Überlebenszeit im Vergleich mit der kurativen Patientengruppe (3.48 Jahre). Die mediane Überlebenszeit aller Patienten betrug insgesamt 2.68 Jahre. Zusätzlich wurden die Überlebensraten der Patienten ermittelt. Die 1- und 3-Jahres-Überlebensraten aller behandelten Patienten im Untersuchungszeitraum lagen bei 82.7% und 41.6%. Die 1- und 3-JahresÜberlebensraten der 57 Patienten mit palliativer Behandlungsindikation waren 54.4% und 14.9%. Im Vergleich hierzu betrugen die 1- und 3-JahresÜberlebensraten der kurativ behandelten Patientengruppe 96.9% und 55.1%. Die mediane Beobachtungszeit nach der Behandlung betrug 2.39 Jahre. In dieser Zeit erreichten 96.2% aller Patienten eine lokale Tumorkontrolle (127/132). Die Überlebenszeit von Patienten mit einer, zwei oder drei, vier oder fünf und multiplen Lebermetastasen betrug 3.79, 2.13, 1.09 und 0.93 Jahre (alle p<0,017). Es gab eine einzige relevante Komplikation (Abszess) bei allen Behandlungen (1/257; 0,4%). Alle Unterschiede der Überlebenszeiten im primären Tumorursprung (p <0,038) und bei der Anzahl der Metastasen waren signifikant. Die anderen prognostischen Faktoren zeigten keine statistische Signifikanz. Prognostische Faktoren wie die Anzahl der Lebermetastasen, die Lokation des Primärtumors und das verwendete Ablationssystem haben einen bedeutenden Einfluss auf die Überlebenszeiten der CRLM-Patienten in dieser Studie gezeigt. Die Ergebnisse dieser Studie sind als vornehmlich anzusehen, weil eine strenge Zuteilung der Patienten in kurative und palliative Behandlungsindikationen für die Analyse der Überlebensdaten in dieser Form bis zu diesem Zeitpunkt nicht durchgeführt worden war.
Die Prognosefaktoren und deren Einfluss auf die Überlebenszeiten stellen für zukünftige radiologische Prognosen und Therapiemaßnahmen in Bezug auf CRLM Patienten gute Richtwerte dar. Sowohl für die Radiologen und Ärzte als auch für die Patienten und Angehörigen sind dies zukunftsweisende Anhaltspunkte.
In dieser Dissertation wird der Frage nachgegangen, inwiefern sich unangemessene Behandlung in der praktischen Ausbildung zwischen Medizinstudierenden und Studierenden anderer Studienfächer unterscheidet. Zudem wird untersucht, welcher Einfluss der Hierarchie im angestrebten Beruf von den Probanden diesbezüglich zugemessen wird. Auch wird untersucht, wie sich Persönlichkeitsmerkmale auf die Wahrscheinlichkeit, unangemessene Behandlung zu erleben, auswirken.
Die vorliegende Arbeit thematisiert den Vergleich der Bildqualität von Liegend-Röntgen-Thorax-Aufnahmen von Patienten auf der Intensivstation des Universitätsklinikums Frankfurt unter Verwendung einerseits eines parallelen und andererseits eines virtuellen Streustrahlenrasters (=Bildverarbeitungssoftware). Es wurde untersucht, ob mit dem virtuellen Raster eine mindestens gleichwertige Bildqualität wie mit dem parallelen Raster erreicht und gleichzeitig Strahlendosis eingespart werden kann.
Insgesamt wurden 378 Röntgen-Thorax-Aufnahmen von 126 Patienten, die jeweils einmal mit parallelem Raster, mit virtuellem Raster und mit dem gleichen virtuellen Raster mit Dosisreduktion durchgeführt wurden, in die Studie eingeschlossen. Das virtuelle Raster ahmt das parallele Raster in der Streustrahlenreduktion nach. Das Übergewicht der Patienten als Einschlusskriterium der Studie rechtfertigte den Einsatz des parallelen Rasters. Jeder Patient wurde nur nach klinischer Indikationsstellung geröntgt, sodass der zeitliche Abstand zwischen zwei Röntgen-Thorax-Aufnahmen unterschiedlicher Aufnahmetechniken desselben Patienten variierte. Für alle Röntgen-Thorax-Aufnahmen wurde derselbe indirekte Flachdetektor verwendet. Die Röhrenspannung betrug konstant 125 kV, das Strom-Zeit-Produkt 1,4 mAs (für das parallele und virtuelle Raster) bzw. 1,0 mAs (für das virtuelle Raster mit Dosisreduktion). Für jeden Röntgen-Thorax wurde das Dosisflächenprodukt bestimmt. Vier Radiologen evaluierten die Bildqualität hinsichtlich sechs Kriterien (Lungenparenchym, Weichteile, thorakale Wirbelsäule, Fremdkörper, Pathologien und Gesamtqualität) anhand einer 9-Punkte-Skala. Der Friedman-Test (p < 0,05: signifikant) wurde angewendet. Die Übereinstimmung der Radiologen wurde über Intraklassenkorrelationskoeffizienten berechnet.
Das virtuelle Raster ohne/mit Dosisreduktion wurde insgesamt von allen vier Radiologen für die Weichteile, die thorakale Wirbelsäule, die Fremdkörper und die Gesamtbildqualität signifikant besser bewertet als das parallele Streustrahlenraster (p ≤ 0,018).
Für das Lungenparenchym und die Pathologien resultierten sowohl signifikante als auch nicht-signifikante Ergebnisse, wobei bei signifikanten Ergebnissen ebenfalls das virtuelle Raster ohne/mit Dosisreduktion besser bewertet wurde als das parallele Streustrahlenraster (p ≤ 0,002). Einzige Ausnahme stellten die Evaluationen der Bildqualität bez. des Lungenparenchyms eines Radiologen dar, der das virtuelle Raster ohne/mit Dosisreduktion signifikant schlechter bewertete als das parallele Raster (p < 0,0001). Insgesamt wurde das virtuelle Raster mit Dosisreduktion für die folgenden Kriterien am besten in absteigender Reihenfolge im Vergleich zum parallelen Raster bewertet: Fremdkörper, thorakale Wirbelsäule, Weichteile, Gesamtbildqualität, Pathologien und Lungenparenchym. Die Übereinstimmung der vier Radiologen in ihren Bildqualitätsbewertungen war maximal gering. Mit dem virtuellen Raster wurde im Durchschnitt etwa 28,7% des Dosisflächenprodukts im Vergleich zum parallelen Streustrahlenraster eingespart (p < 0,0001).
Bisher haben nur vier Studien Streustrahlenreduktionssoftwares an Liegend-Röntgen-Thorax-Aufnahmen untersucht, davon zwei an lebenden Menschen. Limitationen der vorliegenden Studie sind die Subjektivität der Bewertungen der Radiologen, die mögliche Identifizierung der Röntgen-Thorax-Aufnahmen, die mit dem parallelen Streustrahlenraster als gängige Aufnahmetechnik in der Radiologie des Universitätsklinikums Frankfurt durchgeführt wurden, die Konstanz der Expositionsparameter unabhängig des BMI der Patienten und die eingeschränkte Vergleichbarkeit der Röntgen-Thorax-Aufnahmen desselben Patienten aufgrund von Veränderungen der Pathologien, Fremdkörper, etc. bei (großem) zeitlichem Abstand zwischen den Röntgen-Thorax-Aufnahmen.
Das virtuelle Raster erzielte teils eine gleichwertige, teils eine bessere Bildqualität wie/als das parallele Raster bei gleichzeitiger Dosisreduktion von 28,7% und kann es somit bei Liegend-Röntgen-Thorax-Aufnahmen ersetzen. Weitere Studien sollten den Einsatz des virtuellen Rasters bei Röntgenaufnahmen des Thorax (stehend und liegend) und anderer Körperpartien im Hinblick auf die Bildqualität, (höhere) Dosiseinsparungen und den Workflow untersuchen.
Hämophilie A (HA) ist eine X-chromosomal-rezessiv vererbte Blutgerinnungsstörung mit einem vollständigen Fehlen oder einem funktionellen Defizit des Gerinnungsfaktors VIII (FVIII). Trotz der Therapiefortschritte innerhalb der letzten Jahre, zeigen HA-Patienten auch unter der regelmäßigen FVIII-Substitutionstherapie weiterhin multiple Komplikationen, einschließlich Gelenkschäden, Entstehung einer Immunantwort (Hemmkörper) und reduzierter Lebensqualität. Im Gegensatz zu den bisherigen Therapieoptionen stellt die Gentherapie (GT) die vielversprechende Möglichkeit einer dauerhaften Anhebung des FVIII-Spiegels bis hin zur Heilung der HA in Aussicht.
In der vorliegenden Arbeit konnte ein geeignetes HA-Zellmodell auf Basis der primären humanen hepatischen sinusoidalen Endothelzellen (HHSEC) etabliert werden, um die zukünftige Erforschung einer SaCas-CRISPR-basierten HA-GT in vitro zu evaluieren, sowie wichtige Erkenntnisse für weiterführende Arbeiten gewonnen werden.
Mittels stabiler Integration des Doxycyclin-induzierbaren large T-Onkogens konnte eine gut charakterisierte, immortale HHSEC_LT-Zelllinie hergestellt werden, welche funktionalen FVIII exprimiert. Weiterhin konnte gezeigt werden, dass die Immortalisierung in Abhängigkeit von Doxycyclin für weiterführende Experimente in der Zellkultur essenziell ist, um Stressreaktionen der HHSEC, aufgrund ra-scher Seneszenz und Apoptose, zu umgehen.
Im weiteren Verlauf des GT-Projektes sollten verschiedene HHSEC-F8-Mutations-Zelllinien hergestellt werden. Neben der Gensequenzierung wurden in der vorliegenden Arbeit mehrere in Betracht kommende FVIII-Detektionsverfahren getestet, um den Erfolg einer eingeführten F8-Genmutation in HHSEC sowie ihrer anschließenden Reparatur im weiteren Verlauf des GT-Projektes auch auf Proteinebene zu demonstrieren. Hierbei konnte gezeigt wer-den, dass für die vorliegende Fragestellung sich insbesondere die Immunfluoreszenz- (IF-) Mikroskopie und die Quantifizierung der FVIII-Aktivität (FVIII:C) mittels aPTT-basierter Messung zur spezifischen Detektion von FVIII in HHSEC bewähren.
In Anlehnung an patientenspezifische F8-Genmutationen mit einem Frameshift-Effekt wurden fünf verschiedene sgRNA/SaCas9-CRISPR-Expressionsvektoren konstruiert und mittels lentiviralem Gentransfer in die immortalisierten HHSEC stabil transduziert. Nach PCR-Amplifikation der betreffenden genomischen Loci dieser fünf verschiedenen stabil transduzierten HHSEC-F8-Mutations-Zelllinien zeigte die anschließende Sequenzierung, dass vier der fünf hergestellten Konstrukte Genveränderungen mit potenziellen Frameshift-Effekten in HHSEC generieren konnten, wovon zwei sehr gute Ergebnisse erzielten. Korrelierend zu den Sequenzierergebnissen konnten ebenfalls Verminderungen der FVIII-Fluoreszenzintensität mittels mikroskopischer IF-Aufnahmen sowie der FVIII:C mittels aPTT-basierter Messung dargestellt werden.
Weiterhin konnte bei der Beurteilung des morphologischen Erscheinungsbildes der stabil transduzierten HHSECs eine optisch veränderte Zellmorphologie sowie ein Wachstumsnachteil innerhalb der beiden Zellpools mit den höchst erreichten Indel-Raten und der niedrigsten FVIII:C beobachtet werden. Diese Beobachtungen erlaubten die Formulierungen neuartiger, vielversprechender Hypothesen in Bezug auf das Grundverständnis der HA-Erkrankung.
In der vorliegenden Studie wurden Patienten mit struktureller Epilepsie bedingt durch eine fokale kortikale Dysplasie (FCD) mittels moderner Magnetresonanztomographie (MRT)-Verfahren untersucht.
Bei FCDs handelt es sich um Fehlbildungen der Großhirnrinde, die mit einer hohen epileptogenen Aktivität vergesellschaftet sind. Einige dieser Patienten unterziehen sich einer epilepsiechirurgischen Resektion, sind jedoch hiernach hinsichtlich ihrer Anfallsfrequenz dennoch nicht ausreichend kontrollierbar, weshalb Grund zur Annahme besteht, dass es neben der fokalen kortikalen Dysplasie andere Faktoren geben könnte, die epileptische Anfälle verursachen.
Basierend auf dieser Überlegung wurde mittels T2-Relaxometrie untersucht, ob bei Patienten mit FCDs mikrostrukturelle Veränderungen in Teilen des Kortex vorhanden sind, die mittels konventioneller MRT-Verfahren normal bzw. gesund erscheinen. Es wird angenommen, dass bei diesen Patienten auch außerhalb der FCD mikrostrukturelle Veränderungen, beispielsweise bedingt durch Schädigung im Rahmen von Anfällen oder durch Therapieeffekte, vorzufinden sind.
Für die Studie wurden 16 Patienten mit einer neuroradiologisch gesicherten FCD und 16 hinsichtlich des Alters und des Geschlechts gematchte gesunde Probanden rekrutiert.
Die Daten wurden an einem 3 Tesla (T) MRT-Scanner erhoben. Um die T2-Relaxationszeit zu messen, wurden Spin-Echo Datensätze mit verschiedenen Echozeiten (TE) aufgezeichnet. Zur Erfassung der Ausdehnung der FCD wurden konventionelle fluid-attenuated inversion recovery (FLAIR)-Datensätze akquiriert. Zur Segmentierung des Gewebes wurden synthetische T1-gewichtete magnetization-prepared rapid acquisition of gradient echos (MP-RAGE)-Datensätze aus quantitativen T1-Karten berechnet. Der Kortex und dessen Grenzflächen wurden mittels FreeSurfer anhand der MP-RAGE-Datensätze identifiziert und die kortikale Dicke wurde gemessen. Die FCD-Areale wurden in den FLAIR-Datensätzen manuell markiert und aus den T2-Karten exkludiert, um die FCD-assoziierten Veränderungen nicht in die Analyse einzubeziehen.
Anschließend wurden kortikale T2-Werte ausgelesen und in Oberflächendatensätzen gespeichert, um dann durchschnittliche kortikale T2-Werte für jeden Probanden zu ermitteln und mittels ungepaartem t-Test zwischen den Gruppen zu vergleichen. Zudem wurde der Pearson-Korrelationskoeffizient zwischen den kortikalen T2 Werten und klinischen Parametern berechnet. Außerdem wurde eine oberflächenbasierte Gruppenanalyse kortikaler T2-Werte und der kortikalen Dicke durchgeführt. Hierbei wurden Permutationssimulationen durchgeführt, um kortikale Cluster zu erkennen, die fokale Gruppenunterschiede anzeigen, und um für Mehrfachvergleiche zu korrigieren.
Die Analyse ergab, dass die durchschnittlichen kortikalen T2-Werte außerhalb der FCD in der Patientenkohorte im Vergleich zu den gesunden Probanden signifikant erhöht waren. Diese T2-Veränderungen zeigten weder eine signifikante Korrelation mit der Anzahl der Anfälle der letzten drei Monate, noch mit der Anzahl der jemals eingenommenen antiepileptischen Medikamente. Insbesondere wurden T2-Erhöhungen in den frontalen, parietalen und manchen temporalen Regionen festgestellt. Die oberflächenbasierte Analyse der Kortexdicke zeigte keine signifikanten Gruppenunterschiede.
Mittels T2-Relaxometrie und oberflächenbasierten Analyse-Techniken wurden demnach T2-Veränderungen des mittels konventioneller MRT-Bildgebung unauffällig erscheinenden zerebralen Kortex bei Patienten mit FCD und Epilepsie festgestellt.
Die Ergebnisse deuten auf das Vorhandensein von mikrostrukturellen Veränderungen hin, die sich mit konventionellen MRT-Verfahren nicht erfassen lassen. Potentielle Ursachen dieser Veränderungen sind neben Effekten der antikonvulsiven Medikation möglicherweise auch gliotischer Gewebeumbau bedingt durch stattgehabte epileptische Anfälle. Die Studie legt nahe, dass strukturelle Epilepsien mehr als ein Symptom bedingt durch eine fokale Läsion sind und stattdessen das Gehirn als Ganzes betreffen.
Aktive Hörimplantate befinden sich seit Mitte der 1980er Jahre im klinischen Einsatz. Aufgrund der inzwischen sehr hohen Anwendungszahl und durch-schnittlich sehr langen Anwendungsdauer gelten diese als sehr sicher. Dennoch können Komplikation auftreten. Eine Komplikation wurde in der vorliegenden Arbeit als Auftreten eines negativen Ereignisses außerhalb des gewünschten Behandlungsablaufes gewertet.
Ziel dieser Arbeit war es, aufgetretene Komplikationen zu kategorisieren und zu quantifizieren. Ferner sollte untersucht werden, ob bestimmte Faktoren Einfluss auf die Häufigkeit von Komplikationen haben, insbesondere in Bezug auf die verschiedenen Implantat- und Elektrodenträgermodelle. Es wurden neben der Erfassung und Quantifizierung unerwünschter Ereignisse vier Hypothesen for-muliert, die sich aus der klinischen Erfahrung der Anwendung der Systeme ergaben: (H1) Kinder entwickeln nach Cochlea-Implantation häufiger Entzün-dungen. (H2) Implantatmodelle mit Magnettasche führen häufiger zu Infektio-nen. (H3) Perimodiolare Elektrodenträger führen häufiger zu „Tip fold-over“ (Umschlagen der Elektrodenträgerspitze). (H4) Gerade Elektrodenträger führen häufiger zu Elektrodenträgerdislokation.
In dieser Arbeit wurden alle von Januar 2006 bis Dezember 2016 im Universi-tätsklinikum Frankfurt mit aktiven Hörimplantaten versorgten Patienten einge-schlossen. Unter den 1274 Patienten befanden sich 583 Patienten, bei denen mindestens eine Komplikation auftrat. Hiervon machten den Großteil Schmer-zen (16,9 %), Drehschwindel (15,6 %) und Infektionen im Verlauf (8,3 %) aus.
Es wurde aus dem Datenmaterial eine Patientengruppe von 503 betroffenen Patienten gebildet, die nach der Operation erstmals eine Komplikation angaben. In dieser Kohorte „Erstereignis“ traten Komplikationen vor allem in den Bereichen Entzündung (281 Patienten), Hören (183 Patienten) und Gleichgewicht (158 Patienten) auf. Bei den unilateral versorgten Patienten dieser Kohorte zeigte sich das erste Ereignis durchschnittlich nach 5,64 Jahren, bei den beid-seitig Operierten trat das erste Ereignis durchschnittlich nach 7,35 Jahren auf.
Die Implantatmodelle wichen im Auftreten von Komplikationen voneinander ab: Die höchsten Komplikationsraten traten bei den Modellen HiRes90K mit 37 von 81 (45,7 %), Synchrony mit 62 von 140 (44,3 %), und Nucleus 5 mit 115 von 274 (42,0 %) auf. Die Elektrodenträgerbauformen wiesen signifikante (p < 0,001) Unterschiede untereinander auf: Die meisten Komplikationen traten bei den Elektrodenträgerbauarten Medium (75 %), Midscala (58,8 %), Slim Modi-olar (54,3 %), und Straight (52,1 %) auf. Eine Infektion trat besonders bei den Implantaten Synchrony (1,34 Jahre) und Clarion (1,57 Jahre) früh auf. Die Modelle Pulsar (7,51 Jahre) und CI24RE (6,13 Jahre) zeigten ein eher spätes Auftreten. Für das Auftreten einer Infektion der Implantatmodelle lag p unter 0,001, was für signifikante Unterschiede bezüglich des Zeitpunktes des Auftretens spricht. Die Elektrodenträgerbauart zeigte in Bezug auf eine Hörbeeinträchtigung und in Bezug auf das Auftreten einer Elektrodenträger bezogenen Komplikation, wie Tip fold-over, Migration oder inkomplette Insertion hoch signifikante (p < 0,001) Unterschiede. Elektrodenträgerbauformen wie Midscala, Straight und Slim Modiolar führten früh nach durchschnittlich einem (Slim Modiolar) bis 2,5 (Straight) Jahren zum ersten Auftreten von einem veränderten Höreindruck nach CI-Implantation. Etwas häufiger traten Probleme mit dem Elektrodenträger wie Tip fold-over, Migration oder inkomplette Insertion bei den Modellen Flex Soft und Helix auf, am häufigsten bei dem Modell Flex 24.
(H1) Bei Kindern traten signifikant (p < 0.001) häufiger implantatbezogene Entzündungen auf als bei Erwachsenen. In der Gruppe „Erstereignis“ hatten 66,0 % der Kinder und 23,7 % der Erwachsenen eine Entzündung. (H2) Das Vor-handensein einer Magnettasche an der Implantat-Empfänger-Spule führte nicht signifikant häufiger zum Auftreten einer Entzündung. (H3) Vorgekrümmte (engl. pre-curved) Elektrodenträger zeigten eine höhere Inzidenz für Tip fold-over als gerade Elektrodenträger. (H4) Gerade Elektrodenträger zeigten eine höhere Inzidenz für eine Migration des Elektrodenträgers. Insgesamt traten im betrach-teten Kollektiv „Erstereignis“ 11 Migrationen auf, 10 davon bei geraden Elektro-denträgern (p = 0,03).
Insgesamt führen Faktoren wie die Implantatmodelle, Elektrodenträgerbauformen, Alter des Patienten früher zum Auftreten von Komplikationen. Für zukünftige Studien wäre eine eigene Auswertung der noch relativ neuen (2012) Mittelohrimplantate interessant.
1.1. Einleitung
Die periprothetische Infektion (PPI) gilt als eine der schwersten Komplikationen nach endoprothetischem Gelenkersatz, deren Behandlung einen hohen finanziellen, personellen und zeitlichen Aufwand erfordert. Das Krankheitsbild ist seit Beginn der Endoprothetik bekannt und das Wissen um die Pathophysiologie wurde seitdem vertieft. Die Therapie wurde um stadienadaptierte Konzepte, wirksame Antibiotika und verbesserte Implantate beachtlich erweitert. Dennoch liegt die Inzidenz der PPI beim Kniegelenk unverändert zwischen einem und zwei Prozent, bei Risikopatienten auch deutlich darüber (1). Falle einer PPI sind die primären Ziele aus Patientensicht die Wiederherstellung der Gehfähigkeit und Schmerzfreiheit bei Implantation einer beweglichen Revisionsprothese. Es zeigt sich allerdings, dass nach mehrmaligem Prothesenwechsel die Gelenkfunktion, die Patientenzufriedenheit und das Outcome abnehmen. Nach multiplen Operationen am betroffenen Gelenk leidet der Streckapparat und ein Verlust von Knochen ist unumgänglich. In diesen Extremsituationen müssen neben der Ultima Ratio einer Amputation auch Salvage-Prozeduren, wie das Anlegen einer stabilen Arthrodese, erwogen werden. Das klinische Outcome und die Lebensqualität hiervon sind bisher weitgehend unbekannt. Daher vergleicht die vorliegende Arbeit das klinische und funktionelle Behandlungsergebnis in Kombination mit der resultierenden Lebensqualität von Patienten, bei denen das Anlegen einer stabilen Arthrodese klinisch erforderlich war, mit dem von Patienten nach Implantation einer Revisionsprothese als Resultat eines mehrzeitigen septischen Endoprothesen-Wechsels.
1.2. Material und Methoden
Die Studie umfasste 104 Patienten (2010-2017), von denen alle eine periprothetische Infektion einer Knie-Totalendoprothese (KTEP) aufwiesen. In einem mehrzeitigen Verfahren wurde das Implantat gewechselt. Nach Infektberuhigung erfolgte die Implantation eines Revisionsimplantates. Im Falle von ausgedehnten Knochendefekten oder bei Verlust der Streckapparates wurde ein modularer intramedullärer Arthrodesenagel verwendet (Knie-Arthrodese-Modul, KAM-Gruppe; n=52). In der Kontrollgruppe wurde eine gekoppelte Revisionsprothese reimplantiert (Rotating Hinge Knee, RHK-Gruppe; n=52). Infektremissionsraten und das klinische Behandlungsergebnis (anhand des Knee Society Score (KSS) und Western Ontario McMasters Universities Osteoarthritis Index (WOMAC), sowie die Lebensqualität (anhand des Short Form Health Survey 12 (SF-12)) wurden gemessen. Zusätzlich wurden patientenbezogene Daten, wie Komorbititäten (Charlson Comorbidity Index (CCI)) und das Schmerzniveau (visuelle Analogskala), untersucht.
1.3. Ergebnisse
Das Durchschnittsalter der Studienteilnehmer war 72,5 Jahre. Der Charlson Comorbidity Index war in der KAM-Gruppe leicht erhöht (3,3 KAM versus 2,8 RHK). Die Infektberuhigungsrate lag bei 89,4% (88,5 KAM versus 90,4% RHK). Bei Reinfektion war der Prothesenerhalt vor allem in der RHK-Gruppe (7,7%) möglich, Amputationen mussten hauptsächlich in der KAM-Gruppe (9,6%) durchgeführt werden. In beiden Gruppen wurde eine signifikante Schmerzreduktion (visuelle Analogskala prä-OP: 7,9 post-OP: 2,8) erreicht. Die Gehstrecke der KAM-Gruppe war signifikant gegenüber der RHK-Gruppe (504 Meter KAM versus 1064 Meter RHK) vermindert. Der KSS Funktionsscore und der WOMAC (25 KAM versus 40 RHK bzw. 35 KAM versus 64 RHK) waren in der KAM-Gruppe ebenfalls signifikant niedriger. Eine etwas niedrigere Lebensqualität wurde in der KAM-Gruppe (SF-12 Körpersubskala 34 KAM versus 40 RHK; SF-12 Psychesubskala 51 KAM versus 56 RHK) beobachtet. Die generelle Zufriedenheit mit der Behandlung lag in der KAM-Gruppe bei 88% und bei 81% in der RHK-Gruppe.
1.4. Schlussfolgerungen
Sowohl durch Therapie mittels Revisionsprothese als auch durch Arthrodese konnten hohe Infektremissionsraten erreicht werden. Die Gehstrecke und Gelenkfunktion war nach Arthrodesenimplantation reduziert, doch war die Rehabilitationszeit deutlich kürzer. Eine Arthrodese mit intramedullärer Marknagelung bietet eine gute Therapieoption zum Extremitätenerhalt, zur Schmerzreduktion und zum Erhalt von Lebensqualität und Alltagsmobilität, wenn aufgrund von Knochensubstanzverlust und Streckapparatinsuffizienz keine Möglichkeit zur Implantation einer Revisionsprothese mehr besteht.
Autophagy is a highly conserved catabolic process cells use to maintain their homeostasis by degrading misfolded, damaged and excessive proteins, nonfunctional organelles, foreign pathogens and other cellular components. Hence, autophagy can be nonselective, where bulky portions of the cytoplasm are degraded upon stress, or a highly selective process, where preselected cellular components are degraded. To distinguish between different cellular components, autophagy employs selective autophagy receptors, which will link the cargo to the autophagy machinery, thereby sequestering it in the autophagosome for its subsequent degradation in the lysosome. Autophagy receptors undergo post-translational and structural modifications to fulfil their role in autophagy, or upon executing their role, for their own degradation. We highlight the four most prominent protein modifications – phosphorylation, ubiquitination, acetylation and oligomerisation – that are essential for autophagy receptor recruitment, function and turnover. Understanding the regulation of selective autophagy receptors will provide deeper insights into the pathway and open up potential therapeutic avenues.