Refine
Year of publication
Document Type
- Article (5330)
- Doctoral Thesis (1508)
- Part of Periodical (211)
- Conference Proceeding (189)
- Preprint (171)
- Book (86)
- Contribution to a Periodical (67)
- Review (50)
- Working Paper (22)
- Part of a Book (17)
Language
Keywords
- inflammation (80)
- COVID-19 (60)
- SARS-CoV-2 (48)
- Inflammation (38)
- apoptosis (38)
- cancer (38)
- glioblastoma (38)
- breast cancer (34)
- autophagy (29)
- prostate cancer (28)
Institute
- Medizin (7671) (remove)
Aims: Parkinson's disease (PD) is frequently associated with a prodromal sensory neuropathy manifesting with sensory loss and chronic pain. We have recently shown that PD-associated sensory neuropathy in patients is associated with high levels of glucosylceramides. Here, we assessed the underlying pathology and mechanisms in Pink1−/−SNCAA53T double mutant mice. Methods: We studied nociceptive and olfactory behaviour and the neuropathology of dorsal root ganglia (DRGs), including ultrastructure, mitochondrial respiration, transcriptomes, outgrowth and calcium currents of primary neurons, and tissue ceramides and sphingolipids before the onset of a PD-like disease that spontaneously develops in Pink1−/−SNCAA53T double mutant mice beyond 15 months of age. Results: Similar to PD patients, Pink1−/−SNCAA53T mice developed a progressive prodromal sensory neuropathy with a loss of thermal sensitivity starting as early as 4 months of age. In analogy to human plasma, lipid analyses revealed an accumulation of glucosylceramides (GlcCer) in the DRGs and sciatic nerves, which was associated with pathological mitochondria, impairment of mitochondrial respiration, and deregulation of transient receptor potential channels (TRPV and TRPA) at mRNA, protein and functional levels in DRGs. Direct exposure of DRG neurons to GlcCer caused transient hyperexcitability, followed by a premature decline of the viability of sensory neurons cultures upon repeated GlcCer application. Conclusions: The results suggest that pathological GlcCer contribute to prodromal sensory disease in PD mice via mitochondrial damage and calcium channel hyperexcitability. GlcCer-associated sensory neuron pathology might be amenable to GlcCer lowering therapeutic strategies.
Amide proton transfer-chemical exchange saturation transfer (APT-CEST) imaging provides important information for the diagnosis and monitoring of tumors. For such analysis, complete coverage of the brain is advantageous, especially when registration is performed with other magnetic resonance (MR) modalities, such as MR spectroscopy (MRS). However, the acquisition of Z-spectra across several slices via multislice imaging may be time-consuming. Therefore, in this paper, we present a new approach for fast multislice imaging, allowing us to acquire 16 slices per frequency offset within 8 s. The proposed fast CEST-EPI sequence employs a presaturation module, which drives the magnetization into the steady-state equilibrium for the first frequency offset. A second module, consisting of a single CEST pulse (for maintaining the steady-state) followed by an EPI acquisition, passes through a loop to acquire multiple slices and adjacent frequency offsets. Thus, the whole Z-spectrum can be recorded much faster than the conventional saturation scheme, which employs a presaturation for each single frequency offset. The validation of the CEST sequence parameters was performed by using the conventional saturation scheme. Subsequently, the proposed and a modified version of the conventional CEST sequence were compared in vitro on a phantom with different T1 times and in vivo on a brain tumor patient. No significant differences between both sequences could be found in vitro. The in vivo data yielded almost identical MTRasym contrasts for the white and gray matter as well as for tumor tissue. Our results show that the proposed fast CEST-EPI sequence allows for rapid data acquisition and provides similar CEST contrasts as the modified conventional scheme while reducing the scanning time by approximately 50%.
Objective: To assess the effect of cesarean section (CS) timing, elective versus unplanned, on the residual myometrial thickness (RMT) and CS scars. Methods: This is a prospective single-blinded observational cohort study with 186 observations. Patients indicated to undergo first singleton CS were preoperatively recruited. Exclusion criteria were history of repeated CS, vertical hysterotomy, diabetes, and additional uterine surgeries. Sonographic examination was performed for assessing the RMT ratio, the presence of a niche, fibrosis, and the distance from the scar to the internal os (SO) 1 year after CS. Power analysis was performed with 0.05 α, 0.1 β, and all statistical analyses were conducted with Stata®. Results: Wilcoxon rank-sum test for the association between CS timing, RMT ratio and SO showed Z values of −0.59 and −4.94 (P = 0.553 and P < 0.001), respectively. There was no association between CS timing and niches and fibrosis (P > 0.99 and P = 0.268, respectively). Linear regression between SO and the extent of cervical dilatation showed a −0.45 β (95% confidence interval −0.68 to −0.21) and a 10.22-mm intercept (P < 0.001). Conclusion: RMT is independent of the timing of CS, but the SO distance shows a negative linear relationship with the cervical dilatation.
Aim: To evaluate preclinical education in Endodontology at Austrian, German and Swiss dental schools using an online survey. Methodology: An online survey divided into nine categories was sent using SurveyMonkey software to 37 dental schools, before the spread of the COVID-19 pandemic. The questionnaire included 50 questions to evaluate preclinical endodontic education, such as faculty-to-student ratios, topics taught and materials used, in preclinical phantom head courses. Seven and 14 days after the first e-mail contact, dental schools received a reminder e-mail. After four and six weeks, the dental schools were contacted by telephone and asked to participate in the online survey. The processing time was eight weeks in total. Results: The response rate was 89%. Preclinical endodontic education at the participating dental schools differs considerably. Theory classes ranged from 1 to 70 h (15 h mean), and practical classes ranged from 3 to 78 h (39 h mean). The faculty-to-student ratio varied between 1:4 and 1:38 (1:15 mean). Forty-five per cent of the dental schools had a specialist in endodontics teaching theory. Several dental microscopes were available for preclinical teaching purposes at 82% of the dental schools. The majority (82%) taught root canal preparation with rotary or reciprocating NiTi instruments. Overall, 85% of the dental schools taught lateral compaction, amongst other methods, for canal filling. Conclusion: A substantial divergence amongst the dental schools regarding the time dedicated to theory and practical instruction in Endodontology was reported. However, convergence in the use of root canal treatment techniques and materials was reported.
Background: Recently, an increase in the rates of high-risk prostate cancer (PCa) was reported. We tested whether the rates of and low, intermediate, high and very high-risk PCa changed over time. We also tested whether the number of prostate biopsy cores contributed to changes rates over time. Methods: Within the Surveillance, Epidemiology and End Results (SEER) database (2010–2015), annual rates of low, intermediate, high-risk according to traditional National Comprehensive Cancer Network (NCCN) and high versus very high-risk PCa according to Johns Hopkins classification were tabulated without and with adjustment for the number of prostate biopsy cores. Results: In 119,574 eligible prostate cancer patients, the rates of NCCN low, intermediate, and high-risk PCa were, respectively, 29.7%, 47.8%, and 22.5%. Of high-risk patients, 39.6% and 60.4% fulfilled high and very high-risk criteria. Without adjustment for number of prostate biopsy cores, the estimated annual percentage changes (EAPC) for low, intermediate, high and very high-risk were respectively −5.5% (32.4%–24.9%, p < .01), +0.5% (47.6%–48.4%, p = .09), +4.1% (8.2%–9.9%, p < .01), and +8.9% (11.8%–16.9%, p < .01), between 2010 and 2015. After adjustment for number of prostate biopsy cores, differences in rates over time disappeared and ranged from 29.8%–29.7% for low risk, 47.9%–47.9% for intermediate risk, 8.9%–9.0% for high-risk, and 13.6%–13.6% for very high-risk PCa (all p > .05). Conclusions: The rates of high and very high-risk PCa are strongly associated with the number of prostate biopsy cores, that in turn may be driven by broader use magnetic resonance imaging (MRI).
BAG3 is a negative regulator of ciliogenesis in glioblastoma and triple-negative breast cancer cells
(2021)
By regulating several hallmarks of cancer, BAG3 exerts oncogenic functions in a wide variety of malignant diseases including glioblastoma (GBM) and triple-negative breast cancer (TNBC). Here we performed global proteomic/phosphoproteomic analyses of CRISPR/Cas9-mediated isogenic BAG3 knockouts of the two GBM lines U343 and U251 in comparison to parental controls. Depletion of BAG3 evoked major effects on proteins involved in ciliogenesis/ciliary function and the activity of the related kinases aurora-kinase A and CDK1. Cilia formation was significantly enhanced in BAG3 KO cells, a finding that could be confirmed in BAG3-deficient versus -proficient BT-549 TNBC cells, thus identifying a completely novel function of BAG3 as a negative regulator of ciliogenesis. Furthermore, we demonstrate that enhanced ciliogenesis and reduced expression of SNAI1 and ZEB1, two key transcription factors regulating epithelial to mesenchymal transition (EMT) are correlated to decreased cell migration, both in the GBM and TNBC BAG3 knockout cells. Our data obtained in two different tumor entities identify suppression of EMT and ciliogenesis as putative synergizing mechanisms of BAG3-driven tumor aggressiveness in therapy-resistant cancers.
Rationale: Postinfectious bronchiolitis obliterans (PIBO) is a rare, chronic respiratory condition, which follows an acute insult due to a severe infection of the lower airways. Objectives: The objective of this study was to investigate the long-term course of bronchial inflammation and pulmonary function testing in children with PIBO. Methods: Medical charts of 21 children with PIBO were analyzed retrospectively at the Children's University Hospital Frankfurt/Main Germany. Pulmonary function tests (PFTs) with an interval of at least 1 month were studied between 2002 and 2019. A total of 382 PFTs were analyzed retrospectively and per year, the two best PFTs, in total 217, were evaluated. Additionally, 56 sputum analysis were assessed and the sputum neutrophils were evaluated. Results: The evaluation of the 217 PFTs showed a decrease in FEV1 with a loss of 1.07% and a loss in z score of −0.075 per year. FEV1/FVC decreased by 1.44 per year. FVC remained stable, showing a nonsignificant increase by 0.006 in z score per year. However, FEV1 and FVC in L increased significantly with FEV1 0.032 L per cm and FVC 0.048 L/cm in height. Sputum neutrophils showed a significant increase of 2.12% per year. Conclusion: Our results demonstrated that in patients with PIBO pulmonary function decreased significantly showing persistent obstruction over an average follow-up period of 8 years. However, persistent lung growth was revealed. In addition, pulmonary inflammation persisted clearly showing an increasing amount of neutrophils in induced sputum. Patients did not present with a general susceptibility to respiratory infections.
Objective: To assess tooth loss (TL) in initially periodontally healthy/gingivitis (PHG) and periodontally compromised (PC) individuals during a 15- to 25-year follow-up in a specialist practice and to identify the factors influencing TL. Materials and methods: Patients were re-examined 240 ± 60 months after active periodontal therapy (PC) or initial examination (PHG). PHG patients were periodontally healthy or had gingivitis, and PC patients exhibited at least stage II periodontitis. TL, patient-related outcomes, and risk factors for TL were assessed at the patient level (group-relation, gender, age, smoking, bleeding on probing, educational status, mean number of visits/year). Results: Fifty-six PC patients receiving regular supportive periodontal care (12 female, mean age 49.1 ± 10.9 years, stage II: 10, stage III/IV: 46) lost 38 teeth (0.03 ± 0.05 teeth/year). Fifty-one PHG patients (23 female, mean age 34.5 ± 12.4 years) following regular oral prevention lost 39 teeth (0.04 ± 0.05 teeth/year) (p = .631). Both PC and PHG groups did not show any significant differences regarding visual analogue scale measurements [aesthetics (p = .309), chewing function (p = .362), hygiene (p = .989)] and overall Oral Health Impact Profile (p = .484). Age at the start of follow-up was identified as a risk factor for TL (p < .0001). Conclusion: PC and PHG patients exhibited similarly small TL rates over 240 ± 60 months, which should, however, be interpreted with caution in view of the group heterogeneity. Clinical trial number: DRKS00018840 (URL: https://drks.de).
Degradation of the endoplasmic reticulum (ER) via selective autophagy (ER-phagy) is vital for cellular homeostasis. We identify FAM134A/RETREG2 and FAM134C/RETREG3 as ER-phagy receptors, which predominantly exist in an inactive state under basal conditions. Upon autophagy induction and ER stress signal, they can induce significant ER fragmentation and subsequent lysosomal degradation. FAM134A, FAM134B/RETREG1, and FAM134C are essential for maintaining ER morphology in a LC3-interacting region (LIR)-dependent manner. Overexpression of any FAM134 paralogue has the capacity to significantly augment the general ER-phagy flux upon starvation or ER-stress. Global proteomic analysis of FAM134 overexpressing and knockout cell lines reveals several protein clusters that are distinctly regulated by each of the FAM134 paralogues as well as a cluster of commonly regulated ER-resident proteins. Utilizing pro-Collagen I, as a shared ER-phagy substrate, we observe that FAM134A acts in a LIR-independent manner and compensates for the loss of FAM134B and FAM134C, respectively. FAM134C instead is unable to compensate for the loss of its paralogues. Taken together, our data show that FAM134 paralogues contribute to common and unique ER-phagy pathways.
Introduction: Adeno-associated virus (AAV)-based gene therapy for haemophilia presents a challenge to the existing structure of haemophilia centres and requires a rethink of current collaboration and information exchange with the aim of ensuring a system that is fit-for-purpose for advanced therapies to maximise benefits and minimise risks. In Europe, a certification process based on the number of patients and facilities is offered to the haemophilia centres by European Haemophilia Network (EUHANET). Aim and methods: This joint European Association for Haemophilia and Allied Disorders (EAHAD) and European Haemophilia Consortium (EHC) publication describes criteria for centres participating in gene therapy care that require a reassessment of the infrastructure of comprehensive care and provides an outlook on how these criteria can be implemented in the future work of haemophilia centres. Results: The core definition of a haemophilia treatment centre remains, but additional roles could be implemented. A modifiable ‘hub-and-spoke’ model addresses all aspects associated with gene therapy, including preparation and administration of the gene therapy product, determination of coagulation and immunological parameters, joint score and function, and liver health. This will also include the strategy on how to follow-up patients for a long-term safety and efficacy surveillance. Conclusion: We propose a modifiable, networked ‘hub and spoke’ model with a long term safety and efficacy surveillance system. This approach will be progressively developed with the goal of making haemophilia centres better qualified to deliver gene therapy and to make gene therapy accessible to all persons with haemophilia, irrespective of their country or centre of origin.
Aim: It can be challenging to distinguish COVID-19 in children from other common infections. We set out to determine the rate at which children consulting a primary care paediatrician with an acute infection are infected with SARS-CoV-2 and to compare distinct findings. Method: In seven out-patient clinics, children aged 0–13 years with any new respiratory or gastrointestinal symptoms and presumed infection were invited to be tested for SARS-CoV-2. Factors that were correlated with testing positive were determined. Samples were collected from 25 January 2021 to 01 April 2021. Results: Seven hundred and eighty-three children participated in the study (median age 3 years and 0 months, range 1 month to 12 years and 11 months). Three hundred and fifty-eight were female (45.7%). SARS-CoV-2 RNA was detected in 19 (2.4%). The most common symptoms in children with as well as without detectable SARS-CoV-2 RNA were rhinitis, fever and cough. Known recent exposure to a case of COVID-19 was significantly correlated with testing positive, but symptoms or clinical findings were not. Conclusion: COVID-19 among the children with symptoms of an acute infection was uncommon, and the clinical presentation did not differ significantly between children with and without evidence of an infection with SARS-CoV-2.
The majority of excitatory synapses terminating on cortical neurons are found on dendritic spines. The geometry of spines, in particular the size of the spine head, tightly correlates with the strength of the excitatory synapse formed with the spine. Under conditions of synaptic plasticity, spine geometry may change, reflecting functional adaptations. Since the cytokine tumor necrosis factor (TNF) has been shown to influence synaptic transmission as well as Hebbian and homeostatic forms of synaptic plasticity, we speculated that TNF-deficiency may cause concomitant structural changes at the level of dendritic spines. To address this question, we analyzed spine density and spine head area of Alexa568-filled granule cells in the dentate gyrus of adult C57BL/6J and TNF-deficient (TNF-KO) mice. Tissue sections were double-stained for the actin-modulating and plasticity-related protein synaptopodin (SP), a molecular marker for strong and stable spines. Dendritic segments of TNF-deficient granule cells exhibited ∼20% fewer spines in the outer molecular layer of the dentate gyrus compared to controls, indicating a reduced afferent innervation. Of note, these segments also had larger spines containing larger SP-clusters. This pattern of changes is strikingly similar to the one seen after denervation-associated spine loss following experimental entorhinal denervation of granule cells: Denervated granule cells increase the SP-content and strength of their remaining spines to homeostatically compensate for those that were lost. Our data suggest a similar compensatory mechanism in TNF-deficient granule cells in response to a reduction in their afferent innervation.
Grundlagen: Das Neuroblastom ist der häufigste extrakranielle solide Tumor im Kindesalter. Die Patienten in der Hochrisikogruppe haben trotz der Weiterentwicklung der Therapie immer noch eine sehr schlechte Prognose. Die Entwicklung von Resistenzen und die darauffolgende Progression der Erkrankung sind kennzeichnende Phänomene innerhalb dieser Patientengruppe.
Die hier vorgestellte Charakterisierung von MYCN amplifizierten, Cisplatin adaptierten chemoresistenten Neuroblastomsublinien UKF-NB-3rCDDP1000 I bis XII ist eine grundlegende Aufgabe, um den Phänotyp des multiresistenten/ Hochrisiko Neuroblastoms besser zu verstehen. Des Weiteren könnte diese Charakterisierung zu einem besseren Verständnis der Rolle von Krebsstammzellen beim Neuroblastom führen.
Methoden: Die Empfindlichkeit zu verschiedenen Zytostatika wurde im Viabilitätsassay untersucht. Die Expression mehrerer Stammzellmarker wurde durch Durchflusszytometrie überprüft. Im Western Blot wurde die Expression der Proteine p53, p21, XIAP und Survivin untersucht. Die Proliferation der verschiedenen Sublinien wurde durch den Kolonienbildungstest untersucht.
Ergebnise: In dieser Arbeit wurde nachgewiesen, dass die Cisplatin adaptierten Sublinien zusätzliche Resistenzen gegenüber weiteren klassischen Zytostatika zeigen. Abgesehen von der erworbenen Cisplatin-Resistenz zeigen die
Cisplatinsublinien erhöhte IC50-Werte für die Wirkstoffe YM-155, Doxorubicin, Melphalan, Vincristin, Docetaxel, Etoposid, Carboplatin und Vinblastin (jeweils im Vergleich zu UKF-NB-3). Von den getesteten klassischen Zytostatika hat nur Gemcitabin bei den Cisplatin adaptierten Sublinien eine gute Wirksamkeit. In dieser Arbeit konnte die Expression von mehreren Stammzellmarkern, sowohl bei den Cisplatin resistenten Sublinien als auch bei der parentalen Zelle UKFNB-3, nachgewiesen werden. Durch die Cisplatinadaptierung ergaben sich Unterschiede in der Expression von CD-133, Nanog, Nestin, Sox-2 und GD2. Im Kolonienbildungstest konnten keine großen Unterschiede festgestellt werden, die
Cisplatin-adaptierten Sublinien zeigen tendenziell eine geringere Kolonienbildung als UKF-NB-3.
Konklusion: Der Nachweis von unterschiedlichen Stammzellmarkern bei den Neuroblastomsublinien UKF-NB-3rCDDP1000 I bis XII ist ein wichtiger Hinweis für die Existenz von Zellen mit Stammzellfähigkeiten innerhalb der Sublinien.
Durch ein besseres Verständnis der biologischen Merkmale in resistenten Neuroblastomzellen könnten neuartige gezielte Therapiestrategien entdeckt werden. Viele der bei dieser Arbeit untersuchten Moleküle vermögen einen Effekt bei der Entstehung von Resistenzen und bei Aufrechterhaltung der Proliferation und Überleben von Neuroblastomzellen sowie Neuroblastomkrebsstammzellen zu haben. Folglich könnten diese Zielmoleküle (CD-133, Nanog, Nestin, Sox-2 und GD2) in der Zukunft benutzt werden, um neue therapeutische Strategien zu entwickeln, die sowohl die multiresistenten Neuroblastomzellen als auch die Neuroblastom-krebsstammzellen besser abtöten können. Zusätzlich ist Gemcitabin als Medikament nach Cisplatintherapie klinisch interessant.
In der Akuten Lymphatischen Leukämie (ALL) im Erwachsenenalter beträgt die 5–Jahres-Überlebensrate trotz verbesserter Therapien unter 40%. Die Prognose wird durch das Auftreten von Rezidiven signifikant verschlechtert. ALL entsteht durch genetische Veränderungen lymphatischer Vorläuferzellen im Knochenmark, welche zu einem Differenzierungsblock und zu starker Zunahme der Vorläufer-zellen führen. Eine mögliche Erklärung für das bestehende hohe Rezidiv-Risiko wird in der unvollständigen Elimination von Leukämie-induzierenden Zellen (LIZ) durch die Primärtherapie gesehen. Die Identifizierung und Charakterisierung von LIZ in der ALL anhand spezifischer Oberflächenmarker war bisher nicht möglich, daher ist die molekulare und funktionelle Charakterisierung von LIZ für die Entwicklung moderner Therapieansätze unabdingbar. Metabolische Analysen primärer ALL-Langzeitkulturen (LZK) in Vorarbeiten zeigten eine deutliche Abweichung des Kohlenhydratstoffwechsels vom physiologischen metabolischen Profil einer Knochenmarkszelle hin zur Nutzung der Glykolyse mit zunehmendem leukämogenen Potential der etablierten LZK. Folglich ist in dieser Dissertation der Zusammenhang zwischen höherer Glukoseaffinität, schnellerer Glukoseaufnahme und dem Vorliegen eines höheren leukämogenen Potentials der Zellen und damit einer Definition der LIZ anhand ihres Energiestoffwechsels untersucht worden.
Hierfür wurden Tests im Mausmodell in vivo und in vitro mit drei ALL-LZK CR, PH und BV durchgeführt. Wir etablierten unter Verwendung des fluoreszenzmarkierten Glukoseanalogons 2–NBDG sowie eines gegen den GLUT–1 gerichteten Antikör-pers jeweils ein durchflusszytometrisches Verfahren zur quantitativen Messung der Glukoseaufnahme. Anhand dieser Parameter erfolgte die FACS-Anreicherung unterschiedlicher Zellpopulationen der LZK und die Xenotransplantation zur Evaluation potentieller Unterschiede des leukämogenen Potentials.
Durch durchflusszytometrische Messungen konnten in den drei LZK jeweils drei Subpopulationen von Zellen anhand ihrer Glukoseaffinität unterschieden werden (2–NBDG negativ, 2–NBDG positiv und 2–NBDG hochaffin). Auch zeigten sich Unterschiede in der Kinetik der Glukoseaufnahme der drei getesteten LZK, wobei CR Zellen mit Abstand am schnellsten 2–NBDG aufnahmen, gefolgt von PH. Die schnellere Glukoseaufnahme der LZK CR und PH wurde durch eine vermehrte Expression des GLUT-1 Rezeptors und einen höheren Anteil an GLUT–1 positiver Zellen hervorgerufen. Interessanterweise bestand auch eine Korrelation zwischen höherem leukämogenem Potential mit schnellerer Glukoseaufnahme und stärkerer GLUT–1 Expression. Hierbei zeigte sich, dass die HIF-1α Stabilisierung unter Normoxie in einer vermehrten GLUT–1 Expression und daraufhin vermehrter Glukoseaufnahme resultierte. Die prospektive Anreicherung von distinkten Zellsubpopulationen der LZK CR und PH aufgrund ihrer Glukoseaufnahme (gemessen durch 2–NBDG) und Transplantation der sortierten Zellpopulationen in NSG Empfängermäuse zeigte keine kohärente Beziehung zwischen der Glukoseaffinität der Zellen und der Entwicklung der Leukämie. Während es bei CR Zellen initial zu einer beschleunigten Expansion der 2–NBDG-positiv sortierten Leukämiezellen kommt, was sich aber nicht signifikant auf das Gesamtüberleben der Empfängermäuse auswirkt, zeigte die serielle Transplantation von 2–NBDG negativen Zellen ein schnelleres Ableben der Tiere. Bei der LZK PH expandierten 2–NBDG-negative Zellen schneller in primären Empfängermäusen als positive Zellen. Dabei konnten zelltoxische Effekte durch die Verwendung von 2–NBDG ausgeschlossen werden. Auch die Transplantation von GLUT-1 positiven bzw. negativen CR Zellen zeigte, dass GLUT-1 negative Zellen schneller in den Mäusen expandierten, eine aggressivere Leukämie verursachten und zu einem früheren Ableben der Mäuse führte.
Diese Ergebnisse zeigen keine unmittelbare Korrelation von Glukoseaufnahme oder GLUT-1 Expression und der Leukämogenität der untersuchten ALL Zellen. Daher können diese Eigenschaften nicht dazu verwendet werden LIZ in ALL prospektiv anzureichern. Im Rahmen dieser Dissertation zeigte sich aber auch, dass sich die LZK in ihrer jeweiligen Gesamtpopulation bezüglich ihres Glukoseaufnahmeverhaltens und ihrem Anteil GLUT-1-positiver Zellen unterschieden. Weiterführende Untersuchungen sind nötig, um den Grund der differentiellen Expression von GLUT-1 und der damit zusammenhängenden gesteigerten Glukoseaufnahme einzelner Zellen in der ALL zu ermitteln.
Stereotaktische Biospien gehören seit vielen Jahren zu den Standardoperationen zahlreicher neurochirurgischer Kliniken. Hierbei werden Proben von Hirnläsionen entnommen, um diese histopathologisch zu untersuchen.
Die histopathologische Diagnose unklarer Hirnläsionen ist zwingend erforderlich, um eine adäquate Therapie durchzuführen. Eine weitere Therapie kann aus Bestrahlung, Chemotherapie, Kombination beider oder Resektion bestehen. In wenigen Fällen wird eine zweite oder dritte Biopsie benötigt, um eine endgültige Diagnose zu erhalten. Das Ziel dieser Studie war es, jene Patienten genauer zu untersuchen, bei denen die erste Biopsie kein definitives Ergebnis erbracht hatte. Die meisten dieser Patienten mussten sich einer zweiten Biopsie unterziehen. Wir haben eine umfassende Recherche der letzten 10 Jahre durchgeführt und eine Datenbank mit den Patienten erstellt, bei denen die erste Biopsie kein Ergebnis erbracht hatte.
Hierbei wurden klinische Parameter, welche einen Einfluss auf die nicht zielführenden Biopsie haben können, erhoben, beschrieben und diskutiert. Die Parameter umfassten die entnommene Probenanzahl, Kontrastmittelaufnahme der Läsion, Lokalisation der Läsion, Erfahrung des Operateurs, neuroradiologische Verdachtsdiagnose und Vorbehandlung.
Wir haben in dieser retrospektiven Arbeit unser Augenmerk auf die klinischen Aspekte der einzelnen Patienten, bei denen die erste Biopsie kein definitives Ergebnis erbrachte, gelegt.
Hier zeigten sich keinerlei Auffälligkeiten, welche positiv mit einer nichtzielführenden Biopsie einhergehen könnten.
Wir folgern, dass in den meisten Fällen eine definitive Diagnose zu erwarten ist. Unklar bleibt, bei welchen Patienten keine zielführende Biopsie erfolgen wird, so dass sie einer erneuten Biopsie unterzogen werden müssen.
Beim Auffinden menschlicher Überreste stellt sich neben der Beurteilung des postmortalen Intervalls auch konsequent die Frage nach der Möglichkeit des Vorliegens eines Tötungsdelikts. Da Weichgewebe nur in begrenztem Ausmaß Verwesung, Fäulnis oder Umwelteinflüssen standhält, ist dieses nur bedingt geeignet, auch langfristig Spuren von Gewalteinwirkung zu konservieren. Knochengewebe hingegen kann Läsionen noch nach langen Zeiträumen nahezu unverändert abbilden und stellt somit einen forensisch bedeutenden Spurenträger dar.
Im Rahmen dieser retrospektiven Studie sollte geklärt werden, inwieweit und in welchem Ausmaß bei Tötungsdelikten knöcherne Verletzungen entstehen. Ob bei definierten Formen letaler Gewalteinwirkung unterschiedliche Häufigkeiten des Auftretens knöcherner Verletzungen zu beobachten und zudem bevorzugte Körperregionen zu identifizieren sind, stellte eine weitere wesentliche Fragestellung der Arbeit dar.
Nach Auswertung der Sektionsprotokolle von insgesamt 897 im Institut für Rechtsmedizin in Frankfurt am Main obduzierten, im In- und Ausland begangenen Tötungsdelikten im Zeitraum 01.01.1994 bis 31.12.2014 zeigte sich, dass unabhängig von der Art der tödlichen Gewalteinwirkung 70,9% der Opfer mindestens eine knöcherne Verletzung aufwiesen und darüber hinaus bei insgesamt 45,5% der Opfer mehrfache knöcherne Verletzungen nachgewiesen werden konnten.
Zudem zeigte sich, dass unterschiedliche, definierte letale Gewalteinwirkungen entsprechend charakteristische Häufigkeiten und Verteilungen knöcherner Verletzungen zur Folge haben. So sind mit 92,6 % die häufigsten knöchernen Läsionen bei Schussopfern festzustellen. Nach stumpfer und scharfer Gewalt mit je 80 % und 66,3 % ließ sich auch nach tödlicher Gewalteinwirkung gegen den Hals in 53,3 % der Fälle mindestens eine knöcherne Läsion nachweisen.
Das Fehlen knöcherner Verletzungen in insgesamt 29% der im Auswertungszeitraum untersuchten 897 Tötungsdelikte zeigt auch, dass selbst bei knöchern unversehrten, vollständigen Skelettfunden ein Homizid keineswegs ausgeschlossen werden kann. Neben der gerichtlichen Leichenöffnung sind stets ergänzende forensische Aufarbeitungen der menschlichen Überreste zu fordern. Hierbei sind einerseits physikalische und chemische Methoden in Betracht zu ziehen, vor allem jedoch auch radiologische Untersuchungen. Weitere Untersuchungen der gewonnenen Ergebnisse im Rahmen einer weiteren Studie sollen klären, welcher Stellenwert der postmortalen Computertomographie zugesprochen werden kann.
Correction to: Infection (2020) 48:723–733 https://doi.org/10.1007/s15010-020-01469-6. The original version of this article unfortunately contained a mistake. In this article the authors Dirk Schürmann at affiliation Charité, University Medicine, Berlin, Olaf Degen at affiliation University Clinic Hamburg Eppendorf, Hamburg and Heinz-August Horst at affiliation University Hospital Schleswig–Holstein, Kiel, Germany were missing from the author list. The original article has been corrected.
Objective: Prisoners constitute a high-risk group for suicide, with suicide rates about 5 to 8 times higher than in the general population. The first weeks of imprisonment are a particularly vulnerable time, but there is limited knowledge about the risk factors for either early or late suicide events. Methods: Based on a national total sample of prison suicides in Germany between 2005 and 2017, suicides within the first 2 (4 and 8) weeks after reception into prison were matched by age and penalty length with cases that occurred later. Factors that potentially influence the timing of suicide were investigated. Results: The study has shown that 16.7% (31.5%) of all 390 suicides in German prisons occurred within the first two weeks (two months) of imprisonment. Factors that facilitate adaptation to the prison environment (e.g. prior prison experience) were negatively associated with early suicide events. Factors that hindered the adaptation process (e.g. withdrawal from illicit drugs) were observed more frequently in early suicide events than in late ones. These factors are active at different times of imprisonment. Conclusion: At reception, particular attention should be paid to the following factors associated with early suicide events: widowed marital status, lack of prison experience, and drug dependency.
Objective. We investigated the health-related quality of life (HRQoL) of patients with gastrointestinal stromal tumours (GIST). Methods: In the multicentre PROSa study, the HRQoL of adult GIST patients was assessed between 2017 and 2019 using the European Organisation for Research and Treatment of Cancer HRQoL questionnaire (EORTC QLQ-C30). We performed group comparisons and multivariate linear regressions. Results: Among 130 patients from 13 centres, the mean global HRQoL was 63.3 out of 100 points. Higher sores indicate better HRQoL. The highest restrictions were in emotional, social, role functioning, insomnia, fatigue, and pain. In multivariate linear regression, we found no significant differences between patients receiving tyrosine kinase inhibitor (TKI) treatment and those without TKI treatment as well as between patients treated with curative or with palliative intent. Patients who received multiple lines of TKI treatment had the most restrictions, notably in physical (unstandardized regression coefficient [B] = −15.7), role (B = −25.7), social (B = −18.4), and cognitive functioning (B = −19.7); fatigue (B = 15.93); general health (B = −14.23); and EORTC-sum score (B = −13.82) compared to all other patients. Conclusion: The highest HRQoL restrictions were in GIST patients receiving multiple lines of TKI therapy. Underlying causes need further investigation.
Objective: Using multimodal imaging, we tested the hypothesis that patients after hemispherotomy recruit non-primary motor areas and non-pyramidal descending motor fibers to restore motor function of the impaired limb. Methods: Functional and structural MRI data were acquired in a group of 25 patients who had undergone hemispherotomy and in a matched group of healthy controls. Patients’ motor impairment was measured using the Fugl-Meyer Motor Assessment. Cortical areas governing upper extremity motor-control were identified by task-based functional MRI. The resulting areas were used as nodes for functional and structural connectivity analyses. Results: In hemispherotomy patients, movement of the impaired upper extremity was associated to widespread activation of non-primary premotor areas, whereas movement of the unimpaired one and of the control group related to activations prevalently located in the primary motor cortex (all p ≤ 0.05, FWE-corrected). Non-pyramidal tracts originating in premotor/supplementary motor areas and descending through the pontine tegmentum showed relatively higher structural connectivity in patients (p < 0.001, FWE-corrected). Significant correlations between structural connectivity and motor impairment were found for non-pyramidal (p = 0.023, FWE-corrected), but not for pyramidal connections. Interpretation: A premotor/supplementary motor network and non-pyramidal fibers seem to mediate motor function in patients after hemispherotomy. In case of hemispheric lesion, the homologous regions in the contralesional hemisphere may not compensate the resulting motor deficit, but the functionally redundant premotor network.
Ependymomas encompass a heterogeneous group of central nervous system (CNS) neoplasms that occur along the entire neuroaxis. In recent years, extensive (epi-)genomic profiling efforts have identified several molecular groups of ependymoma that are characterized by distinct molecular alterations and/or patterns. Based on unsupervised visualization of a large cohort of genome-wide DNA methylation data, we identified a highly distinct group of pediatric-type tumors (n = 40) forming a cluster separate from all established CNS tumor types, of which a high proportion were histopathologically diagnosed as ependymoma. RNA sequencing revealed recurrent fusions involving the pleomorphic adenoma gene-like 1 (PLAGL1) gene in 19 of 20 of the samples analyzed, with the most common fusion being EWSR1:PLAGL1 (n = 13). Five tumors showed a PLAGL1:FOXO1 fusion and one a PLAGL1:EP300 fusion. High transcript levels of PLAGL1 were noted in these tumors, with concurrent overexpression of the imprinted genes H19 and IGF2, which are regulated by PLAGL1. Histopathological review of cases with sufficient material (n = 16) demonstrated a broad morphological spectrum of tumors with predominant ependymoma-like features. Immunohistochemically, tumors were GFAP positive and OLIG2- and SOX10 negative. In 3/16 of the cases, a dot-like positivity for EMA was detected. All tumors in our series were located in the supratentorial compartment. Median age of the patients at the time of diagnosis was 6.2 years. Median progression-free survival was 35 months (for 11 patients with data available). In summary, our findings suggest the existence of a novel group of supratentorial neuroepithelial tumors that are characterized by recurrent PLAGL1 fusions and enriched for pediatric patients.
Background: Compound flaps offer the advantage of one stage defect reconstruction respecting all relevant tissues and early functional recovery by optimal vascularity of all components. Due to its specific vascular anatomy and the three-dimensional donor site, compound flaps with bone components may result in higher complication rates compared to soft tissue compound flaps. The meta-analysis summarizes the available evidence and evaluates whether bone components are a risk factor for periprocedural complications in upper extremity multidimensional defect reconstruction. Method: PubMed and Embase were searched for all publications addressing compound free flaps for upper extremity defect reconstruction with bone or soft tissue components published between January 1988 and May 2018. The methodological quality was assessed with the American Society of Plastic Surgeons Evidence Rating Scale for Therapeutic Studies. Flap loss, thrombosis rate, early infection, hematoma, seroma, as well as donor site complications were extracted and analyzed. Results: Twelve out of 1157 potentially eligible studies (evidence-III) comprising 159 patients were finally included with publication bias for all summarized complication rates. Complication rates for flaps with/ without bone components were: total flap loss 5%, 95% CI = 3%–10% (6%/5%); partial flap loss 8%, 95% CI = 5%–15%, (9%/8%); arterial/venous thrombosis 7%, 95% CI = 4%–12%, (8%/5%)/14%, 95% CI = 9%–21% (16%/6%, P < .05) with higher risk for flaps with bone components; infection 6%, 95% CI = 3%–12% (6%/6%); hematoma 6%, 95% CI = 3%–11% (6%/5%); seroma 5%, 95% CI = 3%–10% (5%/5%); dehiscence 10%, 95% CI = 6%–17% (11%/9%). Conclusion: Compound flaps for upper extremity defect reconstruction including bone components have a higher venous thrombosis rate compared to compound soft-tissue flaps.
Scores to identify patients at high risk of progression of coronavirus disease (COVID-19), caused by the severe acute respiratory syndrome coronavirus 2 (SARS-CoV-2), may become instrumental for clinical decision-making and patient management. We used patient data from the multicentre Lean European Open Survey on SARS-CoV-2-Infected Patients (LEOSS) and applied variable selection to develop a simplified scoring system to identify patients at increased risk of critical illness or death. A total of 1946 patients who tested positive for SARS-CoV-2 were included in the initial analysis and assigned to derivation and validation cohorts (n = 1297 and n = 649, respectively). Stability selection from over 100 baseline predictors for the combined endpoint of progression to the critical phase or COVID-19-related death enabled the development of a simplified score consisting of five predictors: C-reactive protein (CRP), age, clinical disease phase (uncomplicated vs. complicated), serum urea, and D-dimer (abbreviated as CAPS-D score). This score yielded an area under the curve (AUC) of 0.81 (95% confidence interval [CI]: 0.77–0.85) in the validation cohort for predicting the combined endpoint within 7 days of diagnosis and 0.81 (95% CI: 0.77–0.85) during full follow-up. We used an additional prospective cohort of 682 patients, diagnosed largely after the “first wave” of the pandemic to validate the predictive accuracy of the score and observed similar results (AUC for the event within 7 days: 0.83 [95% CI: 0.78–0.87]; for full follow-up: 0.82 [95% CI: 0.78–0.86]). An easily applicable score to calculate the risk of COVID-19 progression to critical illness or death was thus established and validated.
Background: Number of positive prostate biopsy cores represents a key determinant between high versus very high-risk prostate cancer (PCa). We performed a critical appraisal of the association between the number of positive prostate biopsy cores and CSM in high versus very high-risk PCa. Methods: Within Surveillance, Epidemiology, and End Results database (2010–2016), 13,836 high versus 20,359 very high-risk PCa patients were identified. Discrimination according to 11 different positive prostate biopsy core cut-offs (≥2–≥12) were tested in Kaplan–Meier, cumulative incidence, and multivariable Cox and competing risks regression models. Results: Among 11 tested positive prostate biopsy core cut-offs, more than or equal to 8 (high-risk vs. very high-risk: n = 18,986 vs. n = 15,209, median prostate-specific antigen [PSA]: 10.6 vs. 16.8 ng/ml, <.001) yielded optimal discrimination and was closely followed by the established more than or equal to 5 cut-off (high-risk vs. very high-risk: n = 13,836 vs. n = 20,359, median PSA: 16.5 vs. 11.1 ng/ml, p < .001). Stratification according to more than or equal to 8 positive prostate biopsy cores resulted in CSM rates of 4.1 versus 14.2% (delta: 10.1%, multivariable hazard ratio: 2.2, p < .001) and stratification according to more than or equal to 5 positive prostate biopsy cores with CSM rates of 3.7 versus 11.9% (delta: 8.2%, multivariable hazard ratio: 2.0, p < .001) in respectively high versus very high-risk PCa. Conclusions: The more than or equal to 8 positive prostate biopsy cores cutoff yielded optimal results. It was very closely followed by more than or equal to 5 positive prostate biopsy cores. In consequence, virtually the same endorsement may be made for either cutoff. However, more than or equal to 5 positive prostate biopsy cores cutoff, based on its existing wide implementation, might represent the optimal choice.
Ataxia-telangiectasia (A-T) is a hereditary immune system disorder with neurodegeneration. Its first neurologic symptoms include ataxic gait in early childhood, with slowly progressive cerebellar ataxia, oculomotor apraxia, oculocutaneous telangiectasia, and progressive muscle weakness. Neonatal screening for severe T-cell deficiency was recently found to diagnose A-T patients with a significantly reduced naïve T-cell pool. Our study includes 69 A-T patients between 8 January 2002 and 1 December 2019. Nineteen cases of cancer were diagnosed in 17 patients (25%), with a median overall survival [OS; 95% cumulative indcidence (CI)] of 26·9 years for the entire cohort. The 15-year OS of 82·5% (72–95%) was significantly decreased among A-T patients with malignancies, who had a median OS of 2·11 years, with a two-year-estimated OS of 50·7% (31–82%). Haematological malignancies were the major causes of death within the initial years of life with a 15 times increased risk for death [HR (95% CI): 6·9 (3·1–15.2), P < 0·001] upon malignancy diagnosis. Male patients with A-T are at a higher cancer risk than their female counterparts. This manuscript highlights the need for cancer surveillance and prevention, as well as optimal treatment in this cohort.
Background: Fabry disease (FD), the second most prevalent lysosomal storage disorder, is classified as a rare disease. It often leads to significant quality of life impairments and premature death. Many cases remain undiagnosed due to the rarity and heterogeneity. Further, costs related to treatment often constitute a substantial financial burden for patients and health systems. While its epidemiology is still unclear, newborn screenings suggest that its actual prevalence rate is significantly higher than previously suspected. Methods: Based on well-established methodologies, this study gives an overview about the background of the development of FD-related research and provides a critical view of future needs. Results: On the grounds of benchmarking findings, an increasing research activity on FD can be observed. Most publishing countries are the USA, some European countries, Japan, Taiwan, and South Korea. In general, high-income countries publish comparably more on FD than low- or middle-income economies. The countries' financial and infrastructural background are unveiled as crucial factors for the FD research activity. Conclusions: Overall, there is a need to foster FD research infrastructure in developing and emerging countries with focus on cost-intensive genetic research that is independent from economic interests of big pharmaceutical companies.
Objective: Deep brain stimulation (DBS) of the ventral intermediate nucleus (VIM) is a mainstay treatment for severe and drug-refractory essential tremor (ET). Although stimulation-induced dysarthria has been extensively described, possible impairment of swallowing has not been systematically investigated yet. Methods: Twelve patients with ET and bilateral VIM-DBS with self-reported dysphagia after VIM-DBS were included. Swallowing function was assessed clinically and using by flexible endoscopic evaluation of swallowing in the stim-ON and in the stim-OFF condition. Presence, severity, and improvement of dysphagia were recorded. Results: During stim-ON, the presence of dysphagia could be objectified in all patients, 42% showing mild, 42% moderate, and 16 % severe dysphagia. During stim-OFF, all patients experienced a statistically significant improvement of swallowing function. Interpretation: VIM-DBS may have an impact on swallowing physiology in ET-patients. Further studies to elucidate the prevalence and underlying pathophysiological mechanisms are warranted.
Background: Breast cancer is the leading cause of cancer-related deaths in women, demanding new treatment options. With the advent of immune checkpoint blockade, immunotherapy emerged as a treatment option. In addition to lymphocytes, tumor-associated macrophages exert a significant, albeit controversial, impact on tumor development. Pro-inflammatory macrophages are thought to hinder, whereas anti-inflammatory macrophages promote tumor growth. However, molecular markers to identify prognostic macrophage populations remain elusive. Methods: We isolated two macrophage subsets, from 48 primary human breast tumors, distinguished by the expression of CD206. Their transcriptomes were analyzed via RNA-Seq, and potential prognostic macrophage markers were validated by PhenOptics in tissue microarrays of patients with invasive breast cancer. Results: Normal human breast tissue contained mainly CD206+ macrophages, while increased relative amounts of CD206− macrophages were observed in tumors. The presence of CD206+ macrophages correlated with a pronounced lymphocyte infiltrate and subsets of CD206+ macrophages, expressing SERPINH1 and collagen 1, or MORC4, were unexpectedly associated with improved survival of breast cancer patients. In contrast, MHCIIhi CD206− macrophages were linked with a poor survival prognosis. Conclusion: Our data highlight the heterogeneity of tumor-infiltrating macrophages and suggest the use of multiple phenotypic markers to predict the impact of macrophage subpopulations on cancer prognosis. We identified novel macrophage markers that correlate with the survival of patients with invasive mammary carcinoma.
Aims: Systemic inflammatory response, identified by increased total leucocyte counts, was shown to be a strong predictor of mortality after transcatheter aortic valve implantation (TAVI). Yet the mechanisms of inflammation-associated poor outcome after TAVI are unclear. Therefore, the present study aimed at investigating individual inflammatory signatures and functional heterogeneity of circulating myeloid and T-lymphocyte subsets and their impact on 1 year survival in a single-centre cohort of patients with severe aortic stenosis undergoing TAVI. Methods and results: One hundred twenty-nine consecutive patients with severe symptomatic aortic stenosis admitted for transfemoral TAVI were included. Blood samples were obtained at baseline, immediately after, and 24 h and 3 days after TAVI, and these were analysed for inflammatory and cardiac biomarkers. Myeloid and T-lymphocyte subsets were measured using flow cytometry. The inflammatory parameters were first analysed as continuous variables; and in case of association with outcome and area under receiver operating characteristic (ROC) curve (AUC) ≥ 0.6, the values were dichotomized using optimal cut-off points. Several baseline inflammatory parameters, including high-sensitivity C-reactive protein (hsCRP; HR = 1.37, 95% CI: 1.15–1.63; P < 0.0001) and IL-6 (HR = 1.02, 95% CI: 1.01–1.03; P = 0.003), lower counts of Th2 (HR = 0.95, 95% CI: 0.91–0.99; P = 0.009), and increased percentages of Th17 cells (HR = 1.19, 95% CI: 1.02–1.38; P = 0.024) were associated with 12 month all-cause mortality. Among postprocedural parameters, only increased post-TAVI counts of non-classical monocytes immediately after TAVI were predictive of outcome (HR = 1.03, 95% CI: 1.01–1.05; P = 0.003). The occurrence of SIRS criteria within 48 h post-TAVI showed no significant association with 12 month mortality (HR = 0.57, 95% CI: 0.13–2.43, P = 0.45). In multivariate analysis of discrete or dichotomized clinical and inflammatory variables, the presence of diabetes mellitus (HR = 3.50; 95% CI: 1.42–8.62; P = 0.006), low left ventricular (LV) ejection fraction (HR = 3.16; 95% CI: 1.35–7.39; P = 0.008), increased baseline hsCRP (HR = 5.22; 95% CI: 2.09–13.01; P < 0.0001), and low baseline Th2 cell counts (HR = 8.83; 95% CI: 3.02–25.80) were significant predictors of death. The prognostic value of the linear prediction score calculated of these parameters was superior to the Society of Thoracic Surgeons score (AUC: 0.88; 95% CI: 0.78–0.99 vs. 0.75; 95% CI: 0.64–0.86, respectively; P = 0.036). Finally, when analysing LV remodelling outcomes, ROC curve analysis revealed that low numbers of Tregs (P = 0.017; AUC: 0.69) and increased Th17/Treg ratio (P = 0.012; AUC: 0.70) were predictive of adverse remodelling after TAVI. Conclusions: Our findings demonstrate an association of specific pre-existing inflammatory phenotypes with increased mortality and adverse LV remodelling after TAVI. Distinct monocyte and T-cell signatures might provide additive biomarkers to improve pre-procedural risk stratification in patients referred to TAVI for severe aortic stenosis.
Aims: Inadequate treatment is one of the factors interfering with a successful social and working life. Among students, it can impair their health and learning progress. In the field of medicine the problem of inadequate treatment seems widespread. This study examines wether inadequate treatment in internships differs between medicine and other academic disciplines.
Method: Using a questionnaire, the frequency, forms and severity of inadequate treatment among students were compared between the disciplines of medicine, civil engineering and teaching.
Results: 69,3% of medical students reported inadequate treatment during their internships, about twice as many as students of other disciplines. The ratios of verbal, non-verbal and organisational inadequate treatment were similar between the different academic disciplines. However, medical students executed tasks without receiving sufficient safety precautions or training significantly more often (sevenfold) than students of other disciplines. In total however, the experienced incidents of inadequate treatment were seen as similarly severe across the different academic fields.
Conclusion: Inadequate treatment of students during internships is a larger problem in medicine than in civil engineering or teaching, particularly concerning the performance of unsafe tasks. With regard to the health of students and patients, inadequate treatment in the medical education should be tackled. Previous studies suggest that this goal can be achieved only through longtime extensive measures on the level of students, lecturers, faculty and teaching hospitals.
Die allergische Rhinitis (AR) zählt zu einer der häufigsten chronischen Atemwegserkrankungen und betrifft weltweit etwa 500 Millionen Menschen. Bei einem Teil der Patienten mit rhinitischer Symptomatik lassen sich in den herkömmlichen Tests jedoch keine Hinweise für eine Allergensensibilisierung aufweisen. Diese Patienten wurden in der Vergangenheit häufig der Gruppe der nicht-allergischen Rhinitis (NAR) zugeordnet, welche über 200 Millionen Menschen weltweit betrifft. In den letzten zwei Jahrzehnten hat sich die lokale allergische Rhinitis (LAR) als wichtige Differentialdiagnose zur NAR oder idiopathischen Rhinitis (IR) ergeben. Einige Autoren postulieren, dass bis zu einem Viertel der chronischen Rhinitiker von LAR betroffen sein könnten und bis zu 62,5 % der bisher als NAR oder IR klassifizierten Patienten eine LAR haben könnten. Die LAR wird durch allergiesuggerierende Rhinitissymptome, eine positive Reaktion im nasalen Provokationstest (NPT) mit Inhalationsallergenen und das gelegentliche Vorhandensein spezifischer Antikörper in der Nasen-schleimhaut definiert, ohne dass ein Nachweis systemischer Sensibilisierung zu finden ist.
Da große Unterschiede der LAR-Prävalenzangaben herrschen, war es das Ziel der Arbeit, diese bei Personen mit ganzjähriger Rhinitis herauszufinden und die nasale Mukosa auf lokales spezifisches IgE (sIgE) zu untersuchen.
Hierfür wurden aus einer Gruppe von insgesamt 156 gescreenten Testpersonen 63 weitergehend erforscht. Einundzwanzig Patienten mit ganzjähriger NAR wurden herausgefiltert, untersucht und deren Ergebnisse mit denen von
24 AR Patienten und Hausstaubmilben (HDM)-Allergie sowie 18 Kontrollen verglichen. Wir untersuchten die Ausprägung der klinischen Symptomatik sowie die Reaktion im Haut-Prick-Test, das Gesamt-IgE und sIgE gegen die Milbenspezies Dermatophagoides pteronyssinus (D1) und Dermatophagoides farinae (D2) in Serum und Nasensekret (NS) und führten mit allen einen NPT mit D2 durch. Der NPT wurde mithilfe der Messung des peak nasal inspiratory flow (PNIF) und des Lebel-Scores bewertet.
Während sich die Ausprägung der klinischen Symptomatik der NAR- und AR Patienten sehr ähnelte, wies keiner der NAR-Patienten nasales sIgE gegen HDM oder eine positive Reaktion im NPT gegen D2 auf. Der Nasensummenscore lag sowohl bei AR- und NAR-Patienten im Median bei 11 von 24 Punkten (Range: 6–21 Punkte beziehungsweise 6–20 Punkte) und hob sich signifikant von dem der Kontrollen ab, welche einen Score von 0 Punkten (Range: 0–5 Punkte) aufwiesen. Der Median des sIgE-D1 und sIgE-D2 im NS lag sowohl bei NAR Patienten als auch Kontrollen bei 0,1 kU/L (Range: 0,1–0,1 kU/L) und unterschied sich nicht signifikant voneinander. Im Gegensatz dazu zeigten 94,12 % der untersuchten AR-Proben erhöhtes sIgE-D1 oder sIgE-D2 im NS. Die mediane Konzentration im NS lag bei AR-Patienten für sIgE-D1 bei 1,19 kU/L (Range: 0,1–14,93 kU/L) und für sIgE-D2 bei 2,34 kU/L (Range: 0,1–22,14 kU/L). Der NPT mit D2 war bei 13/14 AR-Patienten (= 92,86 %) und keinem der NAR-Patienten oder Kontrollen positiv. Sowohl die absolute als auch die prozentuale PNIF-Abnahme nach HDM-Provokation unterschied sich zwischen AR-Patienten und Kontrollen sowie zwischen Patienten mit AR und NAR signifikant. Die prozentuale PNIF-Reduktion lag nach HDM-Provokation in der AR-Gruppe bei 55,85 %, der NAR-Gruppe bei 7,14 % und bei Kontrollen bei 0 %. Es ließ sich jedoch kein signifikanter Unterschied zwischen Kontrollen und NAR-Patienten feststellen.
Aufgrund der erhobenen Ergebnisse ist festzuhalten, dass wir nur in der Gruppe der AR positive NPTs und nasales sIgE gegen HDM-Spezies nachweisen konnten und wir demnach für diese Studie eine Prävalenz der LAR unter den NAR-Patienten von 0 % feststellen. Wir gehen in Zusammenschau unserer Befunde daher davon aus, dass die Prävalenz von LAR im Bereich der NAR oder IR in der untersuchten in Deutschland lebenden Population deutlich niedriger sein muss als zuvor in anderen Populationen berichtet.
Das kolorektale Karzinom stellt die zweithäufigste Krebstodesursache bei Männern und Frauen in der Bundesrepublik Deutschland dar
Das CRC hat aus diesem Grund eine große Bedeutung in chirurgischen und radiologischen Fachgebieten. Hierbei spielen zahlreiche Verfahren und Behandlungsmethoden eine zentrale Rolle, um das CRC und die hiervon ausgehenden kolorektalen Lebermetastasen zu behandeln und eine bestmögliche Therapie zu evaluieren. Über die letzten Jahrzehnte haben sich daher viele verschiedene Methoden für die Behandlung von CRLMs entwickelt, wie Mikrowellenablation (MWA), laserinduzierte interstitielle Thermotherapie (LITT), Radiofrequenzablation (RFA) und das chirurgische Vorgehen. Die vielversprechendste unter den Techniken und Verfahren stellt die chirurgische Resektion dar. Problematisch ist hierbei, dass viele erkrankte Patienten keine ausreichend gute körperliche Verfassung mehr aufweisen, um eine Resektion ohne große Risiken durchführen zu können.
Das Hauptziel dieser Studie war es nun, eine möglichst genaue und
aussagekräftige Untersuchung von Patientengruppen durchzuführen, bei denen eine kolorektale Lebermetastase diagnostiziert wurde. In der vorliegenden Studie wurden 132 Patienten mit kolorektalen Lebermetastasen (CRLM) untersucht, welche zwischen 2010 und 2018 mit einer CT-gesteuerten MWA-Therapie im Institut für Diagnostische und Interventionelle Radiologie des Universitätsklinikums in Frankfurt am Main behandelt wurden. Hierbei war von besonderer Bedeutung, welche prognostischen Parameter die Überlebenszeiten und Überlebensraten beeinflussen. Die Daten konnten anhand von vielfältigen Personendaten und den dazugehörigen Therapieverläufen erhoben werden. Außerdem wurden CT-Bilder, welche im Zuge der Behandlung entstanden waren, für die Erhebung zusätzlicher Parameter verwendet. Die erhobenen Daten und Messwerte wurden retrospektiv ermittelt und umfassten eine große Patientengruppe. Dies steigert die Aussagekraft der Ergebnisse und Kennzahlen wesentlich. Ein besonderes Augenmerk lag auf der Einteilung der Patienten in zwei Gruppen entsprechend ihrer Behandlungsindikation.
Zu den prognostischen Faktoren zählten das Ablationssystem, die Lokation der Metastasen, die Anzahl der Metastasen, der technische Erfolg, die Energie und Leistung, der Durchmesser und das Volumen der Metastasen, die Vor- und Nachbehandlung und die Lokalrezidive.
Die Patientengruppe mit palliativer Therapieindikation (1.08 Jahre) zeigte eine signifikant geringere mediane Überlebenszeit im Vergleich mit der kurativen Patientengruppe (3.48 Jahre). Die mediane Überlebenszeit aller Patienten betrug insgesamt 2.68 Jahre. Zusätzlich wurden die Überlebensraten der Patienten ermittelt. Die 1- und 3-Jahres-Überlebensraten aller behandelten Patienten im Untersuchungszeitraum lagen bei 82.7% und 41.6%. Die 1- und 3-JahresÜberlebensraten der 57 Patienten mit palliativer Behandlungsindikation waren 54.4% und 14.9%. Im Vergleich hierzu betrugen die 1- und 3-JahresÜberlebensraten der kurativ behandelten Patientengruppe 96.9% und 55.1%. Die mediane Beobachtungszeit nach der Behandlung betrug 2.39 Jahre. In dieser Zeit erreichten 96.2% aller Patienten eine lokale Tumorkontrolle (127/132). Die Überlebenszeit von Patienten mit einer, zwei oder drei, vier oder fünf und multiplen Lebermetastasen betrug 3.79, 2.13, 1.09 und 0.93 Jahre (alle p<0,017). Es gab eine einzige relevante Komplikation (Abszess) bei allen Behandlungen (1/257; 0,4%). Alle Unterschiede der Überlebenszeiten im primären Tumorursprung (p <0,038) und bei der Anzahl der Metastasen waren signifikant. Die anderen prognostischen Faktoren zeigten keine statistische Signifikanz. Prognostische Faktoren wie die Anzahl der Lebermetastasen, die Lokation des Primärtumors und das verwendete Ablationssystem haben einen bedeutenden Einfluss auf die Überlebenszeiten der CRLM-Patienten in dieser Studie gezeigt. Die Ergebnisse dieser Studie sind als vornehmlich anzusehen, weil eine strenge Zuteilung der Patienten in kurative und palliative Behandlungsindikationen für die Analyse der Überlebensdaten in dieser Form bis zu diesem Zeitpunkt nicht durchgeführt worden war.
Die Prognosefaktoren und deren Einfluss auf die Überlebenszeiten stellen für zukünftige radiologische Prognosen und Therapiemaßnahmen in Bezug auf CRLM Patienten gute Richtwerte dar. Sowohl für die Radiologen und Ärzte als auch für die Patienten und Angehörigen sind dies zukunftsweisende Anhaltspunkte.
In dieser Dissertation wird der Frage nachgegangen, inwiefern sich unangemessene Behandlung in der praktischen Ausbildung zwischen Medizinstudierenden und Studierenden anderer Studienfächer unterscheidet. Zudem wird untersucht, welcher Einfluss der Hierarchie im angestrebten Beruf von den Probanden diesbezüglich zugemessen wird. Auch wird untersucht, wie sich Persönlichkeitsmerkmale auf die Wahrscheinlichkeit, unangemessene Behandlung zu erleben, auswirken.
Die vorliegende Arbeit thematisiert den Vergleich der Bildqualität von Liegend-Röntgen-Thorax-Aufnahmen von Patienten auf der Intensivstation des Universitätsklinikums Frankfurt unter Verwendung einerseits eines parallelen und andererseits eines virtuellen Streustrahlenrasters (=Bildverarbeitungssoftware). Es wurde untersucht, ob mit dem virtuellen Raster eine mindestens gleichwertige Bildqualität wie mit dem parallelen Raster erreicht und gleichzeitig Strahlendosis eingespart werden kann.
Insgesamt wurden 378 Röntgen-Thorax-Aufnahmen von 126 Patienten, die jeweils einmal mit parallelem Raster, mit virtuellem Raster und mit dem gleichen virtuellen Raster mit Dosisreduktion durchgeführt wurden, in die Studie eingeschlossen. Das virtuelle Raster ahmt das parallele Raster in der Streustrahlenreduktion nach. Das Übergewicht der Patienten als Einschlusskriterium der Studie rechtfertigte den Einsatz des parallelen Rasters. Jeder Patient wurde nur nach klinischer Indikationsstellung geröntgt, sodass der zeitliche Abstand zwischen zwei Röntgen-Thorax-Aufnahmen unterschiedlicher Aufnahmetechniken desselben Patienten variierte. Für alle Röntgen-Thorax-Aufnahmen wurde derselbe indirekte Flachdetektor verwendet. Die Röhrenspannung betrug konstant 125 kV, das Strom-Zeit-Produkt 1,4 mAs (für das parallele und virtuelle Raster) bzw. 1,0 mAs (für das virtuelle Raster mit Dosisreduktion). Für jeden Röntgen-Thorax wurde das Dosisflächenprodukt bestimmt. Vier Radiologen evaluierten die Bildqualität hinsichtlich sechs Kriterien (Lungenparenchym, Weichteile, thorakale Wirbelsäule, Fremdkörper, Pathologien und Gesamtqualität) anhand einer 9-Punkte-Skala. Der Friedman-Test (p < 0,05: signifikant) wurde angewendet. Die Übereinstimmung der Radiologen wurde über Intraklassenkorrelationskoeffizienten berechnet.
Das virtuelle Raster ohne/mit Dosisreduktion wurde insgesamt von allen vier Radiologen für die Weichteile, die thorakale Wirbelsäule, die Fremdkörper und die Gesamtbildqualität signifikant besser bewertet als das parallele Streustrahlenraster (p ≤ 0,018).
Für das Lungenparenchym und die Pathologien resultierten sowohl signifikante als auch nicht-signifikante Ergebnisse, wobei bei signifikanten Ergebnissen ebenfalls das virtuelle Raster ohne/mit Dosisreduktion besser bewertet wurde als das parallele Streustrahlenraster (p ≤ 0,002). Einzige Ausnahme stellten die Evaluationen der Bildqualität bez. des Lungenparenchyms eines Radiologen dar, der das virtuelle Raster ohne/mit Dosisreduktion signifikant schlechter bewertete als das parallele Raster (p < 0,0001). Insgesamt wurde das virtuelle Raster mit Dosisreduktion für die folgenden Kriterien am besten in absteigender Reihenfolge im Vergleich zum parallelen Raster bewertet: Fremdkörper, thorakale Wirbelsäule, Weichteile, Gesamtbildqualität, Pathologien und Lungenparenchym. Die Übereinstimmung der vier Radiologen in ihren Bildqualitätsbewertungen war maximal gering. Mit dem virtuellen Raster wurde im Durchschnitt etwa 28,7% des Dosisflächenprodukts im Vergleich zum parallelen Streustrahlenraster eingespart (p < 0,0001).
Bisher haben nur vier Studien Streustrahlenreduktionssoftwares an Liegend-Röntgen-Thorax-Aufnahmen untersucht, davon zwei an lebenden Menschen. Limitationen der vorliegenden Studie sind die Subjektivität der Bewertungen der Radiologen, die mögliche Identifizierung der Röntgen-Thorax-Aufnahmen, die mit dem parallelen Streustrahlenraster als gängige Aufnahmetechnik in der Radiologie des Universitätsklinikums Frankfurt durchgeführt wurden, die Konstanz der Expositionsparameter unabhängig des BMI der Patienten und die eingeschränkte Vergleichbarkeit der Röntgen-Thorax-Aufnahmen desselben Patienten aufgrund von Veränderungen der Pathologien, Fremdkörper, etc. bei (großem) zeitlichem Abstand zwischen den Röntgen-Thorax-Aufnahmen.
Das virtuelle Raster erzielte teils eine gleichwertige, teils eine bessere Bildqualität wie/als das parallele Raster bei gleichzeitiger Dosisreduktion von 28,7% und kann es somit bei Liegend-Röntgen-Thorax-Aufnahmen ersetzen. Weitere Studien sollten den Einsatz des virtuellen Rasters bei Röntgenaufnahmen des Thorax (stehend und liegend) und anderer Körperpartien im Hinblick auf die Bildqualität, (höhere) Dosiseinsparungen und den Workflow untersuchen.
Hämophilie A (HA) ist eine X-chromosomal-rezessiv vererbte Blutgerinnungsstörung mit einem vollständigen Fehlen oder einem funktionellen Defizit des Gerinnungsfaktors VIII (FVIII). Trotz der Therapiefortschritte innerhalb der letzten Jahre, zeigen HA-Patienten auch unter der regelmäßigen FVIII-Substitutionstherapie weiterhin multiple Komplikationen, einschließlich Gelenkschäden, Entstehung einer Immunantwort (Hemmkörper) und reduzierter Lebensqualität. Im Gegensatz zu den bisherigen Therapieoptionen stellt die Gentherapie (GT) die vielversprechende Möglichkeit einer dauerhaften Anhebung des FVIII-Spiegels bis hin zur Heilung der HA in Aussicht.
In der vorliegenden Arbeit konnte ein geeignetes HA-Zellmodell auf Basis der primären humanen hepatischen sinusoidalen Endothelzellen (HHSEC) etabliert werden, um die zukünftige Erforschung einer SaCas-CRISPR-basierten HA-GT in vitro zu evaluieren, sowie wichtige Erkenntnisse für weiterführende Arbeiten gewonnen werden.
Mittels stabiler Integration des Doxycyclin-induzierbaren large T-Onkogens konnte eine gut charakterisierte, immortale HHSEC_LT-Zelllinie hergestellt werden, welche funktionalen FVIII exprimiert. Weiterhin konnte gezeigt werden, dass die Immortalisierung in Abhängigkeit von Doxycyclin für weiterführende Experimente in der Zellkultur essenziell ist, um Stressreaktionen der HHSEC, aufgrund ra-scher Seneszenz und Apoptose, zu umgehen.
Im weiteren Verlauf des GT-Projektes sollten verschiedene HHSEC-F8-Mutations-Zelllinien hergestellt werden. Neben der Gensequenzierung wurden in der vorliegenden Arbeit mehrere in Betracht kommende FVIII-Detektionsverfahren getestet, um den Erfolg einer eingeführten F8-Genmutation in HHSEC sowie ihrer anschließenden Reparatur im weiteren Verlauf des GT-Projektes auch auf Proteinebene zu demonstrieren. Hierbei konnte gezeigt wer-den, dass für die vorliegende Fragestellung sich insbesondere die Immunfluoreszenz- (IF-) Mikroskopie und die Quantifizierung der FVIII-Aktivität (FVIII:C) mittels aPTT-basierter Messung zur spezifischen Detektion von FVIII in HHSEC bewähren.
In Anlehnung an patientenspezifische F8-Genmutationen mit einem Frameshift-Effekt wurden fünf verschiedene sgRNA/SaCas9-CRISPR-Expressionsvektoren konstruiert und mittels lentiviralem Gentransfer in die immortalisierten HHSEC stabil transduziert. Nach PCR-Amplifikation der betreffenden genomischen Loci dieser fünf verschiedenen stabil transduzierten HHSEC-F8-Mutations-Zelllinien zeigte die anschließende Sequenzierung, dass vier der fünf hergestellten Konstrukte Genveränderungen mit potenziellen Frameshift-Effekten in HHSEC generieren konnten, wovon zwei sehr gute Ergebnisse erzielten. Korrelierend zu den Sequenzierergebnissen konnten ebenfalls Verminderungen der FVIII-Fluoreszenzintensität mittels mikroskopischer IF-Aufnahmen sowie der FVIII:C mittels aPTT-basierter Messung dargestellt werden.
Weiterhin konnte bei der Beurteilung des morphologischen Erscheinungsbildes der stabil transduzierten HHSECs eine optisch veränderte Zellmorphologie sowie ein Wachstumsnachteil innerhalb der beiden Zellpools mit den höchst erreichten Indel-Raten und der niedrigsten FVIII:C beobachtet werden. Diese Beobachtungen erlaubten die Formulierungen neuartiger, vielversprechender Hypothesen in Bezug auf das Grundverständnis der HA-Erkrankung.
In der vorliegenden Studie wurden Patienten mit struktureller Epilepsie bedingt durch eine fokale kortikale Dysplasie (FCD) mittels moderner Magnetresonanztomographie (MRT)-Verfahren untersucht.
Bei FCDs handelt es sich um Fehlbildungen der Großhirnrinde, die mit einer hohen epileptogenen Aktivität vergesellschaftet sind. Einige dieser Patienten unterziehen sich einer epilepsiechirurgischen Resektion, sind jedoch hiernach hinsichtlich ihrer Anfallsfrequenz dennoch nicht ausreichend kontrollierbar, weshalb Grund zur Annahme besteht, dass es neben der fokalen kortikalen Dysplasie andere Faktoren geben könnte, die epileptische Anfälle verursachen.
Basierend auf dieser Überlegung wurde mittels T2-Relaxometrie untersucht, ob bei Patienten mit FCDs mikrostrukturelle Veränderungen in Teilen des Kortex vorhanden sind, die mittels konventioneller MRT-Verfahren normal bzw. gesund erscheinen. Es wird angenommen, dass bei diesen Patienten auch außerhalb der FCD mikrostrukturelle Veränderungen, beispielsweise bedingt durch Schädigung im Rahmen von Anfällen oder durch Therapieeffekte, vorzufinden sind.
Für die Studie wurden 16 Patienten mit einer neuroradiologisch gesicherten FCD und 16 hinsichtlich des Alters und des Geschlechts gematchte gesunde Probanden rekrutiert.
Die Daten wurden an einem 3 Tesla (T) MRT-Scanner erhoben. Um die T2-Relaxationszeit zu messen, wurden Spin-Echo Datensätze mit verschiedenen Echozeiten (TE) aufgezeichnet. Zur Erfassung der Ausdehnung der FCD wurden konventionelle fluid-attenuated inversion recovery (FLAIR)-Datensätze akquiriert. Zur Segmentierung des Gewebes wurden synthetische T1-gewichtete magnetization-prepared rapid acquisition of gradient echos (MP-RAGE)-Datensätze aus quantitativen T1-Karten berechnet. Der Kortex und dessen Grenzflächen wurden mittels FreeSurfer anhand der MP-RAGE-Datensätze identifiziert und die kortikale Dicke wurde gemessen. Die FCD-Areale wurden in den FLAIR-Datensätzen manuell markiert und aus den T2-Karten exkludiert, um die FCD-assoziierten Veränderungen nicht in die Analyse einzubeziehen.
Anschließend wurden kortikale T2-Werte ausgelesen und in Oberflächendatensätzen gespeichert, um dann durchschnittliche kortikale T2-Werte für jeden Probanden zu ermitteln und mittels ungepaartem t-Test zwischen den Gruppen zu vergleichen. Zudem wurde der Pearson-Korrelationskoeffizient zwischen den kortikalen T2 Werten und klinischen Parametern berechnet. Außerdem wurde eine oberflächenbasierte Gruppenanalyse kortikaler T2-Werte und der kortikalen Dicke durchgeführt. Hierbei wurden Permutationssimulationen durchgeführt, um kortikale Cluster zu erkennen, die fokale Gruppenunterschiede anzeigen, und um für Mehrfachvergleiche zu korrigieren.
Die Analyse ergab, dass die durchschnittlichen kortikalen T2-Werte außerhalb der FCD in der Patientenkohorte im Vergleich zu den gesunden Probanden signifikant erhöht waren. Diese T2-Veränderungen zeigten weder eine signifikante Korrelation mit der Anzahl der Anfälle der letzten drei Monate, noch mit der Anzahl der jemals eingenommenen antiepileptischen Medikamente. Insbesondere wurden T2-Erhöhungen in den frontalen, parietalen und manchen temporalen Regionen festgestellt. Die oberflächenbasierte Analyse der Kortexdicke zeigte keine signifikanten Gruppenunterschiede.
Mittels T2-Relaxometrie und oberflächenbasierten Analyse-Techniken wurden demnach T2-Veränderungen des mittels konventioneller MRT-Bildgebung unauffällig erscheinenden zerebralen Kortex bei Patienten mit FCD und Epilepsie festgestellt.
Die Ergebnisse deuten auf das Vorhandensein von mikrostrukturellen Veränderungen hin, die sich mit konventionellen MRT-Verfahren nicht erfassen lassen. Potentielle Ursachen dieser Veränderungen sind neben Effekten der antikonvulsiven Medikation möglicherweise auch gliotischer Gewebeumbau bedingt durch stattgehabte epileptische Anfälle. Die Studie legt nahe, dass strukturelle Epilepsien mehr als ein Symptom bedingt durch eine fokale Läsion sind und stattdessen das Gehirn als Ganzes betreffen.
Aktive Hörimplantate befinden sich seit Mitte der 1980er Jahre im klinischen Einsatz. Aufgrund der inzwischen sehr hohen Anwendungszahl und durch-schnittlich sehr langen Anwendungsdauer gelten diese als sehr sicher. Dennoch können Komplikation auftreten. Eine Komplikation wurde in der vorliegenden Arbeit als Auftreten eines negativen Ereignisses außerhalb des gewünschten Behandlungsablaufes gewertet.
Ziel dieser Arbeit war es, aufgetretene Komplikationen zu kategorisieren und zu quantifizieren. Ferner sollte untersucht werden, ob bestimmte Faktoren Einfluss auf die Häufigkeit von Komplikationen haben, insbesondere in Bezug auf die verschiedenen Implantat- und Elektrodenträgermodelle. Es wurden neben der Erfassung und Quantifizierung unerwünschter Ereignisse vier Hypothesen for-muliert, die sich aus der klinischen Erfahrung der Anwendung der Systeme ergaben: (H1) Kinder entwickeln nach Cochlea-Implantation häufiger Entzün-dungen. (H2) Implantatmodelle mit Magnettasche führen häufiger zu Infektio-nen. (H3) Perimodiolare Elektrodenträger führen häufiger zu „Tip fold-over“ (Umschlagen der Elektrodenträgerspitze). (H4) Gerade Elektrodenträger führen häufiger zu Elektrodenträgerdislokation.
In dieser Arbeit wurden alle von Januar 2006 bis Dezember 2016 im Universi-tätsklinikum Frankfurt mit aktiven Hörimplantaten versorgten Patienten einge-schlossen. Unter den 1274 Patienten befanden sich 583 Patienten, bei denen mindestens eine Komplikation auftrat. Hiervon machten den Großteil Schmer-zen (16,9 %), Drehschwindel (15,6 %) und Infektionen im Verlauf (8,3 %) aus.
Es wurde aus dem Datenmaterial eine Patientengruppe von 503 betroffenen Patienten gebildet, die nach der Operation erstmals eine Komplikation angaben. In dieser Kohorte „Erstereignis“ traten Komplikationen vor allem in den Bereichen Entzündung (281 Patienten), Hören (183 Patienten) und Gleichgewicht (158 Patienten) auf. Bei den unilateral versorgten Patienten dieser Kohorte zeigte sich das erste Ereignis durchschnittlich nach 5,64 Jahren, bei den beid-seitig Operierten trat das erste Ereignis durchschnittlich nach 7,35 Jahren auf.
Die Implantatmodelle wichen im Auftreten von Komplikationen voneinander ab: Die höchsten Komplikationsraten traten bei den Modellen HiRes90K mit 37 von 81 (45,7 %), Synchrony mit 62 von 140 (44,3 %), und Nucleus 5 mit 115 von 274 (42,0 %) auf. Die Elektrodenträgerbauformen wiesen signifikante (p < 0,001) Unterschiede untereinander auf: Die meisten Komplikationen traten bei den Elektrodenträgerbauarten Medium (75 %), Midscala (58,8 %), Slim Modi-olar (54,3 %), und Straight (52,1 %) auf. Eine Infektion trat besonders bei den Implantaten Synchrony (1,34 Jahre) und Clarion (1,57 Jahre) früh auf. Die Modelle Pulsar (7,51 Jahre) und CI24RE (6,13 Jahre) zeigten ein eher spätes Auftreten. Für das Auftreten einer Infektion der Implantatmodelle lag p unter 0,001, was für signifikante Unterschiede bezüglich des Zeitpunktes des Auftretens spricht. Die Elektrodenträgerbauart zeigte in Bezug auf eine Hörbeeinträchtigung und in Bezug auf das Auftreten einer Elektrodenträger bezogenen Komplikation, wie Tip fold-over, Migration oder inkomplette Insertion hoch signifikante (p < 0,001) Unterschiede. Elektrodenträgerbauformen wie Midscala, Straight und Slim Modiolar führten früh nach durchschnittlich einem (Slim Modiolar) bis 2,5 (Straight) Jahren zum ersten Auftreten von einem veränderten Höreindruck nach CI-Implantation. Etwas häufiger traten Probleme mit dem Elektrodenträger wie Tip fold-over, Migration oder inkomplette Insertion bei den Modellen Flex Soft und Helix auf, am häufigsten bei dem Modell Flex 24.
(H1) Bei Kindern traten signifikant (p < 0.001) häufiger implantatbezogene Entzündungen auf als bei Erwachsenen. In der Gruppe „Erstereignis“ hatten 66,0 % der Kinder und 23,7 % der Erwachsenen eine Entzündung. (H2) Das Vor-handensein einer Magnettasche an der Implantat-Empfänger-Spule führte nicht signifikant häufiger zum Auftreten einer Entzündung. (H3) Vorgekrümmte (engl. pre-curved) Elektrodenträger zeigten eine höhere Inzidenz für Tip fold-over als gerade Elektrodenträger. (H4) Gerade Elektrodenträger zeigten eine höhere Inzidenz für eine Migration des Elektrodenträgers. Insgesamt traten im betrach-teten Kollektiv „Erstereignis“ 11 Migrationen auf, 10 davon bei geraden Elektro-denträgern (p = 0,03).
Insgesamt führen Faktoren wie die Implantatmodelle, Elektrodenträgerbauformen, Alter des Patienten früher zum Auftreten von Komplikationen. Für zukünftige Studien wäre eine eigene Auswertung der noch relativ neuen (2012) Mittelohrimplantate interessant.
1.1. Einleitung
Die periprothetische Infektion (PPI) gilt als eine der schwersten Komplikationen nach endoprothetischem Gelenkersatz, deren Behandlung einen hohen finanziellen, personellen und zeitlichen Aufwand erfordert. Das Krankheitsbild ist seit Beginn der Endoprothetik bekannt und das Wissen um die Pathophysiologie wurde seitdem vertieft. Die Therapie wurde um stadienadaptierte Konzepte, wirksame Antibiotika und verbesserte Implantate beachtlich erweitert. Dennoch liegt die Inzidenz der PPI beim Kniegelenk unverändert zwischen einem und zwei Prozent, bei Risikopatienten auch deutlich darüber (1). Falle einer PPI sind die primären Ziele aus Patientensicht die Wiederherstellung der Gehfähigkeit und Schmerzfreiheit bei Implantation einer beweglichen Revisionsprothese. Es zeigt sich allerdings, dass nach mehrmaligem Prothesenwechsel die Gelenkfunktion, die Patientenzufriedenheit und das Outcome abnehmen. Nach multiplen Operationen am betroffenen Gelenk leidet der Streckapparat und ein Verlust von Knochen ist unumgänglich. In diesen Extremsituationen müssen neben der Ultima Ratio einer Amputation auch Salvage-Prozeduren, wie das Anlegen einer stabilen Arthrodese, erwogen werden. Das klinische Outcome und die Lebensqualität hiervon sind bisher weitgehend unbekannt. Daher vergleicht die vorliegende Arbeit das klinische und funktionelle Behandlungsergebnis in Kombination mit der resultierenden Lebensqualität von Patienten, bei denen das Anlegen einer stabilen Arthrodese klinisch erforderlich war, mit dem von Patienten nach Implantation einer Revisionsprothese als Resultat eines mehrzeitigen septischen Endoprothesen-Wechsels.
1.2. Material und Methoden
Die Studie umfasste 104 Patienten (2010-2017), von denen alle eine periprothetische Infektion einer Knie-Totalendoprothese (KTEP) aufwiesen. In einem mehrzeitigen Verfahren wurde das Implantat gewechselt. Nach Infektberuhigung erfolgte die Implantation eines Revisionsimplantates. Im Falle von ausgedehnten Knochendefekten oder bei Verlust der Streckapparates wurde ein modularer intramedullärer Arthrodesenagel verwendet (Knie-Arthrodese-Modul, KAM-Gruppe; n=52). In der Kontrollgruppe wurde eine gekoppelte Revisionsprothese reimplantiert (Rotating Hinge Knee, RHK-Gruppe; n=52). Infektremissionsraten und das klinische Behandlungsergebnis (anhand des Knee Society Score (KSS) und Western Ontario McMasters Universities Osteoarthritis Index (WOMAC), sowie die Lebensqualität (anhand des Short Form Health Survey 12 (SF-12)) wurden gemessen. Zusätzlich wurden patientenbezogene Daten, wie Komorbititäten (Charlson Comorbidity Index (CCI)) und das Schmerzniveau (visuelle Analogskala), untersucht.
1.3. Ergebnisse
Das Durchschnittsalter der Studienteilnehmer war 72,5 Jahre. Der Charlson Comorbidity Index war in der KAM-Gruppe leicht erhöht (3,3 KAM versus 2,8 RHK). Die Infektberuhigungsrate lag bei 89,4% (88,5 KAM versus 90,4% RHK). Bei Reinfektion war der Prothesenerhalt vor allem in der RHK-Gruppe (7,7%) möglich, Amputationen mussten hauptsächlich in der KAM-Gruppe (9,6%) durchgeführt werden. In beiden Gruppen wurde eine signifikante Schmerzreduktion (visuelle Analogskala prä-OP: 7,9 post-OP: 2,8) erreicht. Die Gehstrecke der KAM-Gruppe war signifikant gegenüber der RHK-Gruppe (504 Meter KAM versus 1064 Meter RHK) vermindert. Der KSS Funktionsscore und der WOMAC (25 KAM versus 40 RHK bzw. 35 KAM versus 64 RHK) waren in der KAM-Gruppe ebenfalls signifikant niedriger. Eine etwas niedrigere Lebensqualität wurde in der KAM-Gruppe (SF-12 Körpersubskala 34 KAM versus 40 RHK; SF-12 Psychesubskala 51 KAM versus 56 RHK) beobachtet. Die generelle Zufriedenheit mit der Behandlung lag in der KAM-Gruppe bei 88% und bei 81% in der RHK-Gruppe.
1.4. Schlussfolgerungen
Sowohl durch Therapie mittels Revisionsprothese als auch durch Arthrodese konnten hohe Infektremissionsraten erreicht werden. Die Gehstrecke und Gelenkfunktion war nach Arthrodesenimplantation reduziert, doch war die Rehabilitationszeit deutlich kürzer. Eine Arthrodese mit intramedullärer Marknagelung bietet eine gute Therapieoption zum Extremitätenerhalt, zur Schmerzreduktion und zum Erhalt von Lebensqualität und Alltagsmobilität, wenn aufgrund von Knochensubstanzverlust und Streckapparatinsuffizienz keine Möglichkeit zur Implantation einer Revisionsprothese mehr besteht.
Autophagy is a highly conserved catabolic process cells use to maintain their homeostasis by degrading misfolded, damaged and excessive proteins, nonfunctional organelles, foreign pathogens and other cellular components. Hence, autophagy can be nonselective, where bulky portions of the cytoplasm are degraded upon stress, or a highly selective process, where preselected cellular components are degraded. To distinguish between different cellular components, autophagy employs selective autophagy receptors, which will link the cargo to the autophagy machinery, thereby sequestering it in the autophagosome for its subsequent degradation in the lysosome. Autophagy receptors undergo post-translational and structural modifications to fulfil their role in autophagy, or upon executing their role, for their own degradation. We highlight the four most prominent protein modifications – phosphorylation, ubiquitination, acetylation and oligomerisation – that are essential for autophagy receptor recruitment, function and turnover. Understanding the regulation of selective autophagy receptors will provide deeper insights into the pathway and open up potential therapeutic avenues.
Objectives: To compare radiation dose and image quality of single-energy (SECT) and dual-energy (DECT) head and neck CT examinations performed with second- and third-generation dual-source CT (DSCT) in matched patient cohorts. Methods: 200 patients (mean age 55.1 ± 16.9 years) who underwent venous phase head and neck CT with a vendor-preset protocol were retrospectively divided into four equal groups (n = 50) matched by gender and BMI: second (Group A, SECT, 100-kV; Group B, DECT, 80/Sn140-kV), and third-generation DSCT (Group C, SECT, 100-kV; Group D, DECT, 90/Sn150-kV). Assess- ment of radiation dose was performed for an average scan length of 27 cm. Contrast-to-noise ratio measure- ments and dose-independent figure-of-merit calcu- lations of the submandibular gland, thyroid, internal jugular vein, and common carotid artery were analyzed quantitatively. Qualitative image parameters were evalu- ated regarding overall image quality, artifacts and reader confidence using 5-point Likert scales. Results: Effective radiation dose (ED) was not signifi- cantly different between SECT and DECT acquisition for each scanner generation (p = 0.10). Significantly lower effective radiation dose (p < 0.01) values were observed for third-generation DSCT groups C (1.1 ± 0.2 mSv) and D (1.0 ± 0.3 mSv) compared to second-generation DSCT groups A (1.8 ± 0.1 mSv) and B (1.6 ± 0.2 mSv). Figure-of- merit/contrast-to-noise ratio analysis revealed superior results for third-generation DECT Group D compared to all other groups. Qualitative image parameters showed non-significant differences between all groups (p > 0.06). Conclusion: Contrast-enhanced head and neck DECT can be performed with second- and third-generation DSCT systems without radiation penalty or impaired image quality compared with SECT, while third-generation DSCT is the most dose efficient acquisition method. Advances in knowledge: Differences in radiation dose between SECT and DECT of the dose-vulnerable head and neck region using DSCT systems have not been evaluated so far. Therefore, this study directly compares radiation dose and image quality of standard SECT and DECT protocols of second- and third-generation DSCT platforms.
Endothelial tip cells are essential for VEGF-induced angiogenesis, but underlying mechanisms are elusive. The Ena/VASP protein family, consisting of EVL, VASP, and Mena, plays a pivotal role in axon guidance. Given that axonal growth cones and endothelial tip cells share many common features, from the morphological to the molecular level, we investigated the role of Ena/VASP proteins in angiogenesis. EVL and VASP, but not Mena, are expressed in endothelial cells of the postnatal mouse retina. Global deletion of EVL (but not VASP) compromises the radial sprouting of the vascular plexus in mice. Similarly, endothelial-specific EVL deletion compromises the radial sprouting of the vascular plexus and reduces the endothelial tip cell density and filopodia formation. Gene sets involved in blood vessel development and angiogenesis are down-regulated in EVL-deficient P5-retinal endothelial cells. Consistently, EVL deletion impairs VEGF-induced endothelial cell proliferation and sprouting, and reduces the internalization and phosphorylation of VEGF receptor 2 and its downstream signaling via the MAPK/ERK pathway. Together, we show that endothelial EVL regulates sprouting angiogenesis via VEGF receptor-2 internalization and signaling.
Objectives: The four-dimensional ultrasound (4D-US) enables imaging of the aortic segment and simultaneous determination of the wall expansion. The method shows a high spatial and temporal resolution, but its in vivo reliability is so far unknown for low-measure values. The present study determines the intraobserver repeatability and interobserver reproducibility of 4D-US in the atherosclerotic and non-atherosclerotic infrarenal aorta. Methods: In all, 22 patients with non-aneurysmal aorta were examined by an experienced examiner and a medical student. After registration of 4D images, both the examiners marked the aortic wall manually before the commercially implemented speckle tracking algorithm was applied. The cyclic changes of the aortic diameter and circumferential strain were determined with the help of custom-made software. The reliability of 4D-US was tested by the intraclass correlation coefficient (ICC). Results: The 4D-US measurements showed very good reliability for the maximum aortic diameter and the circumferential strain for all patients and for the non-atherosclerotic aortae (ICC >0.7), but low reliability for circumferential strain in calcified aortae (ICC = 0.29). The observer- and masking-related variances for both maximum diameter and circumferential strain were close to zero. Conclusions: Despite the low-measured values, the high spatial and temporal resolution of the 4D-US enables a reliable evaluation of cyclic diameter changes and circumferential strain in non-aneurysmal aortae independent from the observer experience but with some limitations for calcified aortae. The 4D-US opens up a new perspective with regard to noninvasive, in vivo assessment of kinematic properties of the vessel wall in the abdominal aorta.
Abstract: The Children's Communication Checklist-2 (CCC-2) is often applied to assess pragmatic language impairment which is highly prevalent in autism spectrum disorder (ASD) and several mental health conditions. We replicated previous findings on the limited applicability of the CCC-2 in clinical samples and the inconsistent findings concerning the factor structure. The aim of the present study was, thus, to develop a concise, simplified, and revised version of the CCC-2 in a large German-speaking sample. Four groups of children and adolescents aged 4 to 17 years were included: ASD (n = 195), intellectual disability (ID, n = 83), diverse mental health conditions (MHC, n = 144) and a typically developing control group (TD, n = 417). We reduced the original number of items from 70 to 39, based on item analysis, exploratory factor analysis and the exclusion of communication-unrelated items. The revised version, CCC-R (α = 0.96), consists of two empirically derived factors: a pragmatic-language (α = 0.96) and a grammatical-semantic-language factor (α = 0.93). All clinical groups (ASD, ID, and MHC) had significantly increased CCC-R total scores, with the highest scores being in the neurodevelopmental disorder groups (ASD and ID). In addition, we found group-specific patterns of elevated pragmatic-language scores in the ASD group and grammatical-semantic scores in the ID group. The CCC-R was comparable to the CCC-2 in distinguishing ASD from the other groups. The CCC-R is proposed as a simplified and easily applied, clinical questionnaire for caregivers, assessing pragmatic language impairments across neurodevelopmental disorders and mental health conditions. Lay Summary: The CCC-2 is a questionnaire designed to identify children who have problems in the social use of language, however, it is limited in its clinical application and exhibits inconsistent factors. We have created a shorter and simpler version of the CCC-2 that we have called the CCC-R which overcomes the previous limitations of the CCC-2. It consists of two subscales: pragmatic language and grammatical-semantic language. The CCC-R can be used as a short and clinically relevant caregiver questionnaire which assesses pragmatic language impairments in children and adolescents. Autism Res 2021, 14: 759–772. © 2021 The Authors. Autism Research published by International Society for Autism Research published by Wiley Periodicals LLC.
Cerumen was found to be a promising alternative specimen for the detection of drugs. In a pilot study, drugs of abuse were identified at a higher detection rate and a longer detection window in cerumen than in urine. In this study, cerumen from subjects was analyzed after they ingested the designer stimulant 4-fluoroamphetamine (4-FA) in a controlled manner. Methods: Twelve subjects ingested placebo and 100 mg of 4-FA. Five of them were also given 150 mg of 4-FA in 150 mL Royal Club bitter lemon drink at least after 7 days. Cerumen was sampled using cotton swabs at baseline, 1 h after the ingestion of the drug and at the end of the study day (12 h). After extraction with ethyl acetate followed by solid-phase extraction, the extracts were analyzed using liquid chromatography coupled with tandem mass spectrometry (LC–MS/MS). Results and discussion: In the cerumen of all 12 subjects, 4-FA was detected 12 h after its ingestion; in most subjects, cerumen was detected after 1 h of ingestion, ranging from 0.06 to 13.90 (median 1.52) ng per swab. The detection of 4-FA in cerumen sampled 7 days or more after the first dose suggested a long detection window of cerumen. Conclusions: Cerumen can be successfully used to detect a single drug ingestion even immediately after the ingestion when a sufficient amount of cerumen is used.
Background: The approval of everolimus (EVE) for the treatment of angiomyolipoma (2013), subependymal giant cell astrocytoma (2013) and drug-refractory epilepsy (2017) in patients with tuberous sclerosis complex (TSC) represents the first disease-modifying treatment option available for this rare and complex genetic disorder. Objective: The objective of this study was to analyse the use, efficacy, tolerability and treatment retention of EVE in patients with TSC in Germany from the patient’s perspective. Methods: A structured cross-age survey was conducted at 26 specialised TSC centres in Germany and by the German TSC patient advocacy group between February and July 2019, enrolling children, adolescents and adult patients with TSC. Results: Of 365 participants, 36.7% (n = 134) reported the current or past intake of EVE, including 31.5% (n = 115) who were taking EVE at study entry. The mean EVE dosage was 6.1 ± 2.9 mg/m2 (median: 5.6 mg/m2, range 2.0–15.1 mg/m2) in children and adolescents and 4 ± 2.1 mg/m2 (median: 3.7 mg/m2, range 0.8–10.1 mg/m2) in adult patients. An early diagnosis of TSC, the presence of angiomyolipoma, drug-refractory epilepsy, neuropsychiatric manifestations, subependymal giant cell astrocytoma, cardiac rhabdomyoma and overall multi-organ involvement were associated with the use of EVE as a disease-modifying treatment. The reported efficacy was 64.0% for angiomyolipoma (75% in adult patients), 66.2% for drug-refractory epilepsy, and 54.4% for subependymal giant cell astrocytoma. The overall retention rate for EVE was 85.8%. The retention rates after 12 months of EVE therapy were higher among adults (93.7%) than among children and adolescents (88.7%; 90.5% vs 77.4% after 24 months; 87.3% vs 77.4% after 36 months). Tolerability was acceptable, with 70.9% of patients overall reporting adverse events, including stomatitis (47.0%), acne-like rash (7.7%), increased susceptibility to common infections and lymphoedema (each 6.0%), which were the most frequently reported symptoms. With a total score of 41.7 compared with 36.8 among patients not taking EVE, patients currently being treated with EVE showed an increased Liverpool Adverse Event Profile. Noticeable deviations in the sub-items ‘tiredness’, ‘skin problems’ and ‘mouth/gum problems’, which are likely related to EVE-typical adverse effects, were more frequently reported among patients taking EVE. Conclusions: From the patients’ perspective, EVE is an effective and relatively well-tolerated disease-modifying treatment option for children, adolescents and adults with TSC, associated with a high long-term retention rate that can be individually considered for each patient. Everolimus therapy should ideally be supervised by a centre experienced in the use of mechanistic target of rapamycin inhibitors, and adverse effects should be monitored on a regular basis.
Our purpose was to analyze the robustness and reproducibility of magnetic resonance imaging (MRI) radiomic features. We constructed a multi-object fruit phantom to perform MRI acquisition as scan-rescan using a 3 Tesla MRI scanner. We applied T2-weighted (T2w) half-Fourier acquisition single-shot turbo spin-echo (HASTE), T2w turbo spin-echo (TSE), T2w fluid-attenuated inversion recovery (FLAIR), T2 map and T1-weighted (T1w) TSE. Images were resampled to isotropic voxels. Fruits were segmented. The workflow was repeated by a second reader and the first reader after a pause of one month. We applied PyRadiomics to extract 107 radiomic features per fruit and sequence from seven feature classes. We calculated concordance correlation coefficients (CCC) and dynamic range (DR) to obtain measurements of feature robustness. Intraclass correlation coefficient (ICC) was calculated to assess intra- and inter-observer reproducibility. We calculated Gini scores to test the pairwise discriminative power specific for the features and MRI sequences. We depict Bland Altmann plots of features with top discriminative power (Mann–Whitney U test). Shape features were the most robust feature class. T2 map was the most robust imaging technique (robust features (rf), n = 84). HASTE sequence led to the least amount of rf (n = 20). Intra-observer ICC was excellent (≥ 0.75) for nearly all features (max–min; 99.1–97.2%). Deterioration of ICC values was seen in the inter-observer analyses (max–min; 88.7–81.1%). Complete robustness across all sequences was found for 8 features. Shape features and T2 map yielded the highest pairwise discriminative performance. Radiomics validity depends on the MRI sequence and feature class. T2 map seems to be the most promising imaging technique with the highest feature robustness, high intra-/inter-observer reproducibility and most promising discriminative power.
Patients with ataxia-telangiectasia (A-T) suffer from progressive cerebellar ataxia, immunodeficiency, respiratory failure, and cancer susceptibility. From a clinical point of view, A-T patients with IgA deficiency show more symptoms and may have a poorer prognosis. In this study, we analyzed mortality and immunity data of 659 A-T patients with regard to IgA deficiency collected from the European Society for Immunodeficiencies (ESID) registry and from 66 patients with classical A-T who attended at the Frankfurt Goethe-University between 2012 and 2018. We studied peripheral B- and T-cell subsets and T-cell repertoire of the Frankfurt cohort and survival rates of all A-T patients in the ESID registry. Patients with A-T have significant alterations in their lymphocyte phenotypes. All subsets (CD3, CD4, CD8, CD19, CD4/CD45RA, and CD8/CD45RA) were significantly diminished compared to standard values. Patients with IgA deficiency (n = 35) had significantly lower lymphocyte counts compared to A-T patients without IgA deficiency (n = 31) due to a further decrease of naïve CD4 T-cells, central memory CD4 cells, and regulatory T-cells. Although both patient groups showed affected TCR-ß repertoires compared to controls, no differences could be detected between patients with and without IgA deficiency. Overall survival of patients with IgA deficiency was significantly diminished. For the first time, our data show that patients with IgA deficiency have significantly lower lymphocyte counts and subsets, which are accompanied with reduced survival, compared to A-T patients without IgA deficiency. IgA, a simple surrogate marker, is indicating the poorest prognosis for classical A-T patients. Both non-interventional clinical trials were registered at clinicaltrials.gov 2012 (Susceptibility to infections in ataxia-telangiectasia; NCT02345135) and 2017 (Susceptibility to Infections, tumor risk and liver disease in patients with ataxia-telangiectasia; NCT03357978)
Physical inactivity is discussed as one of the most detrimental influences for lifestyle-related medical complications such as obesity, heart disease, hypertension, diabetes and premature mortality in in- and outpatients with major depressive disorder (MDD). In contrast, intervention studies indicate that moderate-to-vigorous-intensity physical activity (MVPA) might reduce complications and depression symptoms itself. Self-reported data on depression [Beck-Depression-Inventory-II (BDI-II)], general habitual well-being (FAHW), self-esteem and physical self-perception (FAHW, MSWS) were administrated in a cross-sectional study with 76 in- and outpatients with MDD. MVPA was documented using ActiGraph wGT3X + ® accelerometers and fitness was measured using cardiopulmonary exercise testing (CPET). Subgroups were built according to activity level (low PA defined as MVPA < 30 min/day, moderate PA defined as MVPA 30–45 min/day, high PA defined as MVPA > 45 min/day). Statistical analysis was performed using a Mann–Whitney U and Kruskal–Wallis test, Spearman correlation and mediation analysis. BDI-II scores and MVPA values of in- and outpatients were comparable, but fitness differed between the two groups. Analysis of the outpatient group showed a negative correlation between BDI-II and MVPA. No association of inpatient MVPA and psychopathology was found. General habitual well-being and self-esteem mediated the relationship between outpatient MVPA and BDI-II. The level of depression determined by the BDI-II score was significantly higher in the outpatient low- and moderate PA subgroups compared to outpatients with high PA. Fitness showed no association to depression symptoms or well-being. To ameliorate depressive symptoms of MDD outpatients, intervention strategies should promote habitual MVPA and exercise exceeding the duration recommended for general health (≥ 30 min/day). Further studies need to investigate sufficient MVPA strategies to impact MDD symptoms in inpatient settings. Exercise effects seem to be driven by changes of well-being rather than increased physical fitness.
Background: Approximately one in three patients suffers from preoperative anaemia. Even though haemoglobin is measured before surgery, anaemia management is not implemented in every hospital. Objective: Here, we demonstrate the implementation of an anaemia walk-in clinic at an Orthopedic University Hospital. To improve the diagnosis of iron deficiency (ID), we examined whether reticulocyte haemoglobin (Ret-He) could be a useful additional parameter. Material and Methods: In August 2019, an anaemia walk-in clinic was established. Between September and December 2019, major orthopaedic surgical patients were screened for preoperative anaemia. The primary endpoint was the incidence of preoperative anaemia. Secondary endpoints included Ret-He level, red blood cell (RBC) transfusion rate, in-hospital length of stay and anaemia at hospital discharge. Results: A total of 104 patients were screened for anaemia. Preoperative anaemia rate was 20.6%. Intravenous iron was supplemented in 23 patients. Transfusion of RBC units per patient (1.7 ± 1.2 vs. 0.2 ± 0.9; p = 0.004) and hospital length of stay (13.1 ± 4.8 days vs. 10.6 ± 5.1 days; p = 0.068) was increased in anaemic patients compared to non-anaemic patients. Ret-He values were significantly lower in patients with ID anaemia (33.3 pg [28.6–40.2 pg]) compared to patients with ID (35.3 pg [28.9–38.6 pg]; p = 0.015) or patients without anaemia (35.4 pg [30.2–39.4 pg]; p = 0.001). Conclusion: Preoperative anaemia is common in orthopaedic patients. Our results proved the feasibility of an anaemia walk-in clinic to manage preoperative anaemia. Furthermore, our analysis supports the use of Ret-He as an additional parameter for the diagnosis of ID in surgical patients.