Refine
Year of publication
Document Type
- Article (30564)
- Part of Periodical (11898)
- Book (8260)
- Doctoral Thesis (5708)
- Part of a Book (3721)
- Working Paper (3386)
- Review (2878)
- Contribution to a Periodical (2369)
- Preprint (2077)
- Report (1544)
Language
- German (42444)
- English (29256)
- French (1067)
- Portuguese (723)
- Multiple languages (309)
- Croatian (302)
- Spanish (301)
- Italian (194)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (75243) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (760)
- Deutschland (543)
- Rezension (491)
- new species (449)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Linguistik (268)
Institute
- Medizin (7694)
- Präsidium (5190)
- Physik (4463)
- Wirtschaftswissenschaften (2698)
- Extern (2661)
- Gesellschaftswissenschaften (2373)
- Biowissenschaften (2184)
- Biochemie und Chemie (1974)
- Frankfurt Institute for Advanced Studies (FIAS) (1687)
- Center for Financial Studies (CFS) (1630)
The development of single-photon-counting detectors, such as the PILATUS, has been a major recent breakthrough in macromolecular crystallography, enabling noise-free detection and novel data-acquisition modes. The new EIGER detector features a pixel size of 75 × 75 µm, frame rates of up to 3000 Hz and a dead time as low as 3.8 µs. An EIGER 1M and EIGER 16M were tested on Swiss Light Source beamlines X10SA and X06SA for their application in macromolecular crystallography. The combination of fast frame rates and a very short dead time allows high-quality data acquisition in a shorter time. The ultrafine φ-slicing data-collection method is introduced and validated and its application in finding the optimal rotation angle, a suitable rotation speed and a sufficient X-ray dose are presented. An improvement of the data quality up to slicing at one tenth of the mosaicity has been observed, which is much finer than expected based on previous findings. The influence of key data-collection parameters on data quality is discussed.
Despite an increasing demand for Burgundy truffles (Tuber aestivum), gaps remain in our understanding of the fungus’ overall lifecycle and ecology. Here, we compile evidence from three independent surveys in Hungary and Switzerland. First, we measured the weight and maturity of 2,656 T. aestivum fruit bodies from a three-day harvest in August 2014 in a highly productive orchard in Hungary. All specimens ranging between 2 and 755 g were almost evenly distributed through five maturation classes. Then, we measured the weight and maturity of another 4,795 T. aestivum fruit bodies harvested on four occasions between June and October 2015 in the same truffière. Again, different maturation stages occurred at varying fruit body size and during the entire fruiting season. Finally, the predominantly unrelated weight and maturity of 81 T. aestivum fruit bodies from four fruiting seasons between 2010 and 2013 in Switzerland confirmed the Hungarian results. The spatiotemporal coexistence of 7,532 small-ripe and large-unripe T. aestivum, which accumulate to ~182 kg, differs from species-specific associations between the size and ripeness that have been reported for other mushrooms. Although size-independent truffle maturation stages may possibly relate to the perpetual belowground environment, the role of mycelial connectivity, soil property, microclimatology, as well as other abiotic factors and a combination thereof, is still unclear. Despite its massive sample size and proof of concept, this study, together with existing literature, suggests consideration of a wider ecological and biogeographical range, as well as the complex symbiotic fungus-host interaction, to further illuminate the hidden development of belowground truffle fruit bodies.
Pro-resolving lipid mediator Resolvin D1 serves as a marker of lung disease in cystic fibrosis
(2017)
Background: Cystic fibrosis (CF) is an autosomal recessive genetic disorder that affects multiple organs, including the lungs, pancreas, liver and intestine. Mutations in the cystic fibrosis transmembrane conductance regulator (CFTR) locus lead to defective proteins and reduced Cl- secretion and Na+ hyperabsorption in the affected organs. In addition, patients suffering from CF display chronic inflammation that contributes to the pathogenesis of CF. Recent work suggests that CF patients have a reduced capacity to biosynthesize specialized pro-resolving lipid mediators (SPMs), which contributes to the development and duration of the unwanted inflammation. Alterations in the metabolism of arachidonic acid (AA) and docosahexaenoic acid (DHA) to specialized pro-resolving mediators (SPMs), like lipoxins (LXs), maresins (MaRs), protectins (PDs) and resolvins (Rvs), may play a major role on clinical impact of airway inflammation in CF.
Methods: In this study, our aims were to detect and quantitate Resolvin D1 (RvD1) in sputum and plasma from patients with CF and compare levels of RvD1 with biomarkers of inflammation and lung function. We studied 27 CF patients aged 6 to 55 years (median 16 years) in a prospective approach.
Results: DHA can be found in the plasma of our CF patients in the milligram range and is decreased in comparison to a healthy control group. The DHA-derived pro-resolving mediator Resolvin D1 (RvD1) was also present in the plasma (286.4 ± 50 pg/ mL, mean ± SEM) and sputum (30.0 ± 2.6 pg/ mL, mean ± SEM) samples from our patients with CF and showed a positive correlation with sputum inflammatory markers. The plasma concentrations of RvD1 were ten times higher than sputum concentrations. Interestingly, sputum RvD1/ IL-8 levels showed a positive correlation with FEV1 (rs = 0.3962, p< 0.05).
Conclusions: SPMs, like RvD1, are well known to down-regulate inflammatory pathways. Our study shows that the bioactive lipid mediator RvD1, derived from DHA, was present in sputum and plasma of CF patients and may serve as a representative peripheral biomarker of the lung resolution program for CF patients.
Objective: To investigate if plasma HIV-1 tropism testing could identify subjects at higher risk for clinical progression and death in routine clinical management.
Design: Nested case-control study within the EuroSIDA cohort.
Methods: Cases were subjects with AIDS or who died from any cause, with a plasma sample with HIV-1 RNA >1000 copies/mL available for tropism testing 3 to 12 months prior to the event. At least 1 control matched for age, HIV-1 RNA and HCV status at the time of sampling were selected per each case. Conditional logistic regression was used to investigate exposures associated with clinical progression to AIDS or death. A linear mixed model with random intercept was used to compare CD4+T-cell slopes by HIV tropism over the 12 months following the date of sampling.
Results: The study included 266 subjects, 100 cases and 166 controls; one quarter had X4 HIV; 26% were ART-naïve. Baseline factors independently associated with clinical progression or death were female gender (OR = 2.13 vs. male, 95CI = 1.04, 4.36), p = 0.038), CD4+T-cell count (OR = 0.90 (95CI = 0.80, 1.00) per 100 cells/mm3 higher, p = 0.058), being on ART (OR = 2.72 vs. being off-ART (95CI = 1.15, 6.41), p = 0.022) and calendar year of sample [OR = 0.84 (95CI = 0.77, 0.91) per more recent year, p<0.001). Baseline tropism was not associated with the risk of clinical progression or death. CD4+T-cell slopes did not differ within or between tropism groups.
Conclusions: The predictive role of plasma tropism determined using 454 sequencing in the context of people receiving cART with detectable VL is not helpful to identify subjects at higher risk for clinical progression to AIDS or death.
Cannabinoid antagonist SLV326 induces convulsive seizures and changes in the interictal EEG in rats
(2017)
Cannabinoid CB1 antagonists have been investigated for possible treatment of e.g. obesity-related disorders. However, clinical application was halted due to their symptoms of anxiety and depression. In addition to these adverse effects, we have shown earlier that chronic treatment with the CB1 antagonist rimonabant may induce EEG-confirmed convulsive seizures. In a regulatory repeat-dose toxicity study violent episodes of “muscle spasms” were observed in Wistar rats, daily dosed with the CB1 receptor antagonist SLV326 during 5 months. The aim of the present follow-up study was to investigate whether these violent movements were of an epileptic origin. In selected SLV326-treated and control animals, EEG and behavior were monitored for 24 hours. 25% of SLV326 treated animals showed 1 to 21 EEG-confirmed generalized convulsive seizures, whereas controls were seizure-free. The behavioral seizures were typical for a limbic origin. Moreover, interictal spikes were found in 38% of treated animals. The frequency spectrum of the interictal EEG of the treated rats showed a lower theta peak frequency, as well as lower gamma power compared to the controls. These frequency changes were state-dependent: they were only found during high locomotor activity. It is concluded that long term blockade of the endogenous cannabinoid system can provoke limbic seizures in otherwise healthy rats. Additionally, SLV326 alters the frequency spectrum of the EEG when rats are highly active, suggesting effects on complex behavior and cognition.
Crystal structure of 1,3-bis(3-tert-butyl-2-hydroxy-5-methylbenzyl)-1,3-diazinan-5-ol monohydrate
(2016)
In the title hydrate, C28H42N2O3·H2O, the central 1,3-diazinan-5-ol ring adopts a chair conformation with the two benzyl substituents equatorial and the lone pairs of the N atoms axial. The dihedral angle between the aromatic rings is 19.68 (38)°. There are two intramolecular O-H...N hydrogen bonds, each generating an S(6) ring motif. In the crystal, classical O-H...O hydrogen bonds connect the 1,3-diazinane and water molecules into columns extending along the b axis. The crystal structure was refined as a two-component twin with a fractional contribution to the minor domain of 0.0922 (18).
The title fluorinated bisbenzoxazine, C18H18F2N2O2, crystallizes with one half-molecule in the asymmetric unit, which is completed by inversion symmetry. The fused oxazine ring adopts an approximately half-chair conformation. The two benzoxazine rings are oriented anti to one another around the central C-C bond. The dominant intermolecular interaction in the crystal structure is a C-H...F hydrogen bond between the F atoms and the axial H atoms of the OCH2N methylene group in the oxazine rings of neighbouring molecules. C-H...[pi] contacts further stabilize the crystal packing.
In the title compound, C7H14N4·2C6H5ClO, which crystallized with two crystallographically independent 4-chlorophenol molecules and one 1,3,6,8-tetraazatricyclo[4.3.1.13,8]undecane (TATU) molecule in the asymmetric unit, the independent components are linked by two O-H...N hydrogen bonds. The hydrogen-bond acceptor sites are two non-equivalent N atoms from the aminal cage structure, and the tricyclic system distorts by changing the C-N bond lengths. In the crystal, these hydrogen-bonded aggregates are linked into chains along the c axis by C-H...N hydrogen bonds. The crystal structure also features C-H...[pi] contacts.
The title benzoxazine molecule, C18H18Br2N2O2, was prepared by a Mannich-type reaction of 4-bromophenol with ethane-1,2-diamine and formaldehyde. The title compound crystallizes in the monoclinic space group C2/c with a centre of inversion located at the mid-point of the C-C bond of the central CH2CH2 spacer. The oxazinic ring adopts a half-chair conformation. The structure is compared to those of other functionalized benzoxazines synthesized in our laboratory. In the crystal, weak C-H...Br and C-H...O hydrogen bonds stack the molecules along the b-axis direction.
Solvent-free treatment of 1,3,6,8-tetraazatricyclo[4.3.1.13,8]undecano (TATU) with 4-chloro-3,5-dimethylphenol led to the formation of the title co-crystal, C7H14N4·2C8H9ClO. The asymmetric unit contains one aminal cage molecule and two phenol molecules linked via two O-H...N hydrogen bonds. In the aminal cage, the N-CH2-CH2-N unit is slightly distorted from a syn periplanar geometry. Aromatic [pi]-[pi] stacking between the benzene rings from two different neighbouring phenol molecules [centroid-centroid distance = 4.0570 (11) Å] consolidates the crystal packing.
The formation of acquired drug resistance is a major reason for the failure of anti-cancer therapies after initial response. Here, we introduce a novel model of acquired oxaliplatin resistance, a sub-line of the non-MYCN-amplified neuroblastoma cell line SK-N-AS that was adapted to growth in the presence of 4000 ng/mL oxaliplatin (SK-N-ASrOXALI4000). SK-N-ASrOXALI4000 cells displayed enhanced chromosomal aberrations compared to SK-N-AS, as indicated by 24-chromosome fluorescence in situ hybridisation. Moreover, SK-N-ASrOXALI4000 cells were resistant not only to oxaliplatin but also to the two other commonly used anti-cancer platinum agents cisplatin and carboplatin. SK-N-ASrOXALI4000 cells exhibited a stable resistance phenotype that was not affected by culturing the cells for 10 weeks in the absence of oxaliplatin. Interestingly, SK-N-ASrOXALI4000 cells showed no cross resistance to gemcitabine and increased sensitivity to doxorubicin and UVC radiation, alternative treatments that like platinum drugs target DNA integrity. Notably, UVC-induced DNA damage is thought to be predominantly repaired by nucleotide excision repair and nucleotide excision repair has been described as the main oxaliplatin-induced DNA damage repair system. SK-N-ASrOXALI4000 cells were also more sensitive to lysis by influenza A virus, a candidate for oncolytic therapy, than SK-N-AS cells. In conclusion, we introduce a novel oxaliplatin resistance model. The oxaliplatin resistance mechanisms in SK-N-ASrOXALI4000 cells appear to be complex and not to directly depend on enhanced DNA repair capacity. Models of oxaliplatin resistance are of particular relevance since research on platinum drugs has so far predominantly focused on cisplatin and carboplatin.
Ongoing liver inflammation in patients with chronic hepatitis C and sustained virological response
(2017)
Background: Novel direct-acting antiviral DAA combination therapies tremendously improved sustained virologic response (SVR) rates in patients with chronic HCV infection. SVR is typically accompanied by normalization of liver enzymes, however, hepatic inflammation, i.e. persistently elevated aminotransferase levels may persist despite HCV eradication. Aim: To investigate prevalence and risk factors for ongoing hepatic inflammation after SVR in two large patient cohorts.
Methods: This post-hoc analysis was based on prospectively collected demographic and clinical data from 834 patients with SVR after HCV treatment with either PegIFN- or DAA-based treatment regimens from the PRAMA trial (n = 341) or patients treated at our outpatient clinic (n = 493).
Results: We observed an unexpected high prevalence of post-SVR inflammation, including patients who received novel IFN-free DAA-based therapies. Up to 10% of patients had ongoing elevation of aminotransferase levels and another 25% showed aminotransferase activity above the so-called healthy range. Several baseline factors were independently associated with post-SVR aminotransferase elevation. Among those, particularly male gender, advanced liver disease and markers for liver steatosis were strongly predictive for persistent ALT elevation. The use of IFN-based antiviral treatment was independently correlated with post-SVR inflammation, further supporting the overall benefit of IFN-free combination regimens.
Conclusion: This is the first comprehensive study on a large patient cohort investigating the prevalence and risk factors for ongoing liver inflammation after eradication of HCV. Our data show a high proportion of patients with ongoing hepatic inflammation despite HCV eradication with potential implications for the management of approximately one third of all patients upon SVR.
The objective of this study was to characterize blaOXA-23 harbouring Acinetobacter indicus-like strains from cattle including genomic and phylogenetic analyses, antimicrobial susceptibility testing and evaluation of pathogenicity in vitro and in vivo. Nasal and rectal swabs (n = 45) from cattle in Germany were screened for carbapenem-non-susceptible Acinetobacter spp. Thereby, two carbapenem resistant Acinetobacter spp. from the nasal cavities of two calves could be isolated. MALDI-TOF mass spectrometry and 16S rDNA sequencing identified these isolates as A. indicus-like. A phylogenetic tree based on partial rpoB sequences indicated closest relation of the two bovine isolates to the A. indicus type strain A648T and human clinical A. indicus isolates, while whole genome comparison revealed considerable intraspecies diversity. High mimimum inhibitory concentrations were observed for carbapenems and other antibiotics including fluoroquinolones and gentamicin. Whole genome sequencing and PCR mapping revealed that both isolates harboured blaOXA-23 localized on the chromosome and surrounded by interrupted Tn2008 transposon structures. Since the pathogenic potential of A. indicus is unknown, pathogenicity was assessed employing the Galleria (G.) mellonella infection model and an in vitro cytotoxicity assay using A549 human lung epithelial cells. Pathogenicity in vivo (G. mellonella killing assay) and in vitro (cytotoxicity assay) of the two A. indicus-like isolates was lower compared to A. baumannii ATCC 17978 and similar to A. lwoffii ATCC 15309. The reduced pathogenicity of A. indicus compared to A. baumannii correlated with the absence of important virulence genes encoding like phospholipase C1+C2, acinetobactin outer membrane protein BauA, RND-type efflux system proteins AdeRS and AdeAB or the trimeric autotransporter adhesin Ata. The emergence of carbapenem-resistant A. indicus-like strains from cattle carrying blaOXA-23 on transposable elements and revealing genetic relatedness to isolates from human clinical sources requires further investigations regarding the pathogenic potential, genomic characteristics, zoonotic risk and putative additional sources of this new Acinetobacter species.
Bipolar disorder (BD) is a highly heritable neuropsychiatric disease characterized by recurrent episodes of mania and depression. BD shows substantial clinical and genetic overlap with other psychiatric disorders, in particular schizophrenia (SCZ). The genes underlying this etiological overlap remain largely unknown. A recent SCZ genome wide association study (GWAS) by the Psychiatric Genomics Consortium identified 128 independent genome-wide significant single nucleotide polymorphisms (SNPs). The present study investigated whether these SCZ-associated SNPs also contribute to BD development through the performance of association testing in a large BD GWAS dataset (9747 patients, 14278 controls). After re-imputation and correction for sample overlap, 22 of 107 investigated SCZ SNPs showed nominal association with BD. The number of shared SCZ-BD SNPs was significantly higher than expected (p = 1.46x10-8). This provides further evidence that SCZ-associated loci contribute to the development of BD. Two SNPs remained significant after Bonferroni correction. The most strongly associated SNP was located near TRANK1, which is a reported genome-wide significant risk gene for BD. Pathway analyses for all shared SCZ-BD SNPs revealed 25 nominally enriched gene-sets, which showed partial overlap in terms of the underlying genes. The enriched gene-sets included calcium- and glutamate signaling, neuropathic pain signaling in dorsal horn neurons, and calmodulin binding. The present data provide further insights into shared risk loci and disease-associated pathways for BD and SCZ. This may suggest new research directions for the treatment and prevention of these two major psychiatric disorders.
Historisch betrachtet wurde Krebspatienten durch das behandelnde Personal von physischer Belastungen oftmals abgeraten (Steins Bisschop et al., 2012). Mit der zunehmenden Zahl an Publikationen im Bereich onkologischer Rehabilitation wird deutlich, dass Krebspatienten oftmals eine stark reduzierte kardiorespiratorische Leistungsfähigkeit aufweisen, was wiederum Implikationen für akute wie auch längerfristige krebs-assoziierte Effekte und Outcomes haben kann (Jones et al., 2008). Somit steht dem bisherigen Verhaltens-Dogma der Ruhe und Schonung bei Krebspatienten eine Vielzahl an Evidenz der Effektivität und Notwendigkeit von regelmäßiger körperlicher Bewegung gegenüber (Jones et al., 2008; Klika et al., 2009; Steins Bisschop et al., 2012). Diese Arbeiten bieten fundierte Informationen bezüglich der zu Grunde liegenden Limitationen der Belastungstoleranz. Darauf aufbauend wird dieses Wissen genutzt, um effektive Trainings- und Rehabilitationsprogramme zu entwerfen sowie klinische Resultate zu verbessern (Jones et al., 2009).
Strukturierte und individualisierte Sport- und Bewegungstherapie gilt dabei als ein vielversprechender Ansatz, die nachlassende Fähigkeit der selbständigen Alltagsbewältigung, die krebsassoziierte Müdigkeitssymptomatik (fatigue), aber auch die allgemeine kardiorespiratorische Fitness (KRF) zu verbessern (Schmitz et al., 2010). Für onkologische Patienten von ebenso großer Bedeutung ist die Tatsache, dass durch regelmäßige körperliche Aktivität Begleiterscheinungen der eingesetzten Behandlungsmethoden (Hayes et al., 2009), das psychische Wohlbefinden als auch die Gesamtmortalität positiv beeinflusst werden können (Mishra et al., 2012b; Mishra et al., 2012a). Zusätzlich verspricht regelmäßige körperliche Bewegung, den Funktionsverlust in den drei wichtigsten physiologischen Bereichen (Muskulatur, Herz-Kreislauf-System und kardiopulmonales System) zu verringern oder sogar aufzuhalten (Hayes et al., 2009). Demzufolge nimmt die sporttherapeutische Sekundär- und Tertiärprävention bei Krebserkrankungen eine wichtige Rolle ein, und die Frage nach einer effektiven und zielgerichteten Belastungs- und Trainingssteuerung auf Basis valider und reliabler Messgrößen der körperlichen Leistungsfähigkeit gewinnt zunehmend an Bedeutung (Ulrich et al., 2013; Kirkham et al., 2013).
Aktuelle Empfehlungen zu körperlicher Aktivität bei onkologischen Patienten orientieren sich hinsichtlich der Ausgestaltung in punkto Häufigkeit, Umfang und Intensität im Allgemeinen an Bewegungs-Leitlinien für gesunde Gleichaltrige ohne chronische Erkrankungen. Eine Besonderheit bei onkologischen Patienten stellt jedoch oftmals die Berücksichtigung therapieassoziierter bzw. krankheitsbedingter Nebenwirkungen in der praktischen Umsetzung der Empfehlungen dar. Aktuelle Leitlinien sehen dafür ein aerobes Ausdauertraining an mindestens 3-5 Tagen/Woche bei einem Intensitätsspektrum moderater (150min) oder intensiver (75min) Beanspruchung (MVPA) bei 46-90% der maximalen Sauerstoffaufnahmefähigkeit vor.
Die in der Literatur beschriebenen Probleme einer Vielzahl an Verfahren zur Bestimmung der KRF und der darauf basierenden Ableitung von individualisierten Trainingsempfehlungen haben in den letzten Jahren vermehrt zu Ansätzen basierend auf der individuell physiologischen Belastungsreaktion in der Ausdauertrainingssteuerung und –bewertung geführt (Meyer et al., 2005c; Bentley et al., 2007b; Binder et al., 2008; Hofmann & Tschakert, 2011). Dabei kommen vor allem die in der sportmedizinischen Ausdauerleistungsdiagnostik etablierten Verfahren der Laktat-Leistungsdiagnostik und der spiroergometrischen Ermittlung ventilatorischer Schwellen zum Einsatz.
Kernziel der vorliegenden Arbeit war daher die Untersuchung von Leistungskennwerten an submaximalen Variablen aus Spiroergometrie und der Laktatdiagnostik im Kollektiv der onkologischen Patienten mit unterschiedlichen Krebsentitäten.
Das folgende Kapitel 2 fasst den aktuellen Forschungsstand zu Epidemiologie, Prävalenz sowie die Auswirkungen onkologischer Erkrankungen auf Aspekte der körperlichen Ausdauerleistungsfähigkeit und deren Diagnostik in der Sportmedizin zusammen. Resultierend aus dem Forschungsstand werden daraufhin Zielstellung und –fragen der vorliegenden Arbeit formuliert. Kapitel 4 umfasst die methodische Ablaufbeschreibung des Studiendesigns, die Probandenrekrutierung und -stichprobe, die eingesetzten diagnostischen Messverfahren, sowie die Darstellung der statistischen Auswertung. Nachfolgend auf die Darstellung der Ergebnisse in Kapitel 5 werden diese in Kapitel 6 vor dem Hintergrund des dargestellten Forschungstandes und aktueller relevanter Literatur diskutiert. Abschließend erfolgt eine Praxis-orientierte kritische Beleuchtung der Arbeit sowie ein eine perspektivische Einordnung der Ergebnisse mit Ausblick auf zukünftige Forschungsarbeiten.
In Germany, orthopedic workforce planning relies on population-to-provider-ratios represented by the "official degree of care provision". However, with geographic information systems (GIS), more sophisticated measurements are available. By utilizing GIS-based technologies we analyzed the current state of demand and supply of the orthopedic workforce in Germany (orthopedic accessibility) with the integrated Floating Catchment Area method. The analysis of n = 153,352,220 distances revealed significant geographical variations on national scale: 5,617,595 people (6.9% of total population) lived in an area with significant low orthopedic accessibility (average z-score = -4.0), whereas 31,748,161 people (39.0% of total population) lived in an area with significant high orthopedic accessibility (average z-score = 8.0). Accessibility was positively correlated with the degree of urbanization (r = 0.49; p<0.001) and the official degree of care provision (r = 0.33; p<0.001) and negatively correlated with regional social deprivation (r = -0.47; p<0.001). Despite advantages of simpler measures regarding implementation and acceptance in health policy, more sophisticated measures of accessibility have the potential to reduce costs as well as improve health care. With this study, significant geographical variations were revealed that show the need to reduce oversupply in less deprived urban areas in order to enable adequate care in more deprived rural areas.
Background: Previous magnetic resonance imaging (MRI) research suggests that, prior to the onset of psychosis, high risk youths already exhibit brain abnormalities similar to those present in patients with schizophrenia.
Objectives: The goal of the present study was to describe the functional organization of endogenous activation in young adolescents who report auditory verbal hallucinations (AVH) in view of the “distributed network” hypothesis of psychosis. We recruited 20 young people aged 13–16 years who reported AVHs and 20 healthy controls matched for age, gender and handedness from local schools.
Methods: Each participant underwent a semi-structured clinical interview and a resting state (RS) neuroimaging protocol. We explored functional connectivity (FC) involving three different networks: 1) default mode network (DMN) 2) salience network (SN) and 3) central executive network (CEN). In line with previous findings on the role of the auditory cortex in AVHs as reported by young adolescents, we also investigated FC anomalies involving both the primary and secondary auditory cortices (A1 and A2, respectively).
Further, we explored between-group inter-hemispheric FC differences (laterality) for both A1 and A2. Compared to the healthy control group, the AVH group exhibited FC differences in all three networks investigated. Moreover, FC anomalies were found in a neural network including both A1 and A2. The laterality analysis revealed no between-group, inter-hemispheric differences.
Conclusions: The present study suggests that young adolescents with subclinical psychotic symptoms exhibit functional connectivity anomalies directly and indirectly involving the DMN, SN, CEN and also a neural network including both primary and secondary auditory cortical regions.
Biogenesis of mitochondrial cytochrome c oxidase (COX) is a complex process involving the coordinate expression and assembly of numerous subunits (SU) of dual genetic origin. Moreover, several auxiliary factors are required to recruit and insert the redox-active metal compounds, which in most cases are buried in their protein scaffold deep inside the membrane. Here we used a combination of gel electrophoresis and pull-down assay techniques in conjunction with immunostaining as well as complexome profiling to identify and analyze the composition of assembly intermediates in solubilized membranes of the bacterium Paracoccus denitrificans. Our results show that the central SUI passes through at least three intermediate complexes with distinct subunit and cofactor composition before formation of the holoenzyme and its subsequent integration into supercomplexes. We propose a model for COX biogenesis in which maturation of newly translated COX SUI is initially assisted by CtaG, a chaperone implicated in CuB site metallation, followed by the interaction with the heme chaperone Surf1c to populate the redox-active metal-heme centers in SUI. Only then the remaining smaller subunits are recruited to form the mature enzyme which ultimately associates with respiratory complexes I and III into supercomplexes.
The title Schiff base, C19H22N2O3, was synthesized via the condensation reaction of 1,3-diaminopropan-2-ol with 4-methoxybenzaldehyde using water as solvent. The molecule exists in an E,E conformation with respect to the C=N imine bonds and the dihedral angle between the aromatic rings is 37.25 (15)°. In the crystal, O-H...N hydrogen bonds link the molecules into infinite C(5) chains propagating along the a-axis direction. The packing of these chains is consolidated by C-H...O interactions and C-H...[pi] short contacts, forming a three-dimensional network.
Choks, Reflexe, Asja : zu Benjamins 'Vertiefung der Apperzeption' im russischen Avantgarde-Film
(2010)
Walter Benjamin hatte vor allem zwei Themen im Kopf, als er sich Ende 1926 in Moskau aufhielt: Asja Lacis und die russische Avantgarde. Seine Geliebte Asja Lacis allerdings war infolge eines Nervenzusammenbruchs in einem Sanatorium untergebracht und somit für Benjamin kein guter Zeitvertreib. Umso mehr widmete er sich seinem anderen Interesse, traf Vertreter der russischen Avantgarde - neben Schriftstellern auch den Theaterregisseur Vsevolod Mejerchol'd - ging allabendlich in Theatervorstellungen oder ins Kino. Benjamins 'Moskauer Tagebuch' weist einige der Orte aus, die er sah, viele aber auch nicht. Die meisten Gedanken galten ja bekanntlich der sich ihm immer wieder verweigernden Asja. So ist nicht verwunderlich, dass in seinen Aufzeichnungen nur die berühmtesten Filme Erwähnung finden: Sergej Ejzenštejns 'Panzerkreuzer Potëmkin', Dziga Vertovs 'Sechster Teil der Erde', Vsevolod Pudovkins 'Mutter', Lev Kulešovs 'Nach dem Gesetz'. Die schlechten Filme bleiben ungenannt. Doch es erstaunt gerade angesichts seiner Kino-Umtriebigkeit, dass Benjamin in einem Artikel "Zur Lage der russischen Filmkunst" 1927 schrieb: "Die Spitzenleistungen der russischen Filmindustrie bekommt man in Berlin bequemer zu sehen als in Moskau." Er schien damit nicht nur den Erfolg des Avantgarde-Films in Russland zu ignorieren, sondern vor allem den Höhenflug eines Films, der im Winter 1926 gerade anhob - genau in der Zeit also, als Benjamin in Moskau war. Im November kam 'Die Mechanik des Gehirns' als erster so genannter 'Kulturfilm' in die Kinos, eine populärwissenschaftliche Dokumentation über Ivan Pavlovs Reflexlehre, entstanden unter der Regie von dem Benjamin sicherlich bekannten Avantgarde-Filmemacher Vsevolod Pudovkin. Und diese Ignoranz wiederum verwundert umso mehr, wenn man den Kulturfilm vor dem Hintergrund Benjamins damaliger Interessen sieht - Asja und die Avantgarde oder auch: Kindererziehung und politisierte Kunst. Ich werde im Folgenden einer Sache nachgehen, mit der sich Benjamin scheinbar nicht beschäftigt hat und will versuchen zu klären, weshalb seine Auseinandersetzung mit dem Kulturfilm nicht offensichtlich stattgefunden hat, sondern fast unmerklich und wie es doch möglich ist, diese Auseinandersetzung zu entdecken. Dann, so die These für meine folgenden Ausführungen, erscheint auch Benjamins "Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit" mit seinen zentralen Begriffen 'Chok', 'Zerstreuung' und 'vertiefende Apperzeption' in einem neuen, im sozialistischen Sinne geradezu materialistischen Licht. Um diese nicht offensichtlichen Zusammenhänge darzustellen werde ich die Filmpraxis des von den russischen Pädagogen so intensiv propagierten Kulturfilms mit Begriffen Benjamins, also mit seiner Theorie vergleichen. Dies ist natürlich schon dort geschehen, wo Benjamin sich selbst auf Filme bezieht, wie auf Ejzenštejns 'Panzerkreuzer Potëmkin' oder Vertovs 'Mann mit der Kamera'. Die Herausforderung an den folgenden Ausführungen ist, dass Benjamin selbst über 'Die Mechanik des Gehirns' schwieg, und das vielleicht aus gutem Grund, doch darüber lässt sich nur spekulieren.
According to the Bank Recovery and Resolution Directive (BRRD), introduced as a lesson from the recent financial crisis, the losses a failing bank incurred should generally be borne by its investors. Before a minimum bail-in has occurred, government money can only be injected in emergency cas-es to remedy a serious disturbance in the economy and to preserve financial stability. This policy letter argues that in case of the Italian Bank Monte dei Paschi di Siena (MPS), which the Italian gov-ernment currently plans to bail out, a resolution would most likely not cause such a systemic event. A bailout contrary to the existing rules will lead to a mispricing of bank capital and retard the re-structuring of the European banking sector, the authors write. They appeal to the European Central Bank, the Systemic Risk Board and the EU Commission to follow the rules as the test-case MPS will have a direct impact on the credibility of the new BRRD regime and the responsible institutions.
In the wake of the recent financial crisis, significant regulatory actions have been taken aimed at limiting risks emanating from banks’ trading activities. The goal of this paper is to look at the alternative reforms in the US, the UK and the EU, specifically with respect to the role of proprietary trading. Our conclusions can be summarized as follows: First, the focus on a prohibition of proprietary trading, as reflected in the Volcker Rule in the US and in the current proposal of the European Commission (Barnier proposal), is inadequate. It does not necessarily reduce risk-taking and it is likely to crowd out desired trading activities, thereby possibly affecting financial stability negatively. Second, trading separation into legally distinct or ring-fenced entities within the existing banking organizations, as suggested under the Vickers Report for the UK and the Liikanen proposal for the EU, is a more effective solution. Separation limits cross-subsidies between banking and proprietary trading and diminishes contagion risk, while still allowing for synergies and risk management across banking, non-proprietary trading and proprietary trading.
We provide an assessment of the Basel Committee on Banking Supervision (BCBS) proposal to restrict the internal ratings-based approach on bank risk and to introduce risk-weighted asset floors. If well enforced, risk-sensitive capital regulation results in a more efficient credit allocation compared to the standard approach. Thus, the internal ratings-based approach should be maintained. Further, the use of internal ratings-based output floors potentially results in unintended negative side effects. Input floors are likely a valuable tool to achieve risk-weighted assets comparability. Finally, the proposed measures have a potential detrimental impact for European banks as compared to others.
The Capital Markets Union-project of the European Commission aims for an increase of marketbased debt financing of small and medium-sized enterprises (SMEs), complementing bank lending. In this essay we argue that rather than focussing on pure non-bank lending, a reasonable mix of bankand market-based financing should be considered. Banks are said to have a comparative advantage in critical lending functions such as credit screening, debtor monitoring and debt renegotiation. All forms of lending require a persistent skin-in-the-game of critical players in order to be effective. The regulator should insist on full disclosure of skin-in-the-game, thereby improving capital allocation and reducing systemic risks.
Sich mit Christa Wolf auf einen „Spaziergang durch ein Stück deutscher Künstlerlandschaft der letzten Jahrzehnte“ zu verabreden heißt, die Künstlerin von einer neuen, bisher unbekannten Seite kennenzulernen.
Als Autorin ist sie keine Unbekannte. Ihr Werk erfuhr internationale Anerkennung und eine umfassende Rezeption, was sich in zahlreichen Monographien und Einzeluntersuchungen niederschlug. In der Akademie der Künste in Berlin lagern nach Schenkungen von Gerhard Wolf und des Luchterhand Literaturverlags ungefähr 1000 Bände Archivmaterial mit Werkmanuskripten aller Schaffensperioden sowie zugehörige Materialien und Druckschriften, Privat- und Geschäftskorrespondenz sowie zahlreiche Leserbriefe und Rezensionen. Die Bibliothek der Akademie beinhaltet die gesamte Primär- und Sekundärliteratur sowie zahlreiche weitere Dokumente.2 So sind hier „Zeugnisse gelebten Lebens, künstlerischer Entwicklungen, menschlicher Beziehungen bewahrt, individuelle und Zeitgeschichte eingefangen“...
Die Geräuschkulisse glich einem futuristischen Konzert: Immer wieder heulte eine Sirene auf, während ein Pianist - unterbrochen von Kommandorufen - auf die stets gleichen zwei Tasten eines Klaviers einhämmerte. Der Raum war verdunkelt, so dass die Lämpchen, die am Kopf und am rechten Arm des Pianisten angebracht waren, in der Dunkelheit besser zu sehen waren als der Pianist selbst. Auf den rechten Arm war eine Kamera gerichtet. Vor dem Objektiv befand sich eine Scheibe, die sich drehte, wann immer das Aufheulen der Sirene zu hören war; hinter der Kamera stand eine Gruppe von Wissenschaftlern: Der Neurophysiologe Nikolaj A. Bernštejn untersuchte am Staatlichen Institut für Musikwissenschaft die "Arbeitsbewegungen beim Instrumentalspiel", wie ein Bericht des Instituts für das Jahr 1926, der Bernštejn als Gastwissenschaftler der Sektion für die Methodik des Klavierspiels erwähnte, das Forschungsprogramm der Sektion beschrieb. Bernštejn hatte nach seinem Studium der Medizin und verschiedenen Tätigkeiten in der Kinderpsychiatrie und am Moskauer Psychologischen Institut mit seinen Forschungen zur Bewegung am Zentralinstitut für Arbeit (im Folgenden CIT: Central'nyj institut truda) begonnen, wohin ihn der Gründer des Instituts, Alexej K. Gastev, 1922 als Leiter der Abteilung für Biomechanik geholt hatte. Gemeinsam mit seinem Studienkollegen Krikor Ch. Kekčeev und der Mathematikerin Tat'jana S. Popovabaute Bernštejn dort ein Labor für die fotografische Aufzeichnung von Bewegungen auf. Alle drei wechselten 1925 an das Moskauer Psychologische Institut, wo sie ihre Studien zur Bewegungssteuerung unter neurophysiologischem Gesichtspunkt fortsetzten. Am CIT hatte Bernštejn unter anderem den Schlag mit einem Hammer oder den Gebrauch von Feile und Säge untersucht. Hiervon unterschied sich das Klavierspiel für Bernštejn in einem entscheidenden Punkt: Es untersteht einer auditiven Kontrolle, die - auch wenn sie sich nicht auf die Spielbewegungen selbst richtet - simultan zu den Spielbewegungen abläuft. In Bernštejns Arbeiten zum Klavierspiel treffen also zwei Formen der Kontrolle aufeinander: die auditive und die visuelle. Die folgenden Ausführungen wollen zunächst die Herkunft dieser beiden Formen der Kontrolle aus der virtuosen Klaviermusik und aus der experimentellen Bewegungsphysiologie herleiten und dann ihre Transformation in das komplexe System simultaner Beobachtungsmodi in Bernštejns Experimenten nachzeichnen.
Schön ist nicht nur das Spiel mit Buchstaben und Erinnerungssplittern, sondern auch das mit Zahlen. Im Jahr Zweitausendundzehn ist es dreißig Jahre her, dass ich der damals dreißigjährigen Sigrid Weigel zum ersten Mal begegnete. Mit ihr als Dozentin lernte ich - nach meinem Wechsel von der Bonner zur Hamburger Universität im Sommersemester 1980 - eine Form des leidenschaftlichen Studierens kennen, die ich noch mehr ersehnt hatte als das Großstadtleben. Es war wohl eine der glücklichen Konstellationen, in denen Lehrende und Lernende gemeinsam aufbrachen, um neue Fragen an ihr Fach, die Literaturwissenschaft, zu stellen, vergessene Texte (von Frauen) zu entdecken und bekannte (von Männern) anders zu lesen. Getrieben von der Wissbegierde, was es denn mit der Geschlechterdifferenz auf sich hatte, übten wir uns in genauer Lektüre, intensiver Analyse und theoretischer Reflexion.
Random constraint satisfaction problems have been on the agenda of various sciences such as discrete mathematics, computer science, statistical physics and a whole series of additional areas of application since the 1990s at least. The objective is to find a state of a system, for instance an assignment of a set of variables, satisfying a bunch of constraints. To understand the computational hardness as well as the underlying random discrete structures of these problems analytically and to develop efficient algorithms that find optimal solutions has triggered a huge amount of work on random constraint satisfaction problems up to this day. Referring to this context in this thesis we present three results for two random constraint satisfaction problems. ...
Pathosforschung
(2010)
The impact of network connectivity on factor exposures, asset pricing and portfolio diversification
(2017)
This paper extends the classic factor-based asset pricing model by including network linkages in linear factor models. We assume that the network linkages are exogenously provided. This extension of the model allows a better understanding of the causes of systematic risk and shows that (i) network exposures act as an inflating factor for systematic exposure to common factors and (ii) the power of diversification is reduced by the presence of network connections. Moreover, we show that in the presence of network links a misspecified traditional linear factor model presents residuals that are correlated and heteroskedastic. We support our claims with an extensive simulation experiment.
Causality is a widely-used concept in theoretical and empirical economics. The recent financial economics literature has used Granger causality to detect the presence of contemporaneous links between financial institutions and, in turn, to obtain a network structure. Subsequent studies combined the estimated networks with traditional pricing or risk measurement models to improve their fit to empirical data. In this paper, we provide two contributions: we show how to use a linear factor model as a device for estimating a combination of several networks that monitor the links across variables from different viewpoints; and we demonstrate that Granger causality should be combined with quantile-based causality when the focus is on risk propagation. The empirical evidence supports the latter claim.
Der Beitrag arbeitet die moralische Subjektivierungsform ökonomischer Verschuldung heraus. In Auseinandersetzung mit Friedrich Nietzsche, Max Weber und Pierre Bourdieu wird argumentiert, dass die Form der Verschuldung durch eine spezifische Zeitlichkeit geprägt ist. Die zentrale These lautet, dass sich das Zeitregime von Schuld und Schulden als paradox erweist: Einerseits ermöglicht die moderne "Entzauberung der Welt" (Max Weber) eine Öffnung auf gesellschaftliche Zukünfte hin und diese temporale Öffnung bildet auch eine notwendige Bedingung kapitalistischer Investitionstätigkeiten. Andererseits verstellt das gegenwärtige rigide Zeitregime der Schuld(en) jedoch die Möglichkeit subjektiver und politischer neuer Anfänge in der Zeit, da die Verschuldung eine Dynamik der ökonomischen Determinierung gegenwärtiger Handlungsoptionen durch den Zwang zur Rückzahlung ins Werk setzt.
Wenn ich über Franz Liszt spreche, dann über jemanden, der einen zweischneidigen Ruf genießt: Einerseits ist Liszt der berühmteste Klaviervirtuose seiner Zeit (und vielleicht aller Zeiten), als Komponist jedoch rangiert Liszt für viele, als Verfasser von Ungarischen Rhapsodien und Liebesträumen, in einem Register, das man Gehobene Unterhaltungsmusik nennen könnte. Ich möchte Ihnen hier eine andere Komposition von Liszt vorstellen, keine Rhapsodie, keinen Liebestraum - oder vielleicht doch? -, ein Stück jedenfalls, zu dem sich viele Geschichten erzählen lassen. Eine davon ist tatsächlich eine Liebesgeschichte und zugleich die Geschichte eines Skandals.
„Frauenlieder gehören zu den ältesten poetischen Zeugnissen, welche in die schriftliche Überlieferung der volkssprachlichen Dichtung im Mittelalter eingegangen sind, und schon allein aus diesem Grunde kommt ihnen eine herausragende kultur- und literarhistorische Bedeutung zu.“
Für die mittelalterlichen Lieder mit weiblichem lyrischem Ich finden sich diverse Definitionen die je nach Schwerpunkt und Sichtweise einen unterschiedlich großen Korpus an Liedern als Frauenlieder deklarieren. Für diese Arbeit habe ich versucht eine Definition zu finden, die minimal einschränkend ist und dabei keine wertenden und ästhetischen Kriterien ansetzt, die aus einem heutigen Verständnis geprägt sind. Dementsprechend basiert diese Arbeit auf der Minimaldefintion eines Frauenliedes nach Ingrid Kasten: „Es sind Lieder, deren lyrisches Subjekt eine Frau ist.“
Da explizit bei Ingrid Kasten von einem lyrischen Subjekt die Rede ist, also von der Person, die das Lied trägt, sind Gattungen wie das Tagelied oder die Pastourelle ausgeschlossen, da sie zwar weibliche Redeanteile stellen, diese allerdings keine eigenständige Meinung wiedergeben, sondern nur im Kontext des Liedes einen Dialog herstellen. Hierzu Angelica Rieger: „Zu der gattungsbedingt stark eingeschränkten Rollen der Frau in der pastorela kommt die Tatsache, daß die narrative Grundstruktur der Gattung der Frauenstimme nur im Zitat Raum läßt. Beides verhindert die Entwicklung eines selbstständigen weiblichen lyrischen Ichs innerhalb der Grenzen der Gattung. […] In jedem Fall beschränkt sich [bei der alba] die «voix féminine» auf die von der Gattung diktierte Rollenverteilung zwischen domna, amic und gaita.“
Um nun noch den Begriff der Gattung zu definieren, greife ich auf die allgemeine Definition des Duden zurück, dieser definiert Gattung als „Gesamtheit von [Arten von] Dingen, Einzelwesen, Formen, die in wesentlichen Eigenschaften übereinstimmen.“
Somit soll diese Arbeit klären, inwiefern die Frauenlieder der Troubadoure, der Trouvères, der Minnesänger und der galicisch-portugiesischen Troubadoure unter dem Gattungsbegriff „Frauenlied“ vereint werden können oder ob sich so viele verschiedene Formen von Liedern mit weiblichem lyrischen Subjekt finden lassen, dass lediglich von einem Überbegriff die Rede sein kann.
Theater und Serie
(2010)
Soaps machen dumm. So ein permanent aktualisiertes Vorurteil. Gegen die Wiederholung des Immergleichen durch standardisierte Serienproduktion bemüht man gerne das Theater - und das heißt letztlich die Mutter aller Fernsehserien: den Guckkasten. Doch längst führt das Theater vor, was sich vom Fortsetzungsformat der Seifenoper lernen lässt: die exponierte Wiederholbarkeit eines auf das Personalisieren angelegten Schemas. So kann gerade der Bezug auf die Soap Opera im Theater der potenziellen Reflexion von Form und Funktion des Dramas dienen. In diesem Sinn akzentuiert René Polleschs Arbeit eine noch kaum erforschte, gleichwohl paradigmatische Form nicht protagonistischer Darstellung. Wie kein anderer mobilisiert er jenes Serienprinzip, das die einzelne Episode nicht mehr als geschlossenes Ganzes betrachtet, für ein politisches Theater der Gegenwart. Was Polleschs "Soap-Theater" zur Sprache bringt, besteht aus recyceltem Material. Die Aufführungen selbst sind immer wieder als Fortsetzungen angelegt. Polleschs Markenzeichen ist denn auch das schnelle Auf-Anschluss-Sprechen. Die in seinen Stücken nichtdialogisch angelegte Rede springt von Darstellerin zu Darsteller. Dabei wird nicht nur das Gesprochene, sondern ebenso die sprechende Figur als populärkulturelles Zitat ausgewiesen. So zeugt die Übersetzung des Soapformats auf die Bühne von den praktisch-reflexiven Umgangsmöglichkeiten mit fortgesetzten Wiederholungen. Die Instanz der Rede ins Serielle überführend, zielt Pollesch präzise auf jene personale Darstellungsfunktion des Sprechtheaters, die die Kritiker der Massenkultur als Residualbereich individuellen Ausdrucks verklären. Seine Inszenierungen unterlaufen mithin das dem Drama zugrunde liegende protagonistische Modell, das von der evidenzstiftenden personalen Darstellung einer literarisch vorgegebenen - singulären - Figur im Hier und Jetzt ausgeht. Der absoluten Gegenwartsfolge innerhalb eines geschlossenen Ganzen widerstreitend, stellt Pollesch durch den Einsatz des Serienprinzips jenes Spannungsverhältnis aus, das die verschränkte Zeitlichkeit des Theaters immer schon kennzeichnet: die Relation zwischen der physischen Präsenz des Darstellers, dem körperbildlichen Herbeizitieren einer bestimmten gesellschaftlichen Position und der Fiktion einer im Zitat szenisch herzustellenden sprechenden 'persona'. Im Verweis auf diese Grundelemente des Sprechtheaters, deren Fügung die dramatische Gestalt produziert und die allererst die Voraussetzung ihrer Repräsentationsfunktion ist, wendet sich Polleschs Arbeit gegen eine gängige Form der Ästhetisierung von Politik. Denn gerade durch seinen spezifischen Einsatz des Serienprinzips treten die Darstellerinnen und Darsteller auf der Bühne nicht als authentifizierende Repräsentanten einer Figur, sondern als leibhaftiger Verfremdungseffekt hervor. Physisch präsent und zugleich reflexiv zitierend, machen sie so auf die latent gehaltene Serialität jener vom Theater herkommenden Darstellungsform aufmerksam, die mit ihren eigenen Voraussetzungen auch die ihr inhärente politische Funktion verstellt. Polleschs 'Tod eines Praktikanten' - 2007 auf dem Prater, der kleinen Spielstätte der Berliner Volksbühne, aufgeführt - zeigt exemplarisch, worin die Schlagkraft einer offensiven Fusion von Theater und Serie besteht.
Bitter taste receptors (TAS2Rs) are expressed in mucous epithelial cells of the tongue but also outside the gustatory system in epithelial cells of the colon, stomach and bladder, in the upper respiratory tract, in the cornified squamous epithelium of the skin as well as in airway smooth muscle cells, in the testis and in the brain. In the present work we addressed the question if bitter taste receptors might also be expressed in other epithelial tissues as well. By staining a tissue microarray with 45 tissue spots from healthy human donors with an antibody directed against the best characterized bitter taste receptor TAS2R38, we observed an unexpected strong TAS2R38 expression in the amniotic epithelium, syncytiotrophoblast and decidua cells of the human placenta. To analyze the functionality we first determined the TAS2R38 expression in the placental cell line JEG-3. Stimulation of these cells with diphenidol, a clinically used antiemetic agent that binds TAS2Rs including TAS2R38, demonstrated the functionality of the TAS2Rs by inducing calcium influx. Restriction enzyme based detection of the TAS2R38 gene allele identified JEG-3 cells as PTC (phenylthiocarbamide)-taster cell line. Calcium influx induced by PTC in JEG-3 cells could be inhibited with the recently described TAS2R38 inhibitor probenecid and proved the specificity of the TAS2R38 activation. The expression of TAS2R38 in human placental tissues points to further new functions and hitherto unknown endogenous ligands of TAS2Rs far beyond bitter tasting.
Laut Richard Dyer haben die Menschen schon immer Serialität als Spiel mit Wiederholung und Erwartung geliebt: "It’s clear that humans have always loved seriality. Bards, jongleurs, griots and yarnspinners (not to mention parents and nurses) have all long known the value of leaving their listeners wanting more, of playing on the mix of repetition and anticipation, and indeed of the anticipation of repetition, that underpins serial pleasure. However, it is only under capitalism that seriality became a reigning principle of cultural production, starting with the serialisation of novels and cartoons, then spreading to news and movie programming." Dyer unterscheidet in seinem historischen Abriss kaum zwischen Wiederholung und Serialität. Die Menschen lieben Serialität, weil es eine Lust an der Wiederholung gibt, doch erst seit der seriellen Produktion des Kapitalismus hat sich die Serie als Format durchgesetzt. Die Wiederholung im Kinderspiel unterscheidet sich jedoch von den Fortsetzungsromanen und Fernsehserien, da hier Variation und Linearität partiell eine größere Rolle spielt, die sich nicht auf die Erwartungshaltung in der rituellen Wiederholung reduzieren lässt. Denn obwohl dem zuzustimmen ist, dass "allen serialen und seriell angebotenen Produkten [...] das stilistische Merkmal der Wiederholung gemeinsam [ist]", ist es meiner Ansicht nach notwendig, zwischen der Wiederholung und dem Seriellen in kulturellen und ästhetischen Ausdrucksformen zu unterscheiden. Daher werde ich zunächst die Wiederholung genauer skizzieren, bevor ich auf spezifische serielle Formate in Film und Fernsehen eingehe.
Hintergrund: Die Delegation ärztlicher Leistungen an nichtärztliches medizinisches Fachpersonal wird in Deutschland vor dem Hintergrund eines absehbaren Hausärztemangels bei gleichzeitig wachsendem Bedarf an hausärztlichen Betreuungsleistungen seit einiger Zeit diskutiert. Inzwischen wurden unterschiedliche Qualifikationsmodelle für Medizinische Fachangestellte (MFA) (z.B. die Versorgungs-assistentin in der Hausarztpraxis, VERAH) konzipiert und implementiert, die für eine Delegation von Leistungen qualifizieren. VERAH sind v.a. in Baden-Württemberg in Hausarztpraxen tätig, da deren Einsatz dort im Rahmen der Hausarztzentrierten Versorgung (HzV) seit 2008 finanziell honoriert wird. Dabei ist es den Praxen freigestellt, wie sie das VERAH-Konzept und damit auch die Delegation umsetzen. Auch gesetzliche Vorgaben zur Delegation lassen erheblichen Spielraum bei der Umsetzung. Erschwerend kommt hinzu, dass weiterhin Unklarheit darüber besteht, welche Leistungsübertragung als „Delegation“ und welche eher als „Substitution“ zu verstehen ist.
Zielrichtung der Arbeit: Ziel dieser publikationsbasierten Dissertation ist eine Darstellung der Formen und Graduierungen von Delegation, d.h. der tatsächlichen Umsetzung von Leistungsübertragung in der Hausarztpraxis am Beispiel der VERAH in Baden-Württemberg. Es können Empfehlungen für das Gelingen der Delegation aus der Analyse von Ergebnissen auf Patienten-, Praxis- und Teamebene abgeleitet werden.
Resultate: Diese Dissertation basiert auf sechs Publikationen, die im Rahmen von zwei Projekten zur Evaluation des VERAH-Einsatzes in der HzV in Baden-Württemberg entstanden. Die Evaluationen basieren auf einem Mixed Methods-Design, d.h. auf der Analyse von querschnittlich erhobenen quantitativen Daten sowie qualitativen Daten zu verschiedenen Fragen des VERAH-Einsatzes.
Es existiert ein breites Spektrum an Formen und Graduierungen der Delegation in Hausarztpraxen, die am HzV-Modell teilnehmen. VERAH übernehmen einerseits supplementäre (zusätzliche) ärztliche Tätigkeiten, wie z.B. Geriatrisches Assessment oder Impfberatungen, aber auch komplementäre (ergänzende) Tätigkeiten wie z.B. die Beratung der Angehörigen zu Hilfeleistungen im Gesundheitssystem. Vor allem im Rahmen von Hausbesuchen üben VERAH auch substituierende (ersetzende) Funktionen
aus. Auf Patientenseite sind gerade ältere, multimorbide und pflegebedürftige Patienten Empfänger delegierter Leistungen. Sie erhalten eine umfassende Betreuung und werden beim Erhalt ihrer häuslichen Selbständigkeit unterstützt. Die Patienten sehen in der VERAH eine zusätzliche Vertrauensperson in der Praxis und akzeptieren sie als kompetente Ansprechpartnerin. Die Hausärzte profitieren durch die Delegation von Tätigkeiten an VERAH, indem sie entlastet werden und Zeit für wichtige medizinische Aufgaben gewinnen. Für VERAH stellt die Delegation eine Erweiterung ihrer Tätigkeits- und Kompetenzbereiche dar und kann insofern als ein Schritt zur Professionalisierung des nichtärztlichen Personals einer Hausarztpraxis gelten.
Viele Faktoren, die zum Gelingen einer Umsetzung der Delegation beitragen, können vom hausärztlichen Team selbst beeinflusst werden. Darunter fallen das Engagement der MFA, die Qualifikation, zeitliche Flexibilität, ausreichend Gestaltungsspielraum, Grad der Autonomie, Abgrenzung des Verantwortungsbereiches und auch adäquates Equipment. Entsprechend richten sich die hier formulierten Empfehlungen meist an die Praxis, aber auch an den Gesetzgeber.
Bedeutung für die übergeordnete Fragestellung: Die Ergebnisse dieser Arbeit zeigen, dass mit dem VERAH-Konzept erste Ansätze einer teambasierten Versorgung vorhanden sind, und dass sich die Analyse dieses Konzeptes eignet, um Desiderata für die Zukunft von Delegation (haus-)ärztlicher Leistungen an nichtärztliches Personal formulieren zu können. Teambasierte Ansätze bedürfen, wie auch internationale Beispiele verdeutlichen, einer Weiterentwicklung der bestehenden Delegationskonzepte in deutschen Hausarztpraxen. Idealerweise mündet eine mit Delegation einhergehende Aufgaben- und Rollenneuverteilung in einer Betreuungsform, in der alle Teammitglieder entsprechend ihrer Qualifikation an der Versorgung der Patienten in der Hausarztpraxis beteiligt sind. Daher kommt die Einbindung von Pflegekräften in die hausärztliche Versorgung genauso in Frage, wie auch speziell ausgebildete VERAH/MFA. In jedem Fall sollte über Schritte der Professionalisierung nichtärztlicher Berufsgruppen nachgedacht werden. Ob sich in Deutschland, wie in den USA und in Kanada, aus diesen Delegationskonzepten im Laufe der Zeit Substitution (im Sinne der Verantwortungsübertragung an nichtärztliche Berufsgruppen) entwickelt, bleibt abzuwarten. Die Ergebnisse der Dissertation zeigen, dass es mit der gegenwärtigen Umsetzung der Delegation an VERAH zu einer Erweiterung des Leistungsspektrums in den Hausarztpraxen kommen kann; eine Ausweitung der Delegation sollte jedoch zeitnah vorangetrieben werden.
Development and implementation of novel optogenetic tools in the nematode Caenorhabditis elegans
(2016)
Optogenetics, though still only a decade old field, has revolutionized research in neurobiology. It comprises of methods that allow control of neural activity by light in a minimally-invasive, spatio-temporally precise and genetically targeted manner. The optogenetic actuators or the genetically encoded light sensitive elements mediate light driven manipulation of membrane potential, intracellular signalling, neuronal network activity and behaviour (Fenno et al. 2011; Dugué et al. 2012). These techniques have been particularly useful for dissecting neural circuits and behaviour in the transparent and genetically amenable nematode model system Caenorhabditis elegans (Husson et al. 2013; Fang-yen et al. 2015).
In fact, C. elegans was the first living organism in which microbial rhodopsin based optogenetic tools (Channelrhodopsin-2 or ChR2, and Halorhodopsin or NpHR) were successfully implemented and bimodal 'remote' control of behaviour was achieved (Nagel et al. 2005; Zhang et al. 2007). Since then it has been a prominent model for the development and application of novel optogenetic tools and techniques, especially in the nervous system which comprises of 302 neurons and is organised in a hierarchical organization. The environmental stimuli are sensed by the sensory neurons, leading to the processing of information by the downstream interneurons, that relay to motor neurons which in-turn synapse onto muscles that drive the movement-based responses.
The microbial rhodopsins like ChR2 and NpHR mediate light driven depolarization and hyperpolarization, respectively and thereby activate or inhibit neural activity. However, they do not allow local control of membrane potential as they are expressed all over the plasma membrane of the cell rather than being restricted to specific domains, for example synaptic sites. Moreover, they completely over-ride the intrinsic activity of the cell, completely bypassing the signal transduction processes inside the cell. Thus, in order to study intracellular signalling and to answer questions pertaining to the endogenous role of receptors and channels in an in-vivo context, the optogenetic tool-kit needs to be expanded.
This thesis aimed at developing and implementing novel optogenetic tools in C. elegans that allow for sub-cellular signalling control as well as endogenous receptor control. These are: two light activated guanylyl cyclases (bPGC and BeCyclOp) to modify cyclic guanosine monophosphate (cGMP) mediated signalling in the sensory neurons, as well as attempts towards rendering endogenous C. elegans receptors - glutamate receptor (GLR-3/-6), acetylcholine receptor (ACR-16), glutamate gated chloride channel (GLC-1) light switchable and to understand their biological function in-vivo.
Organisms respond to sensory cues by activation of a primary receptor followed by relay of information downstream to effector targets by secondary signalling molecules. cGMP is a widely used 2nd messenger in cellular signaling, acting via protein kinase G or cyclic nucleotide gated (CNG) channels. In sensory neurons, cGMP allows for signal modulation and amplification, before depolarization. Chemo-, thermo-, and oxygen-sensation in C. elegans involve sensory neurons that use cGMP as the main 2nd messenger. For example, ASJ is the pheromone sensing neuron regulating larval development, AWC is the chemosensory neuron responding to volatile odours and BAG senses oxygen and carbon dioxide in the environment. In these neurons, cGMP acts downstream of the GPCRs and functions by activating cationic TAX-2/-4 CNG channels, thereby depolarising the sensory neuron. Manipulating cGMP levels is required to access signalling between sensation and sensory neuron depolarization, thereby provide insights into signal encoding. We achieve this by implementing two photo-activatable guanylyl cyclases - 1) a mutated version of Beggiatoa sp. bacterial light-activated adenylyl cyclase, with specificity for GTP (Ryu et al. 2010), termed BlgC or bPGC (Beggiatoa photoactivated guanylyl cyclase) and 2) guanylyl cyclase rhodopsin (Avelar et al. 2014) from Blastocladiella emersonii (BeCyclOp).
bPGC is a BLUF (blue light sensing using flavin) domain containing cyclase which uses FAD as the co-factor and catalyses the synthesis of cGMP from GTP upon activation by blue light. Prior to implementation in sensory neurons, a simpler heterologous system with co-expression of the TAX-2/-4 CNG channel in C. elegans body wall muscle (BWM) was used. The cGMP generated by the light activated cyclases activates the CNG channel leading to the muscle depolarization, thereby causing changes in body length which can be easily scored.
Die Wärme liebende Asiatische Tigermücke »Aedes albopictus« fühlt sich seit Jahrzehnten im Mittelmeerraum wohl. Sie ist Überträgerin gefährlicher, bisher in Europa nicht verbreiteter Viren. Wird sie sich aufgrund des Klimawandels und anderer Umweltfaktoren weiter nach Norden ausbreiten? Und werden andere eingeschleppte Arten ihr folgen? Das untersucht die Arbeitsgruppe von Prof. Dr. Sven Klimpel mithilfe der ökologischen Nischenmodellierung und genomischer Analysen.
Die meisten von Menschen in neue Habitate eingeschleppten Arten sind harmlos. Doch einige richten beträchtliche ökologische und ökonomische Schäden an. Rückgängig machen kann man den Prozess nicht, aber vorbeugen sollte man. Computermodelle ermitteln die gefährdeten Knotenpunkte im Handelsnetz und sagen die nächsten Invasoren im marinen Bereich inzwischen zuverlässig voraus.
Lauschangriff mit tödlichen Folgen : Signalmoleküle von Bakterien können fremden Arten schaden
(2016)
Eine der wichtigsten Fähigkeiten aller Lebewesen ist die Kommunikation. Ihre universelle Ausdrucksform findet sie im Austausch hoch spezifischer Signalmoleküle. Bei der Entschlüsselung der diversen »Sprachen« und »Dialekte« von Bakterien machen Forscher immer wieder neue und überraschende Entdeckungen, die auch eine Alternative zu Antibiotika versprechen.
Es war kein Aprilscherz, als das »Time Magazine« am 1. April 2013 auf der Titelseite ankündigte, wie man Krebs heilen kann. Anlass war die Gründung einer Initiative zur besseren Vernetzung von klinischen Forschern und Grundlagenwissenschaftlern, um so neue Therapieansätze wie »Checkpoint-Inhibitoren« bei malignem Melanom (schwarzem Hautkrebs), auch auf andere Krebserkrankungen übertragen zu können. Checkpoint-Inhibitoren sind der erste echte Durchbruch in der Therapie von fortgeschrittenen Krebserkrankungen.
Software evolves. Developers and programmers manifest the needs that arise due to evolving software by making changes to the source code. While developers make such changes, reusing old code and rewriting existing code are inevitable. There are many challenges that a developer faces when manually reusing old code or rewriting existing code. Software tools and program transformation systems aid such reuse or rewriting of program source code. But there are significantly occuring development tasks that are hard to accomplish manually, where the current state-of-the-art tools are still not able to adequately automate these tasks. In this thesis, we discuss some of these unexplored challenges that a developer faces while reusing and rewriting program source code, the significance of such challenges, the existing automation support for these challenges and how we can improve upon them.
Modern software development relies on code reuse, which software developers
typically realize through hand-written abstractions, such as functions,
methods, or classes. However, such abstractions can be challenging to
develop and maintain. An alternative form of reuse is \emph{copy-paste-modify}, in which developers explicitly duplicate source code to adapt the duplicate for a new purpose. Copy-pasted code results in code clones, i.e., groups of code fragments that are similar to each other. Past research strongly suggests that copy-paste-modify is a popular technique among software developers. In this paper, we perform a small user study that shows that copy-paste-modify can be substantially faster to use than manual abstraction.
One might propose that software developers should forego hand-written abstractions in favour of copying and pasting. However, empirical evidence also shows that copy-paste-modify complicates software maintenance and increases the frequency of bugs. Furthermore, the developers in an informal poll we conducted strongly preferred to read code written using abstractions. To address the concern around copy-paste-modify, we propose a tool that merges similar pieces of code and automatically creates suitable abstractions. Our tool allows developers to get the best of both worlds: easy reuse together with custom abstractions. Because different kinds of abstractions may be beneficial in different contexts, our tool provides multiple abstraction mechanisms, which we selected based on a study of popular open-source repositories.
To demonstrate the feasibility of our approach, we have designed and implemented a prototype merging tool for C++ and evaluated our tool on a number of clones exhibiting some variation, i.e near clones, in popular Open Source packages. We observed that maintainers find our algorithmically created abstractions to be largely preferable to existing duplicated code. Rewriting existing code can be considered as a form of program transformation, where a program in one form is transformed into a program in another form. One significant form of program transformation is data representation migration that involves changing the type of a particular data structure, and then updating all of the operations that has a control or data dependence on that data structure according to the new type. Changing the data representation can provide benefits such as improving efficiency and improving the quality of the computed results. Performing such a transformation is challenging, because it requires applying data-type specific changes to code fragments that may be widely scattered throughout the source code connected by dataflow dependencies. Refactoring systems are typically sensitive to dataflow dependencies, but are not programmable with respect to the features of particular data types. Existing program transformation languages provide the needed flexibility, but do not concisely support reasoning about dataflow dependencies.
To address the needs of data representation migration, we propose a new approach to program transformation that relies on a notion of semantic dependency: every transformation step propagates the transformation process onward to code that somehow depends on the transformed code. Our approach provides a declarative transformation specification language, for expressing type-specific transformation rules. We further provide scoped rules, a mechanism for guiding rule application, and tags, a device for simple program analysis within our framework, to enable more powerful program transformations.
We have implemented a prototype transformation system based on these ideas for C and C++ code and evaluate it against three example specifications, including vectorization, transformation of integers to big integers, and transformation of array-of-structs data types to struct-of-arrays format. Our evaluation shows that our approach can improve program performance and the precision of the computed results, and that it scales to programs of at least 3700 lines.
Vitamin-D-Mangel – ein Risikofaktor für Diabetes : wie Forscher das Immunsystem umprogrammieren
(2016)
Was tun, wenn das Immunsystem nicht mehr zwischen fremden und eigenen Zellen unterscheiden kann? Bei Diabetes Typ 1, einer der häufigsten Autoimmunerkrankungen, gibt es bisher keine Heilung. Besonders schwierig wird die Therapie, wenn parallel dazu weitere Autoimmunerkrankungen auftreten. Mit Vitamin D und anderen Immunmodulatoren soll sich die Situation der Patienten in Zukunft grundlegend verbessern.
Organspenden retten und verlängern Leben : Prof. Dr. Ingeborg Hauser im Interview mit Dr. Anne Hardy
(2016)
Der 21. Mai 2015 ist für Claudia und Timothy Pillar ein besonderer Tag. Seitdem verbindet das Paar mehr als die Erlebnisse einer fast vierzigjährigen Ehe und ein gemeinsamer Sohn. Tim Pillar hat seiner Frau eine Niere gespendet und ihr damit wieder ein (fast) normales Leben ermöglicht. Inzwischen spricht sie von ihrer Krankheit in der Vergangenheitsform.
Überraschende neue Antworten auf die althergebrachte Frage nach dem »Eigenen« und »Fremden« geben die Romane des indischstämmigen Schriftstellers Moyez G. Vassanji, der in Kenia geboren wurde, seit Jahrzehnten in Kanada lebt und heute zu den bedeutendsten Autoren der ostafrikanischen Gegenwartsliteratur zählt. Seine Protagonisten verkörpern eine transregionale Verflechtungsgeschichte, die aus europäischer Perspektive kaum wahrgenommen wird, aber durchaus Impulse für aktuelle Debatten geben kann.
Der Film als modernes mobiles Medium lebt von Erfahrungen des Eigenen und Fremden. Zeigten die Reisefilme zu Beginn des 20. Jahrhunderts bewusst die »wunderbare Differenz« zur eigenen Wirklichkeit, wurde in der heilen Welt der Heimatfilme nach Ende des Zweiten Weltkriegs das Eigene für den Konsum verfügbar gemacht. Erst die Hollywood-Blockbuster verfolgten die Strategie, das kulturell Fremde so zu minimieren, dass daraus der für alle verständliche »Dialekt der Moderne« wurde.
Einflüsse aus anderen Sprachen gehören zum Sprachwandel. Doch wie viele fremde Wörter und Wendungen verträgt eine Sprache? Wann sind sie das Salz in der Suppe? Wann und warum gelten sie als Störfaktor? Das Verhältnis zum Fremdwort kann viel aussagen über den allgemeinen Zustand einer Sprachgemeinschaft – vor allem der deutschen.
Auf nur 25 Seiten schuf Tacitus gegen Ende des 1. Jahrhunderts »Germania« und damit auch das Volk der Germanen, das so gar nicht existierte. In der Antike lebten auf diesem Territorium völlig unabhängig voneinander vielerlei Stämme. Warum zeichnete Tacitus das positive Bild eines unverdorbenen, kampfeslustigen Naturvolks? Wollte er damit den dekadenten Römern einen Spiegel vorhalten? Wollte er vor den starken Gegnern im fremden Norden warnen, gegen die die Römer nicht wieder zu Felde ziehen sollten?
Die Deutschen traten »sich selbst immer ein wenig fremd gegenüber «, schreibt der Frankfurter Mittelalter-Historiker Johannes Fried in seinem Buch »Die Anfänge der Deutschen«, das deren »ethnische Taufe« vom späten 8. bis zum 12. Jahrhundert in den Blick nimmt. Das viel beachtete Werk, das nach 20 Jahren in einer überarbeiteten Neuausgabe vorliegt, lässt sich mittlerweile auch als Kommentar zur aktuellen Diskussion um eine angebliche Bedrohung »eigener« Werte lesen. Bernd Frye sprach mit Prof. Dr. Johannes Fried über ein Volk, das seinerseits aus fremden Elementen und Einwanderungsprozessen erwachsen ist.
Sie hören Stimmen, vermuten Botschaften in bedeutungslosen Ereignissen oder fühlen sich ferngesteuert: Die Symptome von Menschen mit einer schizophrenen Störung galten bisher als »uneinfühlbar«, da für Außenstehende nicht nachvollziehbar. Aktuelle neurowissenschaftliche Modelle helfen, die Verwechslung von »eigen« und »fremd« aufzuklären.
Zu Beginn der industriellen Massenproduktion und vor dem Zeitalter des Klons stand Serialität nicht für identische Reproduktion, sie verschränkte vielmehr Ordnung und Variation. Durch diese begriffliche Fassung von Serie war es möglich, dass sie nicht allein Mittel der Standardisierung und Gesetzmäßigkeit war, sondern mit ihr auch Varianzen und Differenzen formuliert werden konnten. Kunstgeschichtlich manifestiert die Serie - exemplarisch kann hierfür Claude Monet stehen - grundlegende konzeptionelle Veränderungen in der Auffassung von Kunst: Auf der einen Seite macht die serielle Darstellung deutlich, dass die bildende Kunst sich von ihrer repräsentativen Aufgabe emanzipiert hatte. Das Bild war fortan keine "Form 'natürlicher Malerei'", sondern eine Übersetzung, eine Transformation, die sich einem Wechselspiel denkerischer, technischer und darstellender Prozesse verdankt. Bild und bildnerische Verfahren werden erkennbar als künstlerische Verfahrensweisen, die auf je spezifische gesellschaftliche, zeitliche und ästhetische Anforderungen reagieren und diese einbeziehen. Auf der anderen Seite sind mit der seriellen Darstellung aufgrund ihrer Reflexion der Relationen der Elemente zueinander eine Spannung zwischen Offenheit und Geschlossenheit, eine Verräumlichung von Zeit und ein Umschlag von Diachronie in Synchronie verknüpft. Die Serie in der bildenden Kunst kann als eine Figur charakterisiert werden, die Konzepten der Identität, der Sukzession und linearen Entwicklung konträr ist. Insofern verwundert es nicht, dass in den 1960er Jahren, in denen das Interesse an seriellen Verfahren, Ordnungen und Produktionen erstarkte, das Prinzip der Serie zu Reformulierungen und Verschiebungen des Kunstbegriffs beigetragen hat.
So wie der intermediale Dialog eine Polyphonie der Erzählerperspektiven zum Ausdruck bringt, die in 'Leben? Oder Theater?' narratologisches Programm ist, stellt die Serialität hier kein rein formales Experiment dar, sondern ist eng mit der Erzählung verbunden. Auch wenn es im Folgenden vorrangig um eine Serialität im Medium des Bildes geht, ist diese in eine Bilder'geschichte', mithin in einen narrativen Gesamtzusammenhang integriert und muss aus diesem und in Hinblick auf ihre Funktion für diesen untersucht werden. Es wird sich zeigen, dass Wiederholung und Serialität in 'Leben? Oder Theater?' thematisch immer an die Auseinandersetzung mit dem Tod bzw. das Spannungsverhältnis zwischen Leben und Tod gebunden ist.
Aerosolteilchen agieren als Kondensationskeime für Wolkentröpfchen (engl. Cloud Condensation Nuclei, CCN) oder Eiskristalle und sind deswegen für die Wolken- und Niederschlagsbildung entscheidend. Sowohl die Aerosolpartikel als auch die Wolken können Sonnenlicht effizient streuen, wodurch ein kühlender Effekt auf das Klima ausgeübt wird. Einige der Teilchen, wie z. B. aufgewirbelter Staub oder Seesalz, werden direkt in die Atmosphäre injiziert; der größte Anteil der Teilchen und etwa die Hälfte der CCN werden allerdings durch die Kondensation gasförmiger Substanzen gebildet. Dieser Prozess wird als Nukleation oder Partikelneubildung (engl. New Particle Formation, NPF) bezeichnet. Trotz intensiver Forschung ist die NPF noch nicht vollständig verstanden, was an der Komplexität der chemischen Abläufe in der Atmosphäre und an der Schwierigkeit liegt, die relevanten Substanzen bei extrem geringen Mischungsverhältnissen (etwa ein Molekül oder Cluster per 1012 bis 1015 Moleküle) zu identifizieren und zu quantifizieren. Neben der Frage nach den bei der Nukleation beteiligten Substanzen ist außerdem noch unklar, ob Ionen-induzierte Nukleation ein wichtiger Prozess für das Klima ist. Das CLOUD-Projekt (Cosmics Leaving OUtdoor Droplets) am CERN soll diesen Fragen nachgehen, indem dort die Partikelbildung in einem Kammer-Experiment unter extrem gut kontrollierten Bedingungen simuliert wird. Die chemischen Systeme, die in dieser Schrift diskutiert werden, umfassen das binäre (H2SO4-H2O), das ternäre Ammoniak (H2SO4-H2O-NH3) und das ternäre Dimethylamin (H2SO4-H2O-(CH3)2NH)-System.
Einige der wesentlichen Ergebnisse von Experimenten an der CLOUD-Kammer werden diskutiert. Diese zeigen, dass das binäre und das ternäre Ammoniak System die atmosphärische Nukleation bei niedrigen Temperaturen erklären können, wohingegen das ternäre Dimethylamin System prinzipiell in der Lage ist, die hohen bodennahen Nukleationsraten bei atmosphärisch relevanten Schwefelsäure-Konzentrationen zu beschreiben. Des Weiteren werden zwei für Nukleationsstudien wesentliche Messmethoden vorgestellt. Das Chemical Ionization Mass Spectrometer (CIMS) wird zur Messung von gasförmiger Schwefelsäure verwendet, da H2SO4 vermutlich die wichtigste Substanz bei der atmosphärischen Nukleation ist. Das Chemical Ionization-Atmospheric Pressure interface-Time Of Flight (CI-APi-TOF) Massenspektrometer misst Schwefelsäure und neutrale Cluster. Beide Geräte wurden für den Einsatz bei CLOUD optimiert und instrumentelle Entwicklungen wurden in Bezug auf die Ionenquelle vorgenommen, die eine Korona-Entladung verwendet. Außerdem wurden eine Kalibrationseinheit zur Bereitstellung definierter Schwefelsäure-Konzentrationen entwickelt und das CI-APi-TOF aufgebaut. In Bezug auf das ternäre Dimethylamin System werden Nukleationsraten und die ersten Messungen von gro en nukleierenden neutralen Clustern präsentiert. Monomer- und Dimer-Konzentrationen der Schwefelsäure, die mit dem CIMS bei tiefen Temperaturen gemessen wurden, dienten der Ableitung der thermodynamischen Eigenschaften bei der Dimer-Bildung im binären und ternären Ammoniak System. Um möglichst exakte Nukleationsraten zu bestimmen, wurde eine neue Methode entwickelt, die es erlaubt, den Effekt der Selbst-Koagulation bei der Nukleation miteinzubeziehen.
Die zusammengefassten Studien tragen signifikant zum Verständnis der Partikelneubildung bei.
Der musikalische Serialismus wird bis heute als ein mechanistisches Kompositionsverfahren abgetan, wie es typisch für die verunsicherte Nachkriegszeit der 1950er Jahre zu sein scheint. Dieser Ansatz übersieht die grundsätzlichen Impulse, die von diesen Ansätzen bis heute ausgehen. Festmachen kann man dies z. B. daran, wie stark seit den 90er Jahren ein formales strukturorientiertes Denken in der elektronischen Musik zum Durchbruch gelangte, wie es noch mit Sound- und Midiorientierten Verfahren in den 80er Jahren nicht absehbar war. Für einen qualitativ neuen Typus form- und strukturgenerierender Tools im Virtuellen digitaler Symbolverarbeitung stehen heute kollaborative Echtzeitprogramme bereit, die 'Komposition' als ein neues strukturelles Dispositiv erfahren lassen und in direkter Linie zum Serialismus gesehen werden können.
Nur die Einbeziehung des Fremden bewahre vor steriler Identität, meinte Adorno, aus dem Exil in den USA nach Frankfurt zurückgekehrt. Wie steht es heute um Fremdheit und Fremde und um das Verhältnis von Eigenem und Fremdem? Das erkundet der Philosoph und Publizist Rolf Wiggershaus im Gespräch mit fünf Frankfurter Professorinnen und Professoren.
Haben Vorurteile einen Sinn? In der Entwicklungsgeschichte des Menschen vermutlich schon, um Freund und Feind unterscheiden zu können. Aber in der heutigen globalen, wenn auch komplexeren Welt ist es wichtig zu wissen, warum Vorurteile entstehen und welche Gruppenprozesse dahinterstecken. Die Sozialpsychologie kann seit den 1950er Jahren auf eine Vielzahl von Experimenten verweisen – mit spannenden Ergebnissen. Eines lautet: Je mehr Kontakt Menschen aus unterschiedlichen Gruppen miteinander haben, desto geringer sind auch die Vorurteile.
Die Begegnung mit dem Nachbarn bleibt nahezu kommunikationsfrei, wenn man nur darauf achtet, dass die Zweige der Birke nicht über die Grenze zu ihm hinüberwachsen. Ist der Nachbar nicht mehr nur der Andere von nebenan und gegenüber, sondern tendenziell längst ein Fremder geworden? Haben Nachbarschaften wirklich ihren sozialen Verpflichtungscharakter weitgehend verloren? Der Kulturanthropologe begibt sich auf Spurensuche.
Die 16 Bücher, die Ed Ruscha zwischen 1963 und 1978 publizierte, teilen eine Reihe charakteristischer Eigenschaften. In ihrer unprätentiösen Erscheinung bestechen sie auf unverkennbare Art und Weise durch ein klares Layout und eine nüchterne Typografie, die scheinbar im Widerspruch zu den oft etwas absurd anmutenden Titeln wie 'Twentysix Gasoline Stations', 'Nine Swimming Pools', 'Some Los Angeles Apartments' oder 'Every Building on the Sunset Strip' stehen. Im Innern der Bücher ist jeweils eine Serie meist schwarz-weißer Fotografien zu sehen, welche abbildet, was im Titel angekündigt wird: Tankstellen, Swimmingpools, Parkplätze etc. Obschon einem beim Durchblättern auf den ersten Blick hauptsächlich die Fotografien ins Auge springen, wird rasch deutlich, dass diese immer in engem Zusammenhang mit ihrem Trägermedium, dem Buch, stehen. Zwei Aspekte von Ruschas Fotobüchern sind interessant im Hinblick auf das Prinzip der Reihung: einerseits das prototypische Vorgehen des Künstlers in der Produktion seiner Publikationen und andererseits der Zusammenhang zwischen der Präsentation einer fotografischen Serie in Buchform und der daraus resultierenden doppelten Zeitlichkeit.
Einer der berühmtesten Sätze Nietzsches lautet: "Was ist also Wahrheit? Ein bewegliches Heer von Metaphern, Metonymien, Anthropomorphismen kurz eine Summe von menschlichen Relationen, die, poetisch und rhetorisch gesteigert, übertragen, geschmückt wurden, und die nach langem Gebrauche einem Volke fest, canonisch und verbindlich dünken [...]". Der Satz wird immer wieder zitiert und aufgerufen, wenn es darum geht, Geltungsansprüche von Theorien in Frage zu stellen, Begriffe und normative Vorstellungen zu dekonstruieren oder den Anteil des Figurativen im Denken hervorzukehren. Dabei liegt der Akzent dann auf den dominanten Tropen Metapher und Metonymie, wenn nicht allein auf der Metapher. In jedem Fall aber ist es die Identifizierung von Wahrheit und Metapher, die in den Mittelpunkt der Aufmerksamkeit gerückt wird, von Wahrheit und Bild oder übertragener, 'uneigentlicher', verschobener Bedeutung, von Wahrheit und nicht fixierbarer, sondern in Bewegung befindlicher Bedeutung, und die Verschiebung kommt - dem Wortsinn entsprechend - durch Tropen zustande. Denn zumindest traditionelle Rhetorik definiert Tropen als diejenigen Figuren, bei denen sich die Bedeutung vom ursprünglichen Wortinhalt wegwendet (τρέπεσϑαι). Tropen sind Wendungen des Sinns. An Nietzsches berühmtem Satz soll hier das Augenmerk kurz auf zwei andere Aspekte gerichtet werden: zum einen auf die in dem Satz selbst enthaltene Metapher, die des Heeres, und zum anderen auf die Struktur des Satzes, d. h. darauf, dass die Prädizierung der Wahrheit als "Heer von Metaphern, Metonymien, Anthropomorphismen" ihrerseits eine rhetorische Figur darstellt, nämlich eine Aufzählung.
One of the main things that we as humans do in our lifetime is the recognition and/or classification of all kind of visual objects. It is known that about fifty percentage of the neocortex is responsible for visual processing. This fact tells us that object recognition (OR) is a complex task in our and in the animal brain, but we do it in a fraction of a second.
The main question is: How does the brain exactly do it? Does the brain use some feature extraction algorithm for OR tasks? The hierarchical structure of the visual cortex and studies on a part of the visual cortex called V1 tell us that our brain uses feature extraction for OR tasks by Gabor filters. We also use our previous knowledge in object recognition to detect and recognize the objects which we never saw before. Also, as we grow up we learn new objects faster than before.
These facts imply that the visual cortex of human and other animals uses some common (universal) features at least in the first stages to distinguish between different objects. In this context, we might ask: Do universal features in images exist, such that by using them we are able to efficiently recognize any unknown object? Is it necessary to extract new special features for any new object? How about using existing features from other tasks for this? Is it possible to efficiently use extracted feature of a specific task for other tasks? Are there some general features in natural and non-natural images which can also be used for specific object recognition? For example, can we use extracted features of natural images also for handwritten digit classification?
In this context, our work proposes a new information-based approach and tries to give some answers to the questions above. As a result, in our case we found that we could indeed extract unique features which are valid in all three different kinds of tasks. They give classification results that are about as good as the results reported by the corresponding literature for the specialized systems, or even better ones.
Another problem of the OR task is the recognition of objects, independently of any perception changes. We as humans or also animals can recognize objects in spite of many deformations (e.g. changes in illumination, rotation in any direction or angles, distortion and scaling up or down) in a fraction of a second. When observing an object which we never saw, we can imagine the rotated or scaled up objectin our mind. Here, also the question arises: How does the brain solve this problem? To do this, does the brain learn some mapping algorithm (transformation), independent of the objects or their features?
There are many approaches to model the mapping task. One of the most versatile ones is the idea of dynamically changing mappings, the dynamic link mapping (DLM). Although the dynamic link mapping systems show interesting results, the DLM system has the problem of a high computational complexity. In addition, because it uses the least mean squared error as risk function, the performance for classification is also not optimal. For random values where outliers are present, this system may not work well because outliers influence the mean squared error classification much more than probability-based systems. Therefore, we would like to complete the DLM system by a modified approach.
In our contribution, we will introduce a new system which employs the information criteria (i.e. probabilities) to overcome the outlier problem of the DLM systems and has a smaller computational complexity. The new information based selforganised system can solve the problem of invariant object recognition, especially in the task of rotation in depth, and does not have the disadvantage of current DLM systems and has a smaller computational complexity.
Il presente lavoro ha come oggetto d'esame lo scontro del filosofo neo-idealista Giovanni Gentile (1875-1944) col Modernismo cattolico. Obiettivo del lavoro è offrire per la prima volta un esame completo della controversa, durata sei anni, dal 1903 al 1909, attraverso una constestualizzazione storico ecclesiastica e storico filosofica di essa. Il tutto basandosi sulla pubblicazione di inediti fonti d'archivio.
Background aims: Immunomagnetic enrichment of CD34+ hematopoietic “stem” cells (HSCs) using paramagnetic nanobead coupled CD34 antibody and immunomagnetic extraction with the CliniMACS plus system is the standard approach to generating T-cell-depleted stem cell grafts. Their clinical beneficence in selected indications is established. Even though CD34+ selected grafts are typically given in the context of a severely immunosuppressive conditioning with anti-thymocyte globulin or similar, the degree of T-cell depletion appears to affect clinical outcomes and thus in addition to CD34 cell recovery, the degree of T-cell depletion critically describes process quality. An automatic immunomagnetic cell processing system, CliniMACS Prodigy, including a protocol for fully automatic CD34+ cell selection from apheresis products, was recently developed. We performed a formal process validation to support submission of the protocol for CE release, a prerequisite for clinical use of Prodigy CD34+ products.
Methods: Granulocyte-colony stimulating factor–mobilized healthy-donor apheresis products were subjected to CD34+ cell selection using Prodigy with clinical reagents and consumables and advanced beta versions of the CD34 selection software. Target and non-target cells were enumerated using sensitive flow cytometry platforms.
Results: Nine successful clinical-scale CD34+ cell selections were performed. Beyond setup, no operator intervention was required. Prodigy recovered 74 ± 13% of target cells with a viability of 99.9 ± 0.05%. Per 5 × 10E6 CD34+ cells, which we consider a per-kilogram dose of HSCs, products contained 17 ± 3 × 10E3 T cells and 78 ± 22 × 10E3 B cells.
Conclusions: The process for CD34 selection with Prodigy is robust and labor-saving but not time-saving. Compared with clinical CD34+ selected products concurrently generated with the predecessor technology, product properties, importantly including CD34+ cell recovery and T-cell contents, were not significantly different. The automatic system is suitable for routine clinical application.
Multi-scale entropy (MSE) has been recently established as a promising tool for the analysis of the moment-to-moment variability of neural signals. Appealingly, MSE provides a measure of the predictability of neural operations across the multiple time scales on which the brain operates. An important limitation in the application of the MSE to some classes of neural signals is MSE's apparent reliance on long time series. However, this sparse-data limitation in MSE computation could potentially be overcome via MSE estimation across shorter time series that are not necessarily acquired continuously (e.g., in fMRI block-designs). In the present study, using simulated, EEG, and fMRI data, we examined the dependence of the accuracy and precision of MSE estimates on the number of data points per segment and the total number of data segments. As hypothesized, MSE estimation across discontinuous segments was comparably accurate and precise, despite segment length. A key advance of our approach is that it allows the calculation of MSE scales not previously accessible from the native segment lengths. Consequently, our results may permit a far broader range of applications of MSE when gauging moment-to-moment dynamics in sparse and/or discontinuous neurophysiological data typical of many modern cognitive neuroscience study designs.
In diesem polemischen Aufsatz ist die Kunst des klassischen Stils als natürliches Produkt und Erziehungsmittel der freien Gesellschaft und in dieser Hinsicht als Gegensatz der sogenannten Avantgarde-Kunst betrachtet.
Background: One aspect of premating isolation between diverging, locally-adapted population pairs is female mate choice for resident over alien male phenotypes. Mating preferences often show considerable individual variation, and whether or not certain individuals are more likely to contribute to population interbreeding remains to be studied. In the Poecilia mexicana-species complex different ecotypes have adapted to hydrogen sulfide (H2S)-toxic springs, and females from adjacent non-sulfidic habitats prefer resident over sulfide-adapted males. We asked if consistent individual differences in behavioral tendencies (animal personality) predict the strength and direction of the mate choice component of premating isolation in this system.
Results: We characterized focal females for their personality and found behavioral measures of ‘novel object exploration’, ‘boldness’ and ‘activity in an unknown area’ to be highly repeatable. Furthermore, the interaction term between our measures of exploration and boldness affected focal females’ strength of preference (SOP) for the resident male phenotype in dichotomous association preference tests. High exploration tendencies were coupled with stronger SOPs for resident over alien mating partners in bold, but not shy, females. Shy and/or little explorative females had an increased likelihood of preferring the non-resident phenotype and thus, are more likely to contribute to rare population hybridization. When we offered large vs. small conspecific stimulus males instead, less explorative females showed stronger preferences for large male body size. However, this effect disappeared when the size difference between the stimulus males was small.
Conclusions: Our results suggest that personality affects female mate choice in a very nuanced fashion. Hence, population differences in the distribution of personality types could be facilitating or impeding reproductive isolation between diverging populations depending on the study system and the male trait(s) upon which females base their mating decisions, respectively.
This dissertation provides a comprehensive account of the grammar of relative clause extraposition in English. Based on a systematic review and evaluation of the empirical generalizations and theoretical approaches provided in the literature on generative grammar, it is shown that none of the previous theories is able to account for all the relevant facts. Among the most problematic data are the Principle C and scope effects of relative clause extraposition, cases with obligatory relative clauses, and relative clauses with elliptical NPs as antecedents.
I propose a new analysis of relative clause extraposition within the constraint-based, monostratal grammatical framework of Head-driven Phrase Structure Grammar (HPSG), enhanced with the semantic theory of Lexical Resource Semantics (LRS). Crucially, it is a general analysis of relative clause attachment, since both canonical and extraposed relative clauses are licensed by the same syntactic and semantic constraints. The basic assumption is that a relative clause can be adjoined to any phrase that contains a suitable antecedent of the relative pronoun. The semantic information that licenses the relative clause is introduced by the determiner of the antecedent NP. The techniques of underspecified semantics and the standard semantic representation language used by LRS make it possible to formulate constraints which yield the correct intersective interpretation of the relative clause (arbitrarily distant from its antecedent NP) and at the same time link the scope of the antecedent NP to the adjunction site of the relative clause.
In combination with the revised HPSG binding theory developed in this dissertation, the proposed analysis is able to capture the major properties of relative clause attachment within a unified and internally consistent monostratal constraint-based grammatical framework.
Previous studies suggest that the application of Controlled Language (CL) rules can significantly improve the readability, consistency, and machine-translatability of source text. One of the justifications for the application of CL rules is that they can have a similar impact on several target languages by reducing the post-editing effort required to bring Machine Translation (Ml’) output to acceptable quality. In certain situations, however, post-editing services may not always be a viable solution. Web-based information is often expected to be made available in real-time to ensure that its access is not restricted to certain users based on their locale. Uncertainties remain with regard to the actual usefulness of MT output for such users, as no empirical study has examined the impact of CL rules on the usefulness, comprehensibility, and acceptability of MT technical documents from a Web user's perspective. In this study, a two-phase approach is used to determine whether Controlled English rules can have a significant impact on these three variables. First, individual CL rules are evaluated within an experimental environment, which is loosely based on a test suite.Two documents are then published and subject to a randomised evaluation within the framework of an online experiment using a customer satisfaction questionnaire. The findings indicate that a limited number of CL rules have a similar impact on the comprehensibility of French and German output at the segment level. The results of the online experiment show that the application of certain CL rules has the potential to significantly improve the comprehensibility of German MT technical documentation. Our findings also show that the introduction of CL rules did not lead to any significant improvement of the comprehensibility, usefulness, and acceptability of French MT technical documentation.
The research reported in this thesis examines two main questions: firstly, which dictionary type, bilingual or monolingual, is most effective for intermediate learners of German for reading comprehension, and secondly, which features make monolingual dictionary definitions effective for these learners. These questions divide the thesis into two parts. The first part compares the effectiveness of the bilingual versus the monolingual dictionary, and the second part compares two different monolingual definition styles.
The research was originally motivated by the observation that Hong Kong Chinese intermediate learners of German prefer to use a German-English bilingual dictionary. Since the translations are presented in the learners' second language, the effectiveness of this bilingual dictionary is doubtful. On the other hand, the learners are reluctant to use the monolingual dictionary, recommended to them by their language teachers. Three investigations were conducted in order to gain more detailed knowledge about the learners' dictionary preference, and the effectiveness of the two dictionary types. The learners' dictionary preference was investigated by means of a survey of ninety-eight foreign language students. The effectiveness of the bilingual and monolingual dictionary for reading comprehension and incidental vocabulary learning was first measured experimentally. The think-aloud method was then used in order to discover factors which determine the effectiveness of the two dictionary types.
The results of the experiment revealed that the German-English bilingual dictionary was not significantly more effective for the learners than the monolingual dictionary. The only monolingual dictionary available for German at that time, however, is linguistically too difficult for this proficiency level. Because of these findings, the research turned to monolingual dictionary definitions with the aim of identifying features that make them accessible to intermediate learners. Based on findings from the first think-aloud study, and principles promoted as user-friendly in the lexicographic literature, new definitions were developed for the target words in the research. These new definitions were compared with those in the existing dictionary. A second think-aloud study was conducted in order to generate hypotheses about individual definition features. These hypotheses were then tested in the second experiment, which was conducted with eighty-six learners of German in Shanghai.
The investigations reveal several features that determine the effectiveness of monolingual definitions for intermediate learners. The findings have theoretical and pedagogical implications. In the theoretical field, some lexicographic principles were recommended that are, unlike previous principles, based on empirical insights into user needs. In the pedagogical field, the research findings provide an empirical basis for the evaluation and recommendation of suitable dictionaries to intermediate learners.
A model of dictionary effectiveness is proposed. This model could help to assess the effectiveness of different information categories in dictionaries for different proficiency levels and different activity contexts. It could also provide lexicographic principles for the design of dictionaries. This research contributes one component to the proposed model: criteria for the effectiveness of definition features for intermediate learners in the activity context of reading.
Towards a German grammar programme for post-leaving certificate students at Dublin City University
(1999)
With the introduction of the communicative method of language learning, overall standards of grammatical competence and performance among Irish second level students would appear to have been significantly reduced. As a consequence, learners who continue to study a given language at third level apparently no longer possess the knowledge which, under the grammar-translation methodology, further education institutions were able to build upon. This thesis examines the basis for the above perceptions, investigates the role of formal grammar instruction in the second language acquisition process and reports on a programme which was developed at Dublin City University (DCU) in order to ease, for Irish university students of German, the transition from a primarily memory-based approach to language acquisition to the analytical approach which is still being considered crucial to a university student's linguistic education. While the research was undertaken in response to locally existing difficulties, it may also be considered as a case study of more general interest, and as such serve as an exemplar to German departments in other universities as well as to other foreign language departments both within DCU or outside. The aim of the programme under investigation was to ease the transition on a socio-affective, cognitive and metacognitive level without lowering overall proficiency expectations and standards. Primary research was conducted among secondary school teachers, post-Leaving Certificate students on entry into DCU and among third level lecturers. The purpose of this research was to identify and define the programme’s content and progression. To this effect, the German junior and senior cycle syllabi at second level were also taken into consideration. The subsequent German grammar programme was implemented at DCU in the academic year 1996/7. While the programme would appear to have been judged favourably regarding some affective and cognitive-motivational aspects, results show mixed success rates for the other two factors under investigation, cognitive-analytical and metacognitive skills. Thus, some degree courses and some language combinations clearly benefited more from the programme than others. One of the conclusions drawn from this research suggests that unless certain changes are introduced prior to students’ entry into third level, university graduates are likely to remain well below the standards of accuracy and overall proficiency which were previously achieved.
Two decades after the predicted “end of ideology”, we are observing a re-emphasis on party ideology under Hu Jintao. The paper looks into the reasons for and the factors shaping the re-formulation of the Chinese Communist Party’s (CCP) ideology since 2002 and assesses the progress and limits of this process. Based on the analysis of recent elite debates, it is argued that the remaking of ideology has been the consequence of perceived challenges to the legitimacy of CCP rule. Contrary to many Western commentators, who see China’s successful economic performance as the most important if not the only source of regime legitimacy, Chinese party theorists and scholars have come to regard Deng Xiaoping’s formula of performance-based legitimacy as increasingly precarious. In order to tackle the perceived “performance dilemma” of party rule, the adaptation and innovation of party ideology is regarded as a crucial measure to relegitimize CCP rule.
For more than two decades, the National Planning Office for Philosophy and Social Sciences (NPOPSS) has been managing official funding of social science research in China under the orbit of the Communist Party of China’s (CPC) propaganda system. By focusing on “Major Projects”, the most prestigious and well-funded program initiated by the NPOPSS in 2004, this contribution outlines the political and institutional ramifications of this line of official funding and attempts to identify larger shifts during the past decade in the “ideologics” of official social science research funding – the changing ideological circumscriptions of research agendas in the more narrow sense of echoing party theory and rhetoric and – in the broader sense – of adapting to an increasingly dominant official discourse of cultural and national self-assertion. To conclude, this article offers reflections on the potential repercussions of these shifts for international academic collaboration.
Obesity is associated with an increased risk of heart failure. Little is known about the impact of dietary changes on the cardiac sequelae in obese patients. Twenty-one obese subjects underwent a 12-week low calorie fasting phase of a formula diet. Transthoracic two-dimensional speckle-tracking echocardiography was performed to obtain systolic left ventricular strain before and after weight loss. Body mass index decreased significantly from 38.6 ± 6.2 to 31.5 ± 5.3 kg/m(2), and the total percentage fat loss was 19%. Weight reduction was associated with a reduction in blood pressure and heart rate. Left ventricular longitudinal global peak systolic strain was in the lower normal range (-18.7 ± 3.2%) before weight loss and was unchanged (-18.8 ± 2.4%) after 12 weeks on diet with substantial weight loss. Also, no significant change in global radial strain after weight loss was noted (41.1 ± 22.0 versus 43.9 ± 23.3, p = 0.09). Left atrial and ventricular dimensions were in normal range before fasting and remained unchanged after weight loss. In our study obesity was associated with normal systolic left ventricular function. A 12-week low calorie diet with successful weight loss can reduce blood pressure and heart rate. Systolic left ventricular function and morphology were not affected by rapid weight reduction.
Most research on human fear conditioning and its generalization has focused on adults whereas only little is known about these processes in children. Direct comparisons between child and adult populations are needed to determine developmental risk markers of fear and anxiety. We compared 267 children and 285 adults in a differential fear conditioning paradigm and generalization test. Skin conductance responses (SCR) and ratings of valence and arousal were obtained to indicate fear learning. Both groups displayed robust and similar differential conditioning on subjective and physiological levels. However, children showed heightened fear generalization compared to adults as indexed by higher arousal ratings and SCR to the generalization stimuli. Results indicate overgeneralization of conditioned fear as a developmental correlate of fear learning. The developmental change from a shallow to a steeper generalization gradient is likely related to the maturation of brain structures that modulate efficient discrimination between danger and (ambiguous) safety cues.
This position paper is the second ESCMID Consensus Document on this subject and aims to provide intensivists, infectious disease specialists, and emergency physicians with a standardized approach to the management of serious travel-related infections in the intensive care unit (ICU) or the emergency department. This document is a cooperative effort between members of two European Society of Clinical Microbiology and Infectious Diseases (ESCMID) study groups and was coordinated by Hakan Leblebicioglu and Jordi Rello for ESGITM (ESCMID Study Group for Infections in Travellers and Migrants) and ESGCIP (ESCMID Study Group for Infections in Critically Ill Patients), respectively. A relevant expert on the subject of each section prepared the first draft which was then edited and approved by additional members from both ESCMID study groups. This article summarizes considerations regarding clinical syndromes requiring ICU admission in travellers, covering immunocompromised patients.
Der vorliegende Band dokumentiert die Erhebungsinstrumente, die im BilWiss-Forschungsprogramm in den Erhebungen der folgenden Projektphasen zum Einsatz kamen: BilWiss („Bildungswissenschaftliches Wissen und der Erwerb professioneller Kompetenz in der Lehramtsausbildung“; 2009–2013), gefördert vom Programm des Bundesministerium für Bildung und Forschung „Entwicklung von Professionalität des pädagogischen Personals in Bildungseinrichtungen (ProPäda)“ unter dem Förderkennzeichen 01 JH 0910, und BilWiss-Beruf („Die Bedeutung des bildungswissenschaftlichen Hochschulwissens für den Berufseinstieg von Lehrkräften“; 2013–2016), gefördert vom BMBF Förderprogramm „Kompetenzmodellierung und Kompetenzerfassung im Hochschulsektor (KoKoHs)“ unter dem Förderkennzeichen 01 PK1 1007. Das Forschungsprogramm ist ein Verbundprojekt der Goethe-Universität Frankfurt (M. Kunter), der Universität Duisburg-Essen (D. Leutner), der Westfälischen Wilhelms-Universität Münster (E. Terhart), des Max-Planck-Instituts für Bildungsforschung (J. Baumert, nur Projektphase BilWiss) und der Technischen Universität München (T. Seidel, nur Projektphase BilWiss-Beruf).
Das Forschungsprogramm zielt darauf ab, zu untersuchen, inwieweit angehende Lehrkräfte durch das Studium der Bildungswissenschaften unterstützt werden, mit den vielfältigen Herausforderungen ihres Berufs professionell umzugehen. Die zentrale Annahme dabei ist, dass konzeptuelles Wissen über bildungswissenschaftliche Inhalte die professionelle Entwicklung im Vorbereitungsdienst und im Berufseinstieg unterstützt. Die Grundhypothese des Projekts lautet:
Bildungswissenschaftliche Inhalte und Zusammenhänge stellen einen begrifflichen Rahmen dar, den Lehrkräfte benötigen, um Unterrichts- und Schulereignisse angemessen zu interpretieren, zu reflektieren und so für die eigene Kompetenzentwicklung zu nutzen.
Um dies zu prüfen wurde im Rahmen des Forschungsprogramms ein standardisiertes Testinstrument zur Erfassung des bildungswissenschaftlichen Wissens entwickelt und in einer Vollerhebung von angehenden Lehrkräften zu Beginn des Vorbereitungsdienstes (n = 3298) an allen Studienseminaren in Nordrhein-Westfalen (NRW) eingesetzt. Um die Annahme zur Bedeutsamkeit des bildungswissenschaftlichen Wissens für die professionelle Entwicklung empirisch zu prüfen, wurde ein Teil dieser Lehramtsanwärter(innen) im Laufe des Vorbereitungsdienstes längsschnittlich begleitet, dabei wurden mehrfach das bildungswissenschaftliche Wissen und weitere Aspekte der professionellen Kompetenz sowie verschiedene Indikatoren des professionellen Verhaltens und beruflichen Erlebens erfasst. Die Erhebungszeitpunkte im Längsschnitt fanden ein Jahr nach dem Beginn des Vorbereitungsdienstes (n = 362), am Ende des Vorbereitungsdienstes (n = 284) und ca. zwei Jahre nach Berufseinstieg (n = 101) statt.
Die zeitliche Überschneidung des BilWiss-Projekts mit der Einführung eines reformierten Vorbereitungsdienstes im Rahmen der 2009 beschlossenen Neuerungen in der Lehrerbildung im Land NRW eröffnete zudem die Möglichkeit, die differenzielle Entwicklung der angehenden Lehrkräfte aufgrund unterschiedlicher Lerngelegenheiten in einer quasi-experimentellen Feldstudie empirisch zu untersuchen. Hierfür wurde zusätzlich zur oben bereits beschriebenen Kohorte, die sich im 24-monatigen Vorbereitungsdienst befand (Kohorte 1), eine weitere Kohorte in die Befragung einbezogen, die den reformierten verkürzten, 18-monatigen Vorbereitungsdienst absolviert (Kohorte 2). Die beiden Kohorten angehender Lehrkräfte stiegen zu verschiedenen Zeitpunkten in den Vorbereitungsdienst ein (Kohorte 1 = Anfang 2011; Kohorte 2 = Ende 2011), beendeten diesen jedoch durch die Verkürzung des Vorbereitungs-dienstes zu einem ähnlichen Zeitpunkt (Anfang 2013). Auch die Daten der Kohorte 2 wurde zu Beginn (n = 511) und Ende des Vorbereitungsdienstes (n = 386), sowie ca. zwei Jahre nach dem Berufseinstieg (n = 104) erhoben.
Weiterführende Informationen zum theoretischen Ansatz der Studie und Ergebnissen der Studie können der Internetseite http://www.bilwiss.uni-frankfurt.de sowie den unten aufgeführten Publikationen entnommen werden.