Refine
Year of publication
- 2017 (182) (remove)
Document Type
- Doctoral Thesis (182) (remove)
Has Fulltext
- yes (182)
Is part of the Bibliography
- no (182)
Keywords
- ALICE (2)
- FPGA (2)
- Grundschule (2)
- QCD (2)
- Stadtentwicklung (2)
- 1,3-Diamine (1)
- 14 fructidor IX (1)
- 2-Photonen (1)
- Africa (1)
- African Agency (1)
Institute
- Biowissenschaften (32)
- Medizin (31)
- Physik (23)
- Biochemie und Chemie (19)
- Biochemie, Chemie und Pharmazie (15)
- Informatik und Mathematik (9)
- Neuere Philologien (8)
- Psychologie und Sportwissenschaften (7)
- Geowissenschaften (6)
- Erziehungswissenschaften (4)
Kinder aus zugewanderten Familien und aus den unteren Sozialschichten haben es an deutschen Schulen schwer. Zu ihrer Unterstützung werden vielfältige Fördermaßnahmen angeboten. Welche Art der Förderung insbesondere Familien mit Migrationshintergrund benötigen, wird in der vorliegenden Schrift besprochen.
Zur Beantwortung dieser Frage wurde ein Familien-Bildungsprogramm - mittels qualitativer und quantitativer Erhebungsmethoden - evaluiert. In dem Programm werden Familien über die Dauer von zwei Jahren (im Übergang von der 4. in die 5. Klasse) eng begleitet. Das vielfältige Unterstützungsangebot ist dahingehend ausgerichtet, die teilnehmenden Kinder auf ihrem schulischen Weg zu unterstützen. Ebenso möchte das Programm zur Erhöhung der gesellschaftlichen Teilhabe der Familien beitragen.
Erhebliche Leistungsfortschritte erreichen fast alle Kinder im Kompetenzbereich Lesen. Besonders die leistungsschwächeren Kinder haben von der Förderung profitiert. Auch die Rechtschreibkompetenzen haben sich im Schnitt verbessert. Das schulbezogene Fähigkeitsselbstkonzept der Kinder sowie ihre Lern- und Leistungsmotivation bleibt von der Förderung relativ unbeeinflusst. Die Eltern profitieren insbesondere von dem Zugewinn einer konstanten Ansprechperson. Es gelingt den Mitarbeiterinnen ein Stützungs-Setting aufzubauen, welches den Eltern Sicherheit vermittelt und sie zuversichtlicher werden lässt. Daneben wurde eine Reihe differentieller Wirksamkeiten ermittelt (wie Entlastung, Aktivierung, Qualifizierung). Das Ausmaß der Wirksamkeit wird durch spezielle Bedingungen - auf Seite der Teilnehmer und auf Seite der Ausführenden - moderiert.
Die vorliegenden Ergebnisse werden mit Bezug auf Implikationen für die Praxis (in Schulen und Bildungsprogrammen) diskutiert.
The process of urbanization is one of the major causes of the global loss of biodiversity; however, cities nowadays also have the potential to serve as new habitats for wildlife. The European rabbit (Oryctolagus cuniculus, L. 1758) is a typical example of a wildlife species that reaches stable population densities in cities. Due to intense plant and soil damages, German city authorities aim to control high rabbit densities through the application of a yearly hunting regime (e. g., in Munich, Berlin or Frankfurt am Main). In contrast, population densities of O. cuniculus are on decline in German rural areas, i. e., numbers of yearly hunting bags decreased. The aim of my doctoral thesis was to answer the following research questions: Do population densities of the European rabbit correlate with the intensity of urbanization in and around Frankfurt am Main and if so, which factors play a role in varying densities? How are burrow construction behaviors and group sizes, daytime activity patterns and anti-predator behaviors as well as communication behaviors of this mammal affected by urbanization?
In my first study, I focused on population dynamics across 17 different study sites in and around Frankfurt. As one of yet few studies, I invented an approach that quantified the intensity of urbanization (degree of urbanity) of each study site base on four variables: (1) intensity of anthropogenic disturbance per min and ha, (2) number of residents within a radius of 500 m, (3) proportion of artificial ground cover and (4) numbers of anthropogenic objects per ha. Spearman rank correlations confirmed that with increasing degree of urbanity also rabbit and burrow densities increased. The access to dense shrubs, bushes etc. as suitable sites for burrow construction is the most determining factor for rabbit abundances, and therefore I presumed different densities along the rural-to-urban gradient to be driven by shifts in the availability of thick vegetation.
In the second study, I calculated two indices that in both cases classified burrows to be either accumulated, evenly or randomly distributed within study sites. Additionally, in cooperation with local hunters the number of burrow entrances and animals that occupy the same burrow had been determined during the hunting season. With increasing degree of urbanity burrow distribution patterns shifted from accumulated in rural areas towards more evenly distributed within the city center of Frankfurt. This is a clear sign for an increasing access to sites suitable for burrow construction along the rural to-urban gradient. Additional Spearman rank correlations revealed that the external dimensions of burrows decreased (shorter distances between entrances) and that burrows became less complex (fewer entrances) along the rural-to-urban gradient. In accordance, the number of rabbits that commonly shared the same burrow system was highest within rural areas, whereas I found mainly pairs and single individuals within highly urbanized study sites.
In the last study I compared activity patterns, burrow use and percentages of anti-predator behaviors from one hour before sunrise until one hour after sunset of rural, suburban and urban rabbit groups. A linear mixed model (LMM) and Spearman rank correlations confirmed that rabbits located at urban and suburban sites spent more time outside their protective burrows compared to their rural conspecifics. At suburban sites, individuals invested the least amount of time in anti-predator behavior. Results of this third study gave evidence that suburban rabbit populations on one hand benefit from less predation pressure by natural predators in comparison to rural sites, whereas on the other hand are exposed to less intense disturbance by humans compared to urban study sites.
The last study focused on the effects that urbanization had on the latrine-based communication behavior of rabbits. As many other mammals, O. cuniculus exchange information via the deposition of excreta in latrines, and depending on the intended receiver(s), latrines are either formed in central areas for within-group communication or at territorial boundaries, e. g., for between-group communication. The relative importance of within- vs. between-group communication depends on, amongst other factors, population densities and group sizes which I proved both to shift along the considered rural-to-urban gradient. I determined latrine sizes, latrine densities and latrine utilization frequencies relative to their distance to the nearest burrow at 15 different study sites. Latrine densities and utilization frequencies increased with increasing distance from the burrow in suburban and urban populations whereas at rural sites, largest latrines and those containing the most fecal pellets were close to the burrow, suggesting that within-group communication prevailed.
To sum up, for the first time, I was able to relate shifts in the ecology and behavior of the European rabbit as adaptations to a gradual anthropogenic habitat alteration that are typical for “urban exploiters”. Especially the suburban habitat provides high landscape heterogeneity (“edge habitat“) which is essential for high and stable rabbit populations. Moreover, here, comparably low human disturbance and predation pressure are given in contrast to the agriculturally transformed, open landscapes which are nowadays typical for most rural areas in central Europe. I argue that this mainly leads to the observed behavioral changes along the rural-to-urban gradient. Future plans for rural land management actions should aim to increase refuge availability by generating networks of ecotones. This would also benefit species that depend on similar ecosystem structures as the European rabbit and are on decline in Germany.
The venture capital industry holds relevance for entrepreneurs looking for money to finance an innovative project, investors seeking to make money by investing in entrepreneurial firms and governments trying to promote innovation and entrepreneurship. Venture capital investment could facilitate innovation and thus a better economy.
Venture capital has enabled the U.S. to support its entrepreneurial talent by turning ideas into world-famous products and services, building companies from mere business plans to mature and powerful organizations. Three of the five largest U.S. public companies by market capitalization – Apple, Google and Microsoft – received most of their early external funding from venture capital. Having its ups and downs, venture capital investment in the U.S. expanded from virtually zero in the mid-1970s to $8 billion in 1995 and $49.3 billion in 2014. Venture backed companies have been a prime driver of economic growth in the U.S.Across the pacific, venture capital investment in China has grown out of the transition from a centrally planned economy to a free market economy over the past three decades, becoming an important pillar supporting China’s innovation system. In 2015, a total of 2,824 venture capital investment deals provided an aggregate investment of $36.9 billion. Venture capital has long been a hot topic in China’s capital market, particularly since the government decided to boost “mass entrepreneurship and innovation” in 2014.
In the U.S., most venture capital firms are organized as limited partnerships, with the venture capitalists being general partners and the investors limited partners. Studies have shown that investors choose to invest through venture funds as an intermediary rather than placing their investments directly with the entrepreneurs; because of the high risk nature of the entrepreneur’s business, it is hard for them to get bank loans or direct equity investments. Conflicts may also arise, however, between the venture capitalists acting as agents and the investors as principals.5 This agency problem maybe particularly severe, since venture capital provides money for businesses with high potential and high risk, although the limited partnership has certain merits and is still most commonly chosen as the business form for venture capital funds.6 At the same time, the fact that general partners have total control of the partnership business necessitates that the agency problem is addressed by legal rules, contracts and other mechanisms.
Meanwhile, despite the rapid growth of venture capital investments in China, little attention has been paid to the organizational form of venture capital funds. In contrast to the U.S., most Chinese venture funds have been structured as corporations. One may argue that it was due to legislative reasons: that the limited partnership was not recognized by Chinese law when venture capital first appeared in China. However, after adopted a chapter was adopted in the Partnership Enterprise Law (PEL) governing limited partnerships in 2007, most of the venture funds abided by their choice, while those opting for the limited partnership have encountered difficulties: the limited partners are having trouble trusting the general partners with their money and are therefore interfering with the operation of the partnership business, which may lead to dissolution of the partnership.
This thesis applies transaction cost theory to explain the benefits and costs of choosing the limited partnership as a business form in the special context of venture capital investments, showing that the potential agency conflict between the general partners and the limited partners have been mitigated by legal and other mechanismsin the United States, and that the U.S. investors could therefore exploit the merit of the limited partnership form in venture capital financing. In China, investors have different answers to the agency problem. Similarly to the situation in the U.S., Chinese partners also employ contract terms to deal with agency problems, and the legislators enact laws that aim at regulating the limited partnership form; some legislation was even transplanted from the U.S., such as that part of the PEL which governs limited partnerships. It seems, then, that similar mechanisms that deal with agency problems also exist in China. However, given the unique history of the development of China’s innovation system and venture capital market, the effectiveness of these constraints is questionable. Chinese venture capital investors have therefore characteristically behaved differently to U.S. investors. Rather than relying on these questionable mechanisms, Chinese investors as well as the Chinese government have developed different approaches to addressing these agency problems.
In dieser Arbeit wurden thermodynamische Eigenschaften eines chiralen Quark Meson Modelles untersucht. Das chirale Quark Meson Model beschreibt die starke Wechselwirkung über den Austausch von Mesonen und zudem die thermische und dichteabhängige Entwicklung der Quarkmassen im Medium über die chirale Symmetrie.Im SU(2) Model wurde zunächst in mean field approximation gearbeitet, um im Anschluss den divergenten Vakuumterm mit einzubeziehen. Nach eingehender Untersuchung der Ergebnisse, wurden dann die thermischen Mesonenfluktuationen studiert. In beiden Ansätzen verschiebt die Nullpunktsenergie den chiralen Phasenübergang zu höheren Temperaturen, wodurch die Massen bei höheren Temperaturen entarten. Beide Ansätze wurden dann zu einem gemeinsamen Modell kombiniert, um den Einfluss der Mesonenfluktuationen auf Ordnungsparameter, Massen und thermodynamische Grössen zu untersuchen. Als Fazit der Studie kann behauptet werden, dass sich der Einfluss der Mesonenfluktuationen in grösserem Maÿ auf die Thermodynamik, als auf den Ordnungsparameter und die Massen auswirkt. Im SU(3) Modell wurden ebenfalls regularisiert und zudem Vektormesonen mitberücksichtigt, welche die Repulsion zwischen den einzelnen Freiheitsgraden modelliert. Die Zustandsgleichung wird durch den Vakuum Term etwas softer und zeigt ein ähnliches Verhalten im niederen Energiebereich. Untersucht wurde neben der Temperatur T, die Elektron Baryon Rate Ye, die Sigma Meson Masse noch der Einfluss der Vektorkopplung. Aus der Zustandsgleichung konntendann Isentropen im T-mu Phasendiagramm errechnet werden, welche in naher Zukunft Aufschluss über eine dritte Familie von kompakten Sternen in Zusammenhang mit der entsprechenden Supernova Explosion geben könnte. Um die Existenz von kompakten Sternen genauer zu analysieren, wurde das chiraleSU(3) Quark Meson Modell bei T = 0 benutzt, um über die aus dem Formalismusgewonnenen Grössen Druck und Energiedichte die Tolmann-Oppenheimer-Volkoff zu lösen. Diese stellen die Masse-Radius Beziehungen kompakter Objekte dar. Auf der Suche nach Twin Stern Lösungen aus dem chiralen SU(3) Quark Meson Model wurde zunächst ein Modell für Hybridsterne entwickelt. Im untersuchten Parameterbereich fanden wir Hybrid Stern Lösungen, bei welchen der Einfluss der Quarkmaterie auf die Stabilität des Sternes untersucht wurde, denn das Einsetzen des Phasenüberganges übt einen zusätzlichen gravitativen Zug auf die hadronische Kruste aus. Der Stern ist stabil, wenn der Druck der Quarkmaterie diesem zusätzlichen Zug standzuhalten vermag. Für einen zu grossen Sprung in der Energiedichte werden die Lösungen jedoch instabil. Zwillingssterne waren nicht unter den Lösungen, da der Übergangsdruck relativklein sein muss, während der Energiedichtesprung eher gross sein sollte. Das Auftreten zweier stabiler Äste in der Masse Radius Relation kann allerdingsmit dem SU(3) Modell und entsprechendem chiralen Phasenübergang modelliert werden. Für einen gewissen Parameterbereich einhergehend mit kleinem Wert des Vakuum Druckes B konnten Nicht-Linearitäten in der Zustangsgleichungzur Lösung der TOV Gleichung beitragen. Im Weitern ist das Zusammenspiel der Vektorkopplung und der Sigma Mesonen Masse einflussreich auf die Lösungen, welche auf Kausalität, Stabilität und neben der 2 Sonnenmassen Bedingung noch auf Restriktionen vom millisecond pulsar PSR J1748-2446ad untersucht wurden.Mit Weltraummissionen wie etwa NICER (Neutron star Interior CompositionExploreR) sollte die Radiusbestimmung kompakter Objekte in Zukunft bis auf einen Kilometer genau bestimmt werden können. Die Entdeckung von zweiSternen mit der gleichen Masse und unterschiedlichen Radien wäre in der Tat ein Beweis für die Existenz von Zwillingssternen, welche dann die Theorie des Phasenüberganges in dichter Materie untermauern würde. Das Kollaps-Szenario eines Zwillingssternes würde weiteren Aufschluss über Neutrino-Emmissivität, Gamma-ray burster und Gravitationswellen Signale geben können. Dynamische Simulationen in allgemein relativistischem Kontext für compact star merger mit den hier diskutierten Zustandsgleichungen sind bereits in Planung, um Eigenschaftenwie beispielsweise das Temperatur- und Dichteprofil solcher Objekte genauer zu analysieren.
Measuring information processing in neural data: The application of transfer entropy in neuroscience
(2017)
It is a common notion in neuroscience research that the brain and neural systems in general "perform computations" to generate their complex, everyday behavior (Schnitzer, 2002). Understanding these computations is thus an important step in understanding neural systems as a whole (Carandini, 2012;Clark, 2013; Schnitzer, 2002; de-Wit, 2016). It has been proposed that one way to analyze these computations is by quantifying basic information processing operations necessary for computation, namely the transfer, storage, and modification of information (Langton, 1990; Mitchell, 2011; Mitchell, 1993;Wibral, 2015). A framework for the analysis of these operations has been emerging (Lizier2010thesis), using measures from information theory (Shannon, 1948) to analyze computation in arbitrary information processing systems (e.g., Lizier, 2012b). Of these measures transfer entropy (TE) (Schreiber2000), a measure of information transfer, is the most widely used in neuroscience today (e.g., Vicente, 2011; Wibral, 2011; Gourevitch, 2007; Vakorin, 2010; Besserve, 2010; Lizier, 2011; Richter, 2016; Huang, 2015; Rivolta, 2015; Roux, 2013). Yet, despite this popularity, open theoretical and practical problems in the application of TE remain (e.g., Vicente, 2011; Wibral, 2014a). The present work addresses some of the most prominent of these methodological problems in three studies.
The first study presents an efficient implementation for the estimation of TE from non-stationary data. The statistical properties of non-stationary data are not invariant over time such that TE can not be easily estimated from these observations. Instead, necessary observations can be collected over an ensemble of data, i.e., observations of physical or temporal replications of the same process (Gomez-Herrero, 2010). The latter approach is computationally more demanding than the estimation from observations over time. The present study demonstrates how to handles this increased computational demand by presenting a highly-parallel implementation of the estimator using graphics processing units.
The second study addresses the problem of estimating bivariate TE from multivariate data. Neuroscience research often investigates interactions between more than two (sub-)systems. It is common to analyze these interactions by iteratively estimating TE between pairs of variables, because a fully multivariate approach to TE-estimation is computationally intractable (Lizier, 2012a; Das, 2008; Welch, 1982). Yet, the estimation of bivariate TE from multivariate data may yield spurious, false-positive results (Lizier, 2012a;Kaminski, 2001; Blinowska, 2004). The present study proposes that such spurious links can be identified by characteristic coupling-motifs and the timings of their information transfer delays in networks of bivariate TE-estimates. The study presents a graph-algorithm that detects these coupling motifs and marks potentially spurious links. The algorithm thus partially corrects for spurious results due to multivariate effects and yields a more conservative approximation of the true network of multivariate information transfer.
The third study investigates the TE between pre-frontal and primary visual cortical areas of two ferrets under different levels of anesthesia. Additionally, the study investigates local information processing in source and target of the TE by estimating information storage (Lizier, 2012) and signal entropy. Results of this study indicate an alternative explanation for the commonly observed reduction in TE under anesthesia (Imas, 2005; Ku, 2011; Lee, 2013; Jordan, 2013; Untergehrer, 2014), which is often explained by changes in the underlying coupling between areas. Instead, the present study proposes that reduced TE may be due to a reduction in information generation measured by signal entropy in the source of TE. The study thus demonstrates how interpreting changes in TE as evidence for changes in causal coupling may lead to erroneous conclusions. The study further discusses current bast-practice in the estimation of TE, namely the use of state-of-the-art estimators over approximative methods and the use of optimization procedures for estimation parameters over the use of ad-hoc choices. It is demonstrated how not following this best-practice may lead to over- or under-estimation of TE or failure to detect TE altogether.
In summary, the present work proposes an implementation for the efficient estimation of TE from non-stationary data, it presents a correction for spurious effects in bivariate TE-estimation from multivariate data, and it presents current best-practice in the estimation and interpretation of TE. Taken together, the work presents solutions to some of the most pressing problems of the estimation of TE in neuroscience, improving the robust estimation of TE as a measure of information transfer in neural systems.
Glioblastoma multiforme accounts for more than 80% of all malignant gliomas in adults and a minor fraction of new annual cases occurs in children. In the last decades, research shed light onto the molecular patterns underlying human malignancies which resulted in a better understanding of the disease and finally an improved long term survival for cancer patients. However, malignancies of the central nervous system and especially glioblastomas are still related to poor outcomes with median survivals of less than 6 months despite extensive surgery, chemotherapy and radiation. Hence, a better understanding of the molecular mechanism driving and sustaining cancerous mutations in glioblastomas is crucial for the development of targeted therapies. Apoptosis, a form of programmed cell death, is an important feature of eukaryotic cells and crucial for the maintenance of multicellular homeostasis. Because apoptosis is a highly complex and tightly regulated signaling pathway, resisting apoptotic stimuli and avoiding cell death is a hallmark of the cancerous transformation of cells. Hence, targeting molecular structures to reestablish apoptotic signaling in tumor cells is a promising approach for the treatment of malignancies. Smac mimetics are a group of small molecular protein inhibitors that structurally derive from an intracellular protein termed Smac and selectively block Inhibitor of apoptosis (IAP) proteins, which are often aberrantly expressed in cancer. Several studies confirmed the antitumoral effects of Smac mimetics in different human malignancies, including glioblastoma, and give rationales for the development of potent Smac mimetics and Smac mimetic-based combination protocols. This study investigates the antitumoral activity of the bivalent Smac mimetic BV6 in combination with Interferon α. Latter is a well characterized cytokine with an essential role in immunity, cell differentiation and apoptosis. This study further aims to address the molecular mechanisms underlying the antitumoral activity of the combination treatment by using well established molecular cell death assays, flow cytometry, western blot analysis, genetic approaches and selective pharmacological inhibition. Since different Smac mimetics and Smac mimetic-based combination therapies are currently under clinical evaluations, findings of this study may have broad implications for the application of Smac mimetics as clinical cancer therapeutics.
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.
Das T-lymphoblastische Lymphom (T-LBL) ist eine seltene Form des Non-Hodgkin-Lymphoms (NHL). Als wirksamste Behandlung haben sich intensive Therapien analog zu Protokollen für die akute lymphoblastische Leukämien (ALL) etabliert. Auch bei Erwachsenen werden inzwischen hohe CR-Raten erreicht. Aufgrund einer Rezidivrate von 20–35 % und einem Überleben von 45–75% besteht jedoch der Bedarf einer weiteren Therapieoptimierung. Dieses Ziel wird von der multizentrischen deutschen Studiengruppe für die ALL des Erwachsenen (GMALL) verfolgt, die prospektive Studien durchgeführt und eigene Therapieempfehlungen evaluiert hat.
In der vorliegenden Arbeit wurde die Effektivität der GMALL-Studientherapie T-LBL 1/2004 und der GMALL-Konsensus-Empfehlung für die Therapie neu diagnostizierter T-LBL bei Erwachsenen untersucht. Hauptaugenmerk lag auf der Auswertung der Gesamtergebnisse und der Evaluierung potentiell prognostischer Faktoren. Eine weitere wesentliche Fragestellung war es, die Bedeutung der Mediastinalbestrahlung in der Erstlinientherapie für das Therapieergebnis zu evaluieren. Ein weiterer Schwerpunkt war die Evaluation der Bedeutung eines Interimstagings mittels PET. Zusätzlich wurde die Wirksamkeit verschiedener Salvageansätze bei primärem Therapieversagen und Rezidiv evaluiert.
Ausgewertet wurden Daten von 149 Patienten, die zwischen 2004 und 2013 in zwei konsekutiven Kohorten gemäß der Studie GMALL T-LBL 01/2004 (Kohorte I; n = 101) oder der GMALL-Therapieempfehlung (Kohorte II; n = 48) behandelt wurden. Die empfohlene Therapie beinhaltete zwei Induktionsblöcke, die Reinduktion sowie sechs Konsolidationsblöcke. Die ZNS-Prophylaxe bestand aus intrathekalen Chemotherapiegaben und eine Schädelbestrahlung mit 24 Gy. Patienten, die gemäß der Studie 01/2004 behandelt wurden, sollten nach der Induktion außerdem eine Mediastinalbestrahlung mit 36 Gy erhalten. Patienten ohne CR/CRu nach dem ersten Konsolidationsblock sollten einer Salvagetherapie außerhalb des Studienprotokolls oder der Therapieempfehlung zugeführt werden. Bei mittels CT bestimmter CRu oder PR zu diesem Zeitpunkt wurde zur Sicherung des Remissionsstatus eine PET empfohlen.
Die CR-Rate der Gesamtpopulation lag bei 76 %. Das Gesamtüberleben und das erkrankungsfreie Überleben nach zwei Jahren lagen bei 72 bzw. 70 %. Die Rezidivrate betrug 28 %, die Überlebenswahrscheinlichkeit ein Jahr nach Rezidivdiagnose lag bei 35 %. Es bestand kein statistisch signifikanter Unterschied zwischen den Überlebensraten von Patienten mit und ohne Mediastinalbestrahlung (bestrahlte Patienten der Kohorte vs. Patienten der Kohorte II). Alle Patienten mit computertomographisch ermittelter CRu nach Konsolidation I, bei denen eine konfirmatorische PET durchgeführt wurde (n=21), waren PET-negativ, d. h. in metabolischer CR. Von den PET-evaluierten Patienten mit computertomographisch ermittelter PR (n = 22) waren 55 % PET-negativ. In der Gesamtpopulation wurden zahlreiche potentielle Prognosefaktoren analysiert. Statistische Signifikanz erreichte dabei nur der Allgemeinzustand. Ein ECOG-Score von 0–1 war mit einem günstigeren erkrankungsfreien Überleben assoziiert.
Die Ergebnisse zeigen eine gute Effektivität der GMALL-Therapie. Der Verzicht auf die Mediastinalbestrahlung in der Therapieempfehlung war nicht mit einer Verschlechterung des Therapieergebnisses verbunden. Die Arbeit verdeutlicht die Komplexität der frühen Remissionsbeurteilung mit verschiedenen Verfahren im Versorgungsstandard und unterstreicht den dringenden Bedarf einer standardisierten Remissionsbeurteilung und Referenzbefundung. Die PET erwies sich als wichtiges Instrument des Interimstagings, um eine remissionsabhängige Therapiestratifikation sinnvoll durchführen zu können. Sie zeigte sich zudem als unerlässlich für die korrekte Bewertung der Effektivität von Salvagestrategien und damit für die Therapieoptimierung bei primärer Refraktärität.
Die in dieser Arbeit ausgewerteten Daten bilden die bisher größte berichtete Population einheitlich behandelter erwachsener T-LBL Patienten ab. Die Ergebnisse stellen eine wichtige Grundlage für die weitere Therapieoptimierung im Rahmen der aktuell laufenden GMALL-Studie 08/2013 dar.
In dieser wirtschaftsphilosophischen Arbeit wird die fundamentale Bedeutung einer realistischen Gründe-Perspektive für die Erklärung und Beurteilung ökonomischer Praxis herausgestellt. Die Gründe-Perspektive bezieht sich in systematisierender Form auf alltägliche Interpretations- und Verstehensleistungen und greift zur Erklärung ökonomischer Sachverhalte auf Zuschreibungen mentaler Zustände zurück.
In Abgrenzung von einer Nicht-Gründe-Perspektive, die einer Vielzahl ökonomischer Erklärungsansätze, z.B. experimentell verhaltensökonomischer, behavioristisch orientierter neoklassischer oder evolutionärer Art, zugrunde liegt, wird betont, dass das Geben und Einfordern von Gründen in der ökonomische Sphäre in explanativer, prognostischer und normativer Hinsicht von großer Relevanz ist.
Ökonomische Grundbegriffe wie Präferenz, Axiom oder Nutzen werden thematisiert und deren Stellenwert innerhalb ökonomischer Theorien wird herausgestellt. Die behavioristische Fokussierung auf beobachtbare Wahlhandlungen wird in den Kontext naturalistischer Tendenzen in der Ökonomik gestellt. Dabei werden insbesondere wissenschafts- und erkenntnistheoretische Aspekte unter Bezugnahme auf die Philosophie des Geistes angeführt. Es zeigt sich, dass der Ökonom und Philosoph Don Ross einen in Abgrenzung zu Psychologie und experimenteller Verhaltensökonomik bestimmten Wahlbegriff auf aggregierter Ebene vertritt, unter anderem durch Bezug auf Dennetts Theorie intentionaler Einstellung und Möglichkeiten der Mustererkennung. Im Gegensatz dazu stehen Positionen, die mentale Zustände durch Bezug auf die Kognitionsforschung, stellenweise auch die Neuroökonomik, als real ansehen und für eine Erklärung von Präferenzen heranziehen wollen.
Unter Bezug auf die Position Nida-Rümelins wird die wirtschaftsphilosophische Relevanz von Kohärenz, struktureller Rationalität und einem Gründe-Realismus herausgestellt. Der Bezug auf lebensweltliche Gewissheit und formale Eigenschaften „alltagspsychologischer“ Zugänge soll eine bestimmte Gründe-Perspektive stützen. In welcher Hinsicht eine solche Stützung gerechtfertigt werden kann, wird unter anderem durch Bezug auf wissenschaftliche Theorien zur Alltagspsychologie (folk psychology) dargestellt. Die Vielfalt von Gründen, aus denen ökonomische Akteure handeln und die Personen auch in ökonomischen Kontexten prinzipiell verfügbar sind, wird unter Berücksichtigung spezifischer ökonomischer Rollen betont. Abschließend wird die soziale Bedingtheit von Gründen und die immanente Normativität der ökonomischen Praxis thematisiert. Die Möglichkeit einer normativen Rekonstruktion der Wirtschaftssphäre wird anhand der Theorie sozialer Freiheit von Axel Honneth diskutiert.