Filtern
Erscheinungsjahr
- 2020 (235) (entfernen)
Dokumenttyp
- Dissertation (235) (entfernen)
Volltext vorhanden
- ja (235)
Gehört zur Bibliographie
- nein (235)
Schlagworte
- Knochenersatzmaterial (2)
- Sprache (2)
- 3-alkylphenols (1)
- 3D-Druck (1)
- 6-methylsalicylic acid synthase (1)
- 9-HODE (1)
- ADHS (1)
- ALL (1)
- AML (1)
- Absorption modeling (1)
Institut
This thesis primarily investigates an (hitherto unnoticed) agreement alternation between Romance and Germanic in D>N>&>N constructions (e.g. “these walls and ceiling”). While Romance exhibits left conjunct agreement, Germanic shows morphologically resolved agreement on the determiner, i.e. the phi-feature mismatching conjuncts can only be licensed if a syncretic form is available. To handle these data the author suggests a theory in which coordination is syntactically and morphologically unspecified and multiple agree is a general option. Infelicitous derivations are ruled out by interface conditions on the semantic and the phonological well formedness. The complete results of the corpus research conducted to deliver a sound empirical basis for the phenomena investigated in this thesis can be found in the appendix.
Duale Thrombozytenaggregationshemmung (‚dual antiplatelet therapy‘: DAPT) erhöht das Risiko für eine hämorrhagische Transformation (HT) von ischämischen Schlaganfällen nach Thrombolyse mit gewebespezifischem Plasminogenaktivator (‚tissue plasminogen activator‘: tPA). Bisherige klinische Studien waren jedoch nicht vollends eindeutig, ob diese erhöhte Blutungswahrscheinlichkeit tatsächlich zu einer schlechteren Ausgangssituation für Patienten führt. Viele sehen die initiale klinische Verschlechterung im Rahmen einer potenziellen HT durch den Nutzen der wiederhergestellten Rekanalisation verschlossener Gefäße aufgewogen. Aus diesem Grunde sollte tPA auch in Patienten angewendet werden, die einen Schlaganfall unter DAPT erleiden. Bisher sind der Pathomechanismus und die beteiligten Mediatoren der HT unverstanden. Allerdings könnte die Reduktion der tPA-assoziierten HT zu einer sichereren Anwendung der Thrombolyse beitragen und ihren Nutzen insgesamt weiter steigern. Daher war es Ziel dieser Studie, ein Schlaganfallmodell mit tPA-assoziierter HT in Mäusen unter DAPT zu etablieren, um damit erste Bewertungen therapeutischer Ansätze zur Begrenzung der HT zu ermöglichen.
Ein entscheidender Aspekt vorab war die Bestimmung der Thrombozytenfunktion in den behandelten Mäusen, um damit die Wirksamkeit der DAPT zu messen. Dies war besonders vor dem Hintergrund wichtig, dass DAPT bei Patienten unterschiedlich wirksam ist. So gibt es einen gewissen Anteil Patienten, der resistent gegenüber Aspirin und/oder anderen Thrombozytenaggregationshemmern wie Clopidogrel zu sein scheint. Daher galt es, dieses Phänomen in unserem Modell zu kontrollieren und etwaige Non-Responder zu identifizieren und gegebenenfalls auszuschließen. Dies ist bei herkömmlichen Methoden der Aggregometrie (dem Standardverfahren zur Messung der Thrombozytenfunktion und Therapieüberwachung von Thrombozytenaggregationshemmern) eine Herausforderung, da im Handel erhältliche Aggregometer Blutvolumina erfordern, die für eine Maus tödlich wären. Auch Schwanzblutungstests (sog. „tail bleeding tests“) versagen häufig, wenn sie nach einer experimentellen Schlaganfalloperation durchgeführt werden. Wir haben daher einen Durchflusszytometrie-basierten Ansatz zur Messung der in vitro Thrombozytenfunktion modifiziert, der nur geringe Blutvolumina erfordert und von uns erstmals in einem experimentellen Schlaganfallprotokoll eingesetzt wurde. Dieser zeigte eine signifikant reduzierte Thrombozytenfunktion nach DAPT mit Aspirin und Clopidogrel (ASA+CPG) an. Die Methode korrelierte gut mit Ergebnissen von zusätzlich durchgeführten Schwanzblutungstests und wird künftige präklinische Studien zur DAPT in Mäusen erleichtern. Obwohl es eine gewisse Variabilität in der Thrombozytenfunktion der behandelten Mäuse gab, identifizierten wir letztendlich keine Non-Responder.
Als nächstes zeigten wir erfolgreich, dass DAPT mit ASA+CPG in Mäusen beim experimentellen Schlaganfall zu vermehrter HT beiträgt. Wurde die DAPT mit einer tPA-Thrombolyse verbunden, erhöhte sich die HT-Rate sogar signifikant im Vergleich zu unbehandelten Mäusen mit und ohne tPA-Thrombolyse. Unser Modell kann nun genutzt werden, um die Mechanismen der HT weiter zu untersuchen. Noch wichtiger ist, dass die Einrichtung eines solchen Modells es Forschern ermöglicht, mögliche Strategien zur Minderung des Blutungsrisikos bei Patienten mit DAPT zu testen.
Zur Verringerung der HT wählten wir zwei verschiedene pharmakologische Strategien. Zunächst untersuchten wir die Reduktion der tPA Dosis, welche allerdings nicht erfolgreich vor hämorrhagischen Komplikationen schützen konnte. Danach fokussierten wir uns auf die Rolle der 12/15-Lipoxygenase (12/15-LOX) in unserem Modell. Verschiedene Vorarbeiten hatten gezeigt, dass die 12/15-LOX zum Untergang von Endothelzellen im ischämischen Gehirn beiträgt und damit wahrscheinlich eine ursächliche oder zumindest unterstützende Rolle in der Entstehung der HT hat. So wiederholten wir unsere Versuche der tPA-assoziierten HT unter DAPT in LOX-knockout Mäusen und inhibierten die 12/15-LOX pharmakologisch mit ML351. Wir zeigten erfolgreich, dass die Hemmung von 12/15-LOX in Wildtyp-Mäusen die Blutungsrate signifikant reduzierte und identifizierten die 12/15-LOX damit als geeigneten Kandidaten für weiterführende Studien zur Eindämmung sekundärer Schäden nach ischämischen Schlaganfall. Zudem wäre neben der therapeutischen, auch die prophylaktische Gabe von 12/15-LOX Inhibitoren in Hochrisikopatienten additiv zur Thrombolyse denkbar. Eine solche Blutungsprophylaxe könnte zu einer Indikationserweiterung der Lysetherapie beitragen und das funktionelle Langzeit-Ergebnis der Patienten verbessern.
Stellenwert der Teststreifen-basierten Analyse der INR für die Behandlung von Blutungskomplikationen
(2020)
Das Ziel der hier vorliegenden Studie war es einen Zusammenhang zwischen den Ergebnissen von konventioneller versus Teststreifen-basierter INR-Messung zu untersuchen und die Analysedauern der beiden Methoden zu vergleichen. Wir haben in dieser prospektiven Mono-Center Studie 24 hämorrhagische Patienten und Patientinnen inkludiert und aus infrastrukturellen Gesichtspunkten in zwei Gruppenkollektive aufgeteilt. Das eine Studienkollektiv bildeten 12 hämorrhagische Patientinnen der Klinik für Gynäkologie und Geburtshilfe des Universitätsklinikums Frankfurt. Die Blutproben dieser Patientinnen wurden mittels einem personengebundenen Transportdienst in das Zentrallabor der Universitätsklinik geliefert. Das zweite Gruppenkollektiv bildeten 12 Patienten aus dem Schockraum der zentralen Notaufnahme. Die Blutproben dieses Kollektivs wurden mittels Rohrpost direkt in das Zentrallabor übermittelt. Wir untersuchten mittels konventioneller Gerinnungsdiagnostik und mittels Teststreifen-basierter POC-Diagnostik (CoaguChek II Pro®, PT Test, Roche Diagnostics AG) die INR eines jeden Patienten. Zudem erfolgte die Erfassung von Transport- und Analysedauer. Für die Auswertung der Daten errechneten wir die Spearman-Korrelationskoeffizienten sowohl auf Gruppenebene als auch für das Gesamtkollektiv und führten eine Bland-Altman Analyse zum direkten Methodenvergleich durch.
Es zeigte sich, dass die mittels POCT ermittelte INR im Gesamtkollektiv signifikant mit den im Zentrallabor gemessenen Werten korreliert (r=0,79). Auch auf Gruppenebene zeigte sich in Gruppe 1 (Schockraum) r=0,91 und in Gruppe 2 (Kreißsaal) r=0,83 eine signifikante Korrelation. Die Bland-Altmann Analyse ergab, dass die Ergebnisse der Teststreifen-basierten POC-Methode um 0,082 (SD±0,19) niedriger waren als die Ergebnisse der konventionellen Gerinnungstests. Die Untersuchung der Analyse- und Transportzeiten brachte hervor, dass die Bereitstellungsdauer der POC-Messmethode signifikant kürzer war (2 (1,04/2,85) Minuten) als die Dauer bis zur elektronischen Ergebnisbereitstellung nach laboranalytischen Untersuchungen (58,2 (38,28/88) Minuten). Es ergab sich zudem, dass die Transportdauer mittels Rohrpost mit 8 (3,25/10,1) Minuten signifikant kürzer war als die des personengebundenen Transportdienstes 18,5 (14,5/33) Minuten (p<0,001).Die in der Studie ermittelten konsistenten Ergebnisse lassen vermuten, dass Teststreifen-basierte Systeme als Methoden zur Notfalldiagnostik hämorrhagischer Patienten geeignet sein können, weil ihre Messergebnisse verglichen mit der klassischen Gerinnungsdiagnostik im Zentrallabor deutlich schneller und mit vergleichbarer Ergebnisqualität vorliegen. Die Teststreifen-basierten Methoden können als diagnostische Elemente in Hämotherapie-Algorithmen eingesetzt werden und dazu beitragen, eine zeitnahe und zielgerichtete Hämotherapie umzusetzen, die sich positiv auf das klinische Ergebnis der Patienten auswirken kann.
Hintergrund
Obwohl Feedback ein wichtiges und gut untersuchtes Element der medizinischen Ausbildung darstellt, wird es trotz eines großen Bedarfs der Studierenden sowohl im Unterricht als auch in Prüfungssituationen nur selten angewendet. Die Frankfurter Medizinstudierenden beklagen besonders, dass sie zu ihren Objective Structured Clinical Examinations (OSCEs) als Abschlussprüfung im Fach Chirurgie bisher kein detailliertes Feedback erhalten. Auch die Prüfenden beklagen häufig, dass sie die Studierenden weder für herausragende Leistungen loben noch über auftretende Fehler informieren können.
Ziel dieser Arbeit ist deshalb die Erstellung und Implementierung eines strukturierten schriftlichen Feedbacks in eine bestehende OSCE-Prüfung im Fach Chirurgie, das an den Bedürfnissen sowohl der Studierenden als auch der Prüfenden orientiert ist.
Material und Methoden
Das Studiendesign war prospektiv. Im ersten Schritt wurde eine Befragung erfahrener OSCE-Prüfender durchgeführt, um zu erheben, welches Feedback sie gerne an Studierende weitergeben würden. Basierend hierauf wurde ein erster Feedbackbogen erstellt. Dieser umfasste neben vorformulierten Aussagen auch die Möglichkeit Freitextkommentare zu geben und wurde von den Prüfenden für jeden Studierenden in der Wechselzeit zwischen den OSCE-Stationen ausgefüllt. Die Feedbackbögen wurden anschließend eingescannt und per E- Mail an die Studierenden geschickt. Im Anschluss hieran erfolgte eine webbasierte Befragung der Studierenden und der OSCE-Prüfenden, sowie eine tiefergehende Befragung der Studierenden in Form von Fokusgruppen- Interviews.
Basierend auf den Ergebnissen der Umfragen und der Fokusgruppen wurden die Feedbackbögen nochmals grundlegend überarbeitet und im folgenden OSCE erneut angewendet. Die Zufriedenheit der Prüfenden und Studierenden wurde analog zur ersten Befragung erhoben.
Ergebnisse
Insgesamt nahmen 351 Studierende und 51 Prüfende in beiden OSCEs an der Studie teil. In der abschließenden Online-Evaluation gaben 87,5% der Studierenden und 91,6% der Prüfenden an, dass sie zustimmen oder eher zustimmen, dass das schriftliche Feedback in zukünftigen OSCE-Prüfungen weiterhin angewendet werden soll. Mehr als 50% der Studierenden gaben jedoch an, dass das Feedback noch nicht konkret genug sei.
Mehr als ein Viertel der Prüfenden gab an, dass das Ausfüllen der Feedbackbögen zeitlich herausfordernd sei. In allen Fokusgruppen wurde das schriftliche Feedback durch die Studierenden befürwortet.
Schlussfolgerung
Die Implementierung eines strukturierten schriftlichen Feedbacks in einen OSCE ist problemlos möglich. Das schriftliche Feedback wird sowohl von den Prüfenden als auch von den Studierenden als nützlich empfunden.
Die Forschung beschrieben in dieser Dissertation ist ein Teil der "European Research and Innovation Programme - PEARRL", und wurde von Horizon 2020 Marie Sklodowska-Curie actions der Europäischen Union, unter Förderungsnummer 674909 unterstützt.
In den letzten Jahren, wurde Senkung der Intensität der pharmazeutischen Forschung und Entwicklung beobachtet, da die Weiterentwicklung der Wirkstoffmolekülen hinzu einer "handlichen" Formulierung viele Schwierigkeiten aufweist. Meiste der neuen Wirkstoffkandidaten, die sich in Entwicklung befinden, haben suboptimale Eigenschaften in Bezug zur Löslichkeit und Auflösung und zeigen schlechte Bioverfügbarkeit, wenn eingenommen. Deswegen verlangen meiste neue Wirkstoffkandidate einen besonderen Ansatz in Bezug auf Formulierung, um akzeptable orale Bioverfügbarkeit zu erreichen. Diese neue Formulierungen werden meistens als “bio-enabling” Formulierungen bezeichnet und werden in Heilmittelentwicklung immer häufiger verwendet.
Hauptziel dieser Dissertation ist zu erforschen ob, durch Verbinden von biorelevanten in vitro Werkzeugen mit in silico Modeling und Simulationen, die in vitro Löslichkeit und Auflösung von bio-enabling Formulierungen mechanistisch erkläert und besser verstanden werden kann und somit eine erfolgreiche Simulation von in vivo Leistung erreicht werden kann.
Als Erstes wurden die physiologische Parameter, die die pharmakokinetik oraler Formulierungen beeinflüssen, identifiziert, indem die Auswirkung der Wirkstoffe, die zur Behandlung Magen-Darm-Krankheiten genutzt werden, sowie deren Pharmakokinetik, beurteilt wurde. Unter anderem wurde pH als einer der entscheinenden phyisiologischen Parameter erkannt, da es die Pharmakokinetik peroral verabreichter Stoffe signifikant beeinflüssen kann.
Als zweiter Schritt, mit besonderer Beachtung auf die Verwendung der biorelevanten in vitro Werkzeugen für die Erforschung der in vivo Auflösungsprozesse von bio-enabling Formulierungen, Fokus auf die biorelevante Medien und in vitro Apparaturen, die mögliche Prezipitationskinetik einschätzen können, wurde gesetzt. Biorelevante Medien sind wässrige Flüssigkeiten, die die Zusammensetzung der gastrointestinaler Flüssigkeiten nachmachen und für die Auflösungsuntersuchungen genutzt werden. Bis heute beinhalten die Aspirationsstudien die wichtigsten Hinweise und Informationen für den Design biorelevanter Medien. Es wurde beobachtet, dass die berichteten Werte mancher phyisiologisher Parameter erhebliche Unterschiede zwischen den Aspirationsstudien zeigen. Deswegen wurde untersucht, ob die Ergebnisse durch die Auswahl an Methodologie, die für die Entnahme und die Auswertung der Proben genutzt worden sind, beeinflusst werden können, wobei besondere Aufmerksamkeit den pH und der Pufferkapazität geschenkt wurde. Es wurde gezeigt, dass Unterschiede im Prozess der Probenhandhabung, z.B. Zentrifugieren und Lagerung einen deutlichen Einfluss auf die gemessenen Werte haben kann. Ausserdem, wurden in dieser Arbeit die in vitro Setups, die bisher in der Literatur zur Beurteilung der Übersättigung u.o. Ausfällung von Arzneimitteln im oberen Magen-Darm-Trakt vorgeschlagen wurden, überprüft und ihre Nützlichkeit und aktuelle Anwendung bewertet.
Nach Behebung der oben genannten Probleme, wurden zwei Fallbeispielformulierungen ausgewählt, um die Haupthypothese zu untersuchen. Die erste Formulierung ist auf den Markt unter dem Namen EMEND® und enthält den Wirkstoff in Nanoform. Die zweite Formulierung wird als INTELENCE® vermarktet und ist eine amorphe feste Dispersion des Wirkstoffs Etravirin. Durch die Wahl zwei unterschiedlicher Formulierungsansätzen konnten unterschiedliche Fallszenarien untersucht werden, wodurch umfassendere Vorschläge für die Bewältigung der Herausforderungen bei in vitro Experimenten und in silico Modelling mit bio-enabling Formulierungen möglich waren.
Bezogen auf den in dieser Dissertation beschriebenen Ansatz, ein mechanistisches Verständnis des in vivo Absorptionsprozesses, sowie eine erfolgreiche Simulation der nach der Verabreichung resultierenden Plasmaprofile einer bio-enabling-Formulierung der Nanoskala- und einer amorphen festen Dispersion wurde erreicht. Darüber hinaus wurden mögliche Wege vorgeschlagen, um einige Herausforderungen im Hinblick auf die Entwicklung von PBPK-Modellen für biofähige Formulierungen anzugehen. Diese Arbeit zeigt die mögliche Anwendung und Bedeutung der Absorptionsmodellierung für die rationale Formulierungsentwicklung und für die Stärkung des Wissens über Bio-Heilmittel in Bezug auf bio-enabling Formulierungen. Mithilfe dieses Ansatzes können die wesentlichen Parameter identifiziert werden, die das pharmakokinetische Verhalten schwerlöslicher Wirkstoffe beeinflussen, die als bio-enabling Formulierungen formuliert sind, und ermöglichen wiederum eine robuste Vorhersage der klinischen Ergebnisse.
Natural science is only just beginning to understand the complex processes surrounding transcription. Epitranscriptional regulation is in large parts conveyed by transcription factors (TFs) and two recently discovered small RNA (smRNA) species: microRNAs (miRNAs) and transfer RNA fragments (tRFs). As opposed to the fairly well-characterised function of TFs in shaping the phenotype of the cell, the effects and mechanism of action of smRNA species is less well understood. In particular, the multi-levelled combinatorial interaction (many-to-many) of smRNAs presents new challenges to molecular biology. This dissertation contributes to the study of smRNA dynamics in mammalian cells in several ways, which are presented in three main chapters.
I) The exhaustive analysis of the many-to-many network of smRNA regulation is reliant on bioinformatic support. Here, I describe the development of an integrative database capable of fast and efficient computation of complex multi-levelled transcriptional interactions, named miRNeo. This infrastructure is then applied to two use cases. II) To elucidate smRNA dynamics of cholinergic systems and their relevance to psychiatric disease, an integrative transcriptomics analysis is performed on patient brain sample data, single-cell sequencing data, and two closely related in vitro human cholinergic cellular models reflecting male and female phenotypes. III) The dynamics between small and large RNA transcripts in the blood of stroke victims are analysed via a combination of sequencing, analysis of sorted blood cell populations, and bioinformatic methods based on the miRNeo infrastructure. Particularly, importance and practicality of smRNA:TF:gene feedforward loops are assessed.
In both analytic scenarios, I identify the most pertinent regulators of disease-relevant processes and biological pathways implicated in either pathogenesis or responses to the disease. While the examples described in chapters three and four of this dissertation are disease-specific applications of miRNeo, the database and methods described have been developed to be applicable to the whole genome and all known smRNAs.
A Large Ion Collider Experiment (ALICE) is one of the four large experiments at the Large Hadron Collider (LHC) at the European Organization for Particle Physics (CERN). ALICE focuses on the physics of the strong interaction and in particular on the Quark-Gluon Plasma. This is a state of matter in which quarks are de-confined. It is believed that it existed in the earliest moments of the evolution of the universe. The ALICE detector studies the products of the collisions between heavy-nuclei, between protons, and between protons and heavy-nuclei. The sub-detector closest to the interaction point is the Inner Tracking System (ITS), which is used to measure the momentum and trajectory of the particles generated by the collisions and allows reconstructing primary and secondary interaction vertices. The ITS needs to have an accurate spatial resolution, together with a low material budget to limit the effect of multiple scattering on low-energetic particles to precisely reconstruct their trajectory. During the Long Shutdown 2 (2019-2020) of the LHC, the current ITS will be replaced by a completely redesigned sub-detector, which will improve readout rate and particle tracking performance especially at low-momentum.
The ALice PIxel DEtector (ALPIDE) chip was designed to meet the requirements of the upgraded ITS in terms of resolution, material budget, radiation hardness, and readout rate. The ALPIDE chip is a Monolithic Active Pixel Sensor (MAPS) realised in Complementary Metal-Oxide Semiconductor (CMOS) technology. Sensing element, analogue front-end, and its digital readout are integrated into the same silicon die. The readout architecture of the new ITS foresees that data is transmitted via a high-speed serial link directly from the ALPIDE to the off-detector electronics. The data is transmitted off-chip by a so-called Data Transmission Unit (DTU) which needs to be tolerant to Single-Event Effects induced by radiation, in order to guarantee reliable operation. The ALPIDE chip will operate in a radiation field with a High-Energy Hadron peak flux of 7.7·10^5 cm^-2s^-1.
The data are sent by the ALPIDE on copper cables to the readout system, which aggregates them and re-transmits them via optical fibres to the counting room. The position where the readout electronics will be placed is constrained by the maximum transmission distance reasonably achievable by the ALPIDE Data Transmission Unit and mechanical constraints of the ALICE experiment. The radiation field at that location is not negligible for its effects on electronics: the high-energy hadrons flux can reach 10^3 cm^-2s^-1. Static RAM (SRAM)-based Field Programmable Gate Arrays (FPGAs) are favoured over Application Specific Integrated Circuits (ASICs) or Radiation Hard by Design (RHBD) commercial devices because of cost effectiveness. Moreover, SRAM-based FPGAs are re-configurable and provide the data throughput required by the ITS. The main issue with SRAM-based FPGAs, for the intended application, is the susceptibility of their Configuration RAM (CRAM) to Single-Event Upsets: the number of CRAM bits is indeed much higher than the logic they configure. Total Ionizing Dose (TID) at the readout designed position is indeed still acceptable for Component Off The Shelf (COTS), provided that proper verification is carried out.
This dissertation focuses on two parts of the design of the readout system: the Data Transmission Unit of the ALPIDE chip and the design of fundamental modules for the SRAM-based FPGA of the readout electronics. In the first part, a module of the Data Transmission Unit is designed, optimising the trade-off between power consumption, radiation tolerance, and jitter performance. The design was tested and thoroughly characterised, including tests while under irradiation with a 30 MeV protons. Furthermore the Data Transmission Unit performance was validated after the integration into the first prototypes of ITS modules. In the second part, the problem of developing a radiation-tolerant SRAM-based FPGA design is investigated and a solution is provided. First, a general methodology for designing radiation-tolerant Finite State Machines in SRAM-based FPGAs is analysed, implemented, and verified. Later, the radiation-tolerant FPGA design for the ITS readout is described together with the radiation effects mitigation techniques that were selectively applied to the different modules. The design was tested with multiple irradiation tests and the results are stated below.
This Ph.D. thesis demonstrates i) the highly precise performance of refined and new analytical setups for clumped isotope analysis (Δ47 and Δ48) and ii) the applicability of clumped isotope analyses to biogenic and abiogenic carbonated apatite (Δ47) and abiogenic carbonates (Δ47 and Δ48) for research related to paleothermophysiology and paleoclimatology, whereas the overall analytical precision has been increased.
A comprehensive Δ47 dataset with 122 replicate analyses is provided from which the temperature dependence of Δ47 for (bio)apatite (Δ47-1/T2) is calculated between 1 °C and 80 °C. The temperature dependence of oxygen isotope equilibrium fractionation between carbonated synthetic apatite and water (1,000ln(αCHAP-H2O)) is experimentally determined. When applied to tooth enameloid from a modern Greenland shark (Somniosus microcephalus), a Late Miocene megatooth shark (Carcharodon megalodon), and an Upper Cretaceous Tyrannosaurus rex, reconstructed Δ47-based temperatures and δ18OH2O are in line with previously published data.
An analytical setup for highly precise clumped isotope analysis is described that allows for the simultaneous measurement of ∆47 and ∆48 in CO2 with external reproducibilities close to the respective shot-noise limits. The analyte gases originate from pure carbonates that were digested in hypersaturated orthophosphoric acid and purified using a fully automated device. Δ47 data sets with 117 replicate analyses in total on 22 pedogenic carbonate nodules from two Spanish Middle Miocene sections reveal the continental Southern European thermal structure during the end of the Middle Miocene Climatic Optimum (MCO) and the complete Middle Miocene Climatic Transition (MMCT; from 15.33 to 12.98 Ma).
The $p$-adic section conjecture predicts that for a smooth, proper, hyperbolic curve $X$ over a $p$-adic field $k$, every section of the map of étale fundamental groups $\pi_1(X) \to G_k$ is induced by a unique $k$-rational point of $X$. While this conjecture is still open, the birational variant in which $X$ is replaced by its generic point is known due to Koenigsmann. Generalising an alternative proof of Pop, we extend this result to certain localisations of $X$ at a set of closed points $S$, an intermediate version in between the full section conjecture and its birational variant. As one application, we prove the section conjecture for $X_S$ whenever $S$ is a countable set of closed points.