Universitätspublikationen
Refine
Year of publication
Document Type
- Conference Proceeding (660) (remove)
Language
- English (494)
- German (160)
- Multiple languages (4)
- French (1)
- mis (1)
Has Fulltext
- yes (660)
Is part of the Bibliography
- no (660)
Keywords
- Kongress (9)
- Democracy (8)
- Medizinische Ausbildung (7)
- Law (6)
- Open Science (6)
- human rights (6)
- law (6)
- democracy (5)
- Doku Mittelstufe (4)
- Doku Oberstufe (4)
Institute
- Physik (222)
- Medizin (121)
- Rechtswissenschaft (116)
- Universitätsbibliothek (31)
- Frankfurt Institute for Advanced Studies (FIAS) (25)
- Informatik (23)
- Gesellschaftswissenschaften (21)
- Erziehungswissenschaften (18)
- Geschichtswissenschaften (18)
- Geowissenschaften (14)
Diagnostische Probleme bei Infektionen in der Intensivmedizin und ihre therapeutischen Konsequenzen
(1983)
Kongreß für Laboratoriumsmedizin, Frankfurt 7. bis 9. 5. 1991. Abstracts der Posterpräsentation
(1991)
[Abstract] Serumspiegel der Immunglobuline bei gesunden Rauchern und Nichtrauchern mittleren Alters
(1993)
[Kongreßabstract] Opus®-Magnum, ein neues Analysensystem für Immunoassays. Ein Methodenvergleich
(1995)
This paper proposes a new approach for the encoding of images by only a few important components. Classically, this is done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the neural network community. Applied to images, we aim for the most important source patterns with the highest occurrence probability or highest information called principal independent components (PIC). For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that this definition of PIC implements the classical demand of Shannon’s rate distortion theory.
[Poster-Abstract] Formel zur Beurteilung der Blut-Liquor-Schrankenfunktion bei älteren Patienten
(1998)
Low energy beam transport (LEBT) for a future heavy ion driven inertial fusion (HIDIF [1]) facility is a crucial point using a Bi+ beam of 40 mA at 156 keV. High space charge forces (generalised perveance K=3.6*10-3) restrict the use of electrostatic focussing systems. On the other hand magnetic lenses using space charge compensation suffer from the low particle velocity. Additionally the emittance requirements are very high in order to avoid particle losses in the linac and at ring injection [2]. urthermore source noise and rise time of space charge compensation [3] might enhance particle losses and emittance. Gabor lenses [4] using a continuous space charge cloud for focussing could be a serious alternative to conventional LEBT systems. They combine strong cylinder symmetric focussing with partly space charge compensation and low emittance growth due to lower non linear fields. A high tolerance against source noise and current fluctuations and reduced investment costs are other possible advantages. The proof of principle has already been shown [5, 6]. To broaden the experiences an experimental program was started. Therefrom the first experimental results using a double Gabor lens (DGPL, see fig. 1 ) LEBT system for transporting an high perveance Xe+ beam will be presented and the results of numerical simulations will be shown.
In its first part, this contribution reviews shortly the application of neural network methods to medical problems and characterizes its advantages and problems in the context of the medical background. Successful application examples show that human diagnostic capabilities are significantly worse than the neural diagnostic systems. Then, paradigm of neural networks is shortly introduced and the main problems of medical data base and the basic approaches for training and testing a network by medical data are described. Additionally, the problem of interfacing the network and its result is given and the neuro-fuzzy approach is presented. Finally, as case study of neural rule based diagnosis septic shock diagnosis is described, on one hand by a growing neural network and on the other hand by a rule based system. Keywords: Statistical Classification, Adaptive Prediction, Neural Networks, Neurofuzzy, Medical Systems
The early prediction of mortality is one of the unresolved tasks in intensive care medicine. This contribution models medical symptoms as observations cased by transitions between hidden markov states. Learning the underlying state transition probabilities results in a prediction probability success of about 91%. The results are discussed and put in relation to the model used. Finally, the rationales for using the model are reflected: Are there states in the septic shock data?
Rating agencies state that they take a rating action only when it is unlikely to be reversed shortly afterwards. Based on a formal representation of the rating process, I show that such a policy provides a good explanation for the puzzling empirical evidence: Rating changes occur relatively seldom, exhibit serial dependence, and lag changes in the issuers’ default risk. In terms of informational losses, avoiding rating reversals can be more harmful than monitoring credit quality only twice per year.
Das Herder-Institut (Marburg) hatte 22 Nachwuchswissenschaftler, zumeist Doktoranden, zu einer Sommerschule eingeladen, die sich das Ziel gestellt hatte, die Arbeit an Theorie und Methode historischer Biographik mit der Diskussion konkreter biographischer Studien zu verbinden. Die Leitung und Moderation der Veranstaltung lag in den Händen von Herrn Dr. E. Mühle, dem Direktor des Herder-Instituts, und seiner Mitarbeiterin Frau Dr. H. Hein. In Ausweitung seines langjährigen und erfolgreichen Schwerpunktes auf die Geschichte Ostmitteleuropas und auf die Geschichte der Deutschen in den ostmitteleuropäischen Ländern hatte das Herder-Institut sehr bewusst auch Bewerber berücksichtigt, deren Themen in der west- und nordeuropäischen Geschichte angesiedelt sind. Entscheidend für die Auswahl war der biographische Fokus des Projektes, so dass sich neben Historikern auch Literaturwissenschaftler und Kunsthistoriker auf dem Marburger Schlossberg einfanden. Neben dem pragmatisch-interdisziplinären Ansatz gefiel auch der unaufgeregte und zugleich angenehme mitteleuropäische Charakter des Seminars. Zwar dominierte die deutsche Gruppe aufgrund ihrer Zahl und der gewählten Arbeitssprache, aber die Teilnehmer aus Polen, Tschechien und den Niederlanden verstanden es sehr gut, eigene Akzente einzubringen und deutsche Sichtkorridore aufzuweiten. ...
Christoph Cornelißen stellte in seinem Vortrag "Gerhard Ritter (1888-1967) - ein deutsches Historikerleben" die innere Widersprüchlichkeit des Historikers und politischen Menschen heraus, ohne sein eigentliches Ziel, mit dieser Biographie einen Beitrag zur deutschen Wissenschaftsgeschichte zu leisten, aus den Augen zu verlieren. ...
Dass es "Generationen" gibt, glauben viele zu wissen. Aber was genau sie darunter verstehen, fällt ihnen schwer zu beschreiben. Trotzdem erfreut sich der Generationenbegriff heute einer geradezu ubiquitären Verwendung. Er wird genutzt als Identitäts- und Kollektivbezeichnung, aber auch als Erfahrungs- und Handlungsbegriff. Selbst die Werbesprache hat sich mittlerweile seiner bemächtigt. Und in den Feuilletons deutscher Zeitungen avancierte er zuletzt zu einer Passepartout-Formel, um sozialpolitische "Generationenkonflikte" auszudeuten. ...
Over-allotment arrangements are nowadays part of almost any initial public offering. The underwriting banks borrow stocks from the previous shareholders to issue more than the initially announced number of shares. This is combined with the option to cover this short position at the issue price. We present empirical evidence on the value of these arrangements to the underwriters of initial public offerings on the Neuer Markt. The over-allotment arrangement is regarded as a portfolio of a long call option and a short position in a forward contract on the stock, which is different from other approaches presented in the literature.
Given the economically substantial values for these option- like claims we try to identify benefits to previous shareholders or new investors when the company is using this instrument in the process of going public. Although we carefully control for potential endogeneity problems, we find virtually no evidence for a reduction in underpricing for firms using over-allotment arrangements. Furthermore, we do not find evidence for more pronounced price stabilization activities or better aftermarket performance for firms granting an over-allotment arrangement to the underwriting banks.
EFM Classification: 230, 410
Teaching information literacy: substance and process This presentation explores the concept of information literacy within the broader context of higher education. It argues that, certain assertions in the library literature notwithstanding, the concepts associated with information literacy are not new, but rather very closely resemble the qualities traditionally considered to characterize a well-educated person. The presentation also considers the extent to which the higher education system does indeed foster the attributes commonly associated with information literacy. The term information literacy has achieved the immediacy it currently enjoys within the library community with the advent of the so-called "information age" The information age is commonly touted in the literature, both popular and professional, as constituting nothing short of a revolution. Academic librarians and other educators have of course felt called upon to make their teaching reflect both the growing proliferation of information formats and the major transformations affecting the process of information seeking. Faced with so much novelty and uncertainty, it is no surprise that many have felt that these changes call for a revolution in teaching. It is within this context that the concept of information literacy has flourished. It is argued in this presentation, however, that by treating information literacy as an essentially new specialty that owes much of its importance to the plethora of electronic information, we risk obscuring some of the most fundamental and enduring educational values we should be imparting to our students. Much of the literature on information literacy assumes - rather than argues - that recent changes in the way we approach education are indications of progress. Indeed, much of the self-narrative that institutions produce (in bulletins, mission statements, web sites, etc.) endorses an approach to education that will result in lifelong learners who are critical consumers of information. After critically examining the degree to which such statements of educational approach reflect reality, this presentation concludes by considering the effects of certain changes in the culture of higher education. It considers particularly the transformation - at least in North America - of the traditional model of higher education as a public good to a market-driven business model. It poses the question of whether a change of this significance might in fact detract from, rather than promote, the development of information literate students.
Using faculty-librarian partnerships to ensure that students become information fluent in the 21st century In the 21st century educators in partnership with librarians must prepare students effectively for productive use of information especially in higher education. Students will need to graduate from universities with appropriate information and technology skills to enable them to become productive citizens in the workplace and in society. Technology is having a major impact on society; in economics e-business is moving to the forefront; in communication e-mail, the Internet and cellular telephones have reformed how people communicate; in the work environment computers and web utilizations are emphasized and in education virtual learning and teaching are becoming more important. These few examples indicate how the 21st century information environment requires future members of the workforce to be information fluent so they will have the ability to locate information efficiently, evaluate information for specific needs, organize information to address issues, apply information skillfully to solve problems, use information to communicate effectively, and use information responsibly to ensure a productive work environment. Individuals can achieve information fluency by acquiring cultural, visual, computer, technology, research and information management skills to enable them to think critically.
The hadronic final state of central Pb+Pb collisions at 20, 30, 40, 80, and 158 AGeV has been measured by the CERN NA49 collaboration. The mean transverse mass of pions and kaons at midrapidity stays nearly constant in this energy range, whereas at lower energies, at the AGS, a steep increase with beam energy was measured. Compared to p+p collisions as well as to model calculations, anomalies in the energy dependence of pion and kaon production at lower SPS energies are observed. These findings can be explained, assuming that the energy density reached in central A+A collisions at lower SPS energies is sufficient to transform the hot and dense nuclear matter into a deconfined phase.
1. Hessische Schülerakademie : schulpraktische Veranstaltung für Lehramtsstudierende : Dokumentation
(2004)
The focus of the discussion at the conference on September 23, 2004 was on the long-term impact on capital markets and pension systems. The speakers tried to identify the direction and magnitude of potential changes as well as the likelihood of an eventual asset meltdown. The conference's objective was to combine insights from academia with those from the financial community in order to provide a more comprehensive outlook on capital market developments. Conference Reader Nr. 2005/01
We present a numerical technique for calculating path integrals in non-compact U(1) and SU(2) gauge theories. The gauge fields are represented by a superposition of pseudoparticles of various types with their amplitudes and color orientations as degrees of freedom. Applied to Maxwell theory this technique results in a potential which is in excellent agreement with the Coulomb potential. For SU(2) Yang-Mills theory the same technique yields clear evidence of confinement. Varying the coupling constant exhibits the same scaling behavior for the string tension, the topological susceptibility and the critical temperature while their dimensionless ratios are similar to those obtained in lattice calculations.
I review recent developments in determining the QCD phase diagram by means of lattice simulations.
Since the invention of methods to side-step the sign problem a few years ago, a number
of additional variants have been proposed, and progress has been made towards understanding
some of the systematics involved. All available techniques agree on the transition temperature
as a function of density in the regime mq/T <~1. There are by now four calculations with signals
for a critical point, two of them at similar parameter values and with consistent results. However,
it also emerges that the location of the critical point is exceedingly quark mass sensitive. At the
same time sizeable finite volume, cut-off and step size effects have been uncovered, demanding
additional investigations with exact algorithms on larger and finer lattices before quantitative conclusions
can be drawn. Depending on the sign of these corrections, there is ample room for the
eventual phase diagram to look as expected or also quite different, with no critical point at all.
The QCD equation of state is not often discussed in cosmology. However, the relic density of
weakly interacting massive particles (WIMPs) depends on the entropy and the expansion rate of
the Universe when they freeze out, at a temperature in the range 400 MeV – 40GeV, where QCD
corrections are still important. We use recent analytic and lattice calculations of the QCD pressure
to produce a new equation of state suitable for use in relic density calculations. As an example,
we show that relic densities calculated by the dark matter package DarkSUSY receive corrections
of several per cent, within the observational accuracy of the Planck CMB mission, due for launch
in 2007.
Einleitung: Für die meisten Patienten mit HCC ist die LTX die einzige kurative Behandlungsoption. Bei diesen Patienten scheint eine Kontrolle der Erkrankung durch lokale Verfahren im Intervall bis zur LTX zu erreichen zu sein. Als das beste Verfahren gilt die transarterielle Chemoembolisation (TACE). Die Effektivität ist jedoch umstritten. Möglicherweise kann sie aber Patienten startifizieren, die ein hohes Rezidivrisiko haben.
Material und Methoden: Im Zeitraum zwischen 1995 und 2005 wurden n=27 Patienten mit HCC im Alter zwischen 22 und 69 Jahren transplantiert. Hiervon erhielten n=15 Patienten eine Vorbehandlung in Form einer alleinigen TACE oder kombiniert mit PEI [n=1] bzw. LITT [n=1]. Retrospektiv wurde das Gesamtüberleben sowie das „Event-free-survival“ (Rezidiv, Reinfektion und Tod) analysiert.
Ergebnisse: Die mittlere Wartezeit betrug bei Patienten in der TACE-Gruppe 214 Tage, bei Patienten ohne Vorbehandlung 133 Tage. Bei einem mittleren Nachbeobachtungszeitraum von 1097 ± 1193 Tagen für TACE-Patienten und 1674 ± 966 Tagen für non-TACE-Patienten betrug das Überleben für Patienten, die mit TACE vorbehandelt wurden 83,3%, für Patienten, die keine TACE erhielten 86.7% (p=0,5693). Gleiches fand sich für das Event-free-survival (p=0,8823). Das Gesamtüberleben der Patienten, die auf der Warteliste einen Tumorprogress hatten lag bei 77%, während Patienten mit stabiler Tumorgröße oder Regredienz der Tumore ein Überleben von 93% aufwiesen (p=0,0153). Unter TACE-Behandlung zeigten 5/15 Patienten eine zunehmende Anzahl an Herden im histologischen Präparat verglichen mit der Ausgangsbildgebung. Nur bei einem Patienten zeigte sich der Progress der Erkrankung bereits in der präoperativen Bildgebung. Patienten mit einem Progress der Erkrankung hatten ein Gesamtüberleben von 60%, während Patienten mit „stable disease“ oder Rückgang der Herde ein Gesamtüberleben von 100% hatten (p=0,0180).
Schlussfolgerung: Unseren Ergebnisse zufolge ist der Effekt der TACE als Bridgingverfahren auf das Überleben der Patienten fraglich. Allerdings scheint die TACE zur Riskostratifizierung geeignet zu sein. In unserem Patientenkollektiv hatten Patienten, die eine Progredienz der Erkrankung auf der Warteliste zeigten ein signifikant schlechteres Gesamtüberleben. Dies gilt auch bei ausschließlicher Betrachtung der Patienten mit TACE.
Dieser Tagungsband enthält die Beiträge des 17. Workshops „Computational Intelligence“ des Fachausschusses 5.14 der VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) und der Fachgruppe „Fuzzy-Systeme und Soft-Computing“ der Gesellschaft für Informatik (GI), der vom 5. – 7. Dezember 2007 im Haus Bommerholz bei Dortmund stattfindet. Der GMA-Fachausschuss 5.14 „Computational Intelligence“ entstand 2005 aus den bisherigen Fachausschüssen „Neuronale Netze und Evolutionäre Algorithmen“ (FA 5.21) sowie „Fuzzy Control“ (FA 5.22). Der Workshop steht in der Tradition der bisherigen Fuzzy-Workshops, hat aber seinen Fokus in den letzten Jahren schrittweise erweitert. Die Schwerpunkte sind Methoden, Anwendungen und Tools für • Fuzzy-Systeme, • Künstliche Neuronale Netze, • Evolutionäre Algorithmen und • Data-Mining-Verfahren sowie der Methodenvergleich anhand von industriellen und Benchmark-Problemen. INHALTSVERZEICHNIS T. Fober, E. Hüllermeier, M. Mernberger (Philipps-Universität Marburg): Evolutionary Construction of Multiple Graph Alignments for the Structural Analysis of Biomolecules G. Heidemann, S. Klenk (Universität Stuttgart): Visual Analytics for Image Retrieval F. Rügheimer (OvG-Universität Magdeburg): A Condensed Representation for Distributions over Set-Valued Attributes T. Mrziglod (Bayer Technology Services GmbH, Leverkusen): Mit datenbasierten Technologien und Versuchsplanung zu erfolgreichen Produkten H. Schulte (Bosch Rexroth AG, Elchingen): Approximationsgenauigkeit und dynamisches Fehlerwachstum der Modellierung mit Takagi-Sugeno Fuzzy Systemen C. Burghart, R. Mikut, T. Asfour, A. Schmid, F. Kraft, O. Schrempf, H. Holzapfel, R. Stiefelhagen, A. Swerdlow, G. Bretthauer, R. Dillmann (Universität Karlsruhe, Forschungszentrum Karlsruhe GmbH): Kognitive Architekturen für humanoide Roboter: Anforderungen, Überblick und Vergleich R. Mikut, C. Burghart, A. Swerdlow (Forschungszentrum Karlsruhe GmbH, Universität Karlsruhe): Ein Gedankenexperiment zum Entwurf einer integrierten kognitiven Architektur für humanoide Roboter G. Milighetti, H.-B. Kuntze (FhG IITB Karlsruhe): Diskret-kontinuierliche Regelung und Überwachung von Robotern basierend auf Aktionsprimitiven und Petri-Netzen N. Rosemann, W. Brockmann (Universität Osnabrück): Kontrolle dynamischer Eigenschaften des Online-Lernens in Neuro-Fuzzy-Systemen mit dem SILKE-Ansatz A. Hans, D. Schneegaß, A. Schäfer, S. Udluft (Siemens AG, TU Ilmenau): Sichere Exploration für Reinforcement-Learning-basierte Regelung Th. Bartz-Beielstein, M. Bongards, C. Claes, W. Konen, H. Westenberger (FH Köln): Datenanalyse und Prozessoptimierung für Kanalnetze und Kläranlagen mit CI-Methoden S. Nusser, C. Otte, W. Hauptmann (Siemens AG, OvG-Universität Magdeburg): Learning Binary Classifiers for Applications in Safety-Related Domains W. Jakob, A. Quinte, K.-U. Stucky, W. Süß, C. Blume (Forschungszentrum Karlsruhe GmbH; FH Köln, Campus Gummersbach) Schnelles Resource Constrained Project Scheduling mit dem Evolutionären Algorithmus GLEAM M. Preuß, B. Naujoks (Universität Dortmund): Evolutionäre mehrkriterielle Optimierung bei Anwendungen mit nichtzusammenhängenden Pareto-Mengen G. Rudolph, M. Preuß (Universität Dortmund): in mehrkriterielles Evolutionsverfahren zur Bestimmung des Phasengleichgewichts von gemischten Flüssigkeiten Y. Chen, O. Burmeister, C. Bauer, R. Rupp, R. Mikut (Universität Karlsruhe, Forschungszentrum Karlsruhe GmbH, Orthopädische Universitätsklinik Heidelberg): First Steps to Future Applications of Spinal Neural Circuit Models in Neuroprostheses and Humanoid Robots F. Hoffmann, J. Braun, T. Bertram, S. Hölemann (Universität Dortmund, RWTH Aachen): Multikriterielle Optimierung mit modellgestützten Evolutionsstrategien S. Piana, S. Engell (Universität Dortmund): Evolutionäre Optimierung des Betriebs von rohrlosen Chemieanlagen T. Runkler (Siemens AG, CT IC 4): Pareto Optimization of the Fuzzy c–Means Clustering Model Using a Multi–Objective Genetic Algorithm H. J. Rommelfanger (J.W. Goethe-Universität Frankfurt am Main): Die Optimierung von Fuzzy-Zielfunktionen in Fuzzy (Mehrziel-) LPSystemen - Ein kritischer Überblick D. Gamrad, D. Söffker (Universität Duisburg-Essen): Formalisierung menschlicher Interaktionen durch Situations-Operator- Modellbildung S. Ritter, P. Bretschneider (FhG AST Ilmenau): Optimale Planung und Betriebsführung der Energieversorgung im liberalisierten Energiemarkt R. Seising (Medizinische Universität Wien): Heinrich Hertz, Ludwig Wittgenstein und die Fuzzy-Strukturen - Eine kleine „Bildergeschichte“ zur Erkenntnisphilosophie J. Limberg, R. Seising (Medizinische Universität Wien): Sequenzvergleiche im Fuzzy-Hypercube M. Steinbrecher, R. Kruse (OvG-Universität Magdeburg): Visualisierung temporaler Abhängigkeiten in Bayesschen Netzen M. Schneider, R. Tillmann, U. Lehmann, J. Krone, P. Langbein, U. Stark, J. Schrickel, Ch. Ament, P. Otto (FH Südwestfalen, Airbus Deutschland GmbH, Hamburg, TU Ilmenau): Künstliches Neuronales Netz zur Analyse der Geometrie von großflächig gekrümmten Bauteilen C. Frey (FhG IITB Karlsruhe): Prozessdiagnose und Monitoring feldbusbasierter Automatisierungsanlagen mittels selbstorganisierender Karten
Einleitung: Es wurden die Leistungen beim Verstehen im Störgeräusch von CI-Patienten mit unterschiedlichen Implantattypen verglichen. Der TEMPO+ Sprachprozessor (MED-EL, Implantat C40+) verwendet ein Mikrophon mit Kugelcharakteristik, während der ESPrit 3G Prozessor (COCHLEAR, Implantat CI24R(CA)) mit einem frontal ausgelegten Richtmikrophon ausgestattet ist.
Methode: Von den zwei untersuchten Patientengruppen (n=20) war eine mit einem C40+ Implantat (MED-EL, Innsbruck), die andere mit dem CI24RCA Implantat (Cochlear, Melbourne) versorgt. Es wurde die S0N180 Lautsprecheranordnung im Freifeld für den HSM-Test (Hochmair, Schulz und Moser, 1997) und die S0N0 Anordnung für den Oldenburger Satztest (Wagener, Kühnel und Kollmeier, 1999) verwendet. Der OLSA wurde mit festem Sprachpegel (65 dB SPL) und adaptivem Störgeräusch durchgeführt. Der HSM-Satztest wurde bei Signal-/ Rauschverhältnissen von 15 dB, 10 dB, 5 dB, 0dB sowie ohne Störgeräusch durchgeführt.
Ergebnisse: Im HSM-Satztest (S0N180) wurden signifikant bessere Leistungen beim Verstehen im Störgeräusch für die Gruppe mit dem Richtmikrophon nachgewiesen. Im Oldenburger Satztest zeigten sich keine signifikanten Unterschiede.
Schlussfolgerungen: Im Vergleich zu einem Mikrophon mit Kugelcharakteristik verbessert ein Richtmikrophon das Sprachverstehen in Situationen, in denen die Sprache frontal und der Störschall von hinten dargeboten werden.
The scientific innovation process embraces the steps from problem definition through the development and evaluation of innovative solutions to their successful exploitation. The challenges imposed by this process can be answered by the creation of a powerful and flexible next-generation e-Science infrastructure, which exploits leading edge information and knowledge technologies and enables a comprehensive and intelligent means of supporting this process. This paper describes our vision of a Knowledge-based eScience infrastructure, which is based on the results of an in-depth study of the researchers requirements. Furthermore, it introduces the Fraunhofer e-Science Cockpit as a first implementation of our vision.
Proceedings of 4th International Workshop "Critical Point and Onset of Deconfinement", July 9-13, 2007, Darmstadt, Germany: The multiplicity fluctuations of hadrons are studied within the statistical hadron-resonance gas model in the large volume limit. The role of quantum statistics and resonance decay effects are discussed. The microscopic correlator method is used to enforce conservation of three charges - baryon number, electric charge, and strangeness - in the canonical ensemble. In addition, in the micro-canonical ensemble energy conservation is included. An analytical method is used to account for resonance decays. The multiplicity distributions and the scaled variances for negatively and positively charged hadrons are calculated for the sets of thermodynamical parameters along the chemical freeze-out line of central Pb+Pb (Au+Au) collisions from SIS to LHC energies. Predictions obtained within different statistical ensembles are compared with the preliminary NA49 experimental results on central Pb+Pb collisions in the SPS energy range. The measured fluctuations are significantly narrower than the Poisson ones and clearly favor expectations for the micro-canonical ensemble. Thus, this is a first observation of the recently predicted suppression of the multiplicity fluctuations in relativistic gases in the thermodynamical limit due to conservation laws.
We discuss the use of Wilson fermions with twisted mass for simulations of QCD thermodynamics.
As a prerequisite for a future analysis of the finite-temperature transition making use
of automatic O(a) improvement, we investigate the phase structure in the space spanned by the
hopping parameter k , the coupling b , and the twisted mass parameter m. We present results for
Nf = 2 degenerate quarks on a 163×8 lattice, for which we investigate the possibility of an Aoki
phase existing at strong coupling and vanishing m, as well as of a thermal phase transition at
moderate gauge couplings and non-vanishing m.
The pseudoparticle approach is a numericalmethod to compute path integrals without discretizing spacetime. The basic idea is to consider only those field configurations, which can be represented as a linear superposition of a small number of localized building blocks (pseudoparticles), and to replace the functional integration by an integration over the pseudoparticle degrees of freedom. In previous papers we have successfully applied the pseudoparticle approach to SU(2) Yang-Mills theory. In this work we discuss the inclusion of fermionic fields in the pseudoparticle approach. To test our method, we compute the phase diagram of the 1+1-dimensional Gross-Neveu model in the large-N limit as well as the chiral condensate in the crystal phase.
Lattice simulations employing reweighting and Taylor expansion techniques have predicted a (m;T)-phase diagram according to general expectations, with an analytic quark-hadron crossover at m =0 turning into a first order transition at some critical chemical potential mE. By contrast, recent simulations using imgainary m followed by analytic continuation obtained a critical structure in the fmu;d;ms;T;mg parameter space favouring the absence of a critical point and first order line. I review the evidence for the latter scenario, arguing that the various raw data are not inconsistent with each other. Rather, the discrepancy appears when attempting to extract continuum results from the coarse (Nt =4) lattices simulated so far, and can be explained by cut-off effects. New (as yet unpublished) data are presented, which for Nf = 3 and on Nt = 4 confirm the scenario without a critical point. Moreover, simulations on finer Nt = 6 lattices show that even if there is a critical point, continuum extrapolation moves it to significantly larger values of mE than anticipated on coarse lattices.
Euclidean strong coupling expansion of the partition function is applied to lattice Yang-Mills theory
at finite temperature, i.e. for lattices with a compactified temporal direction. The expansions
have a finite radius of convergence and thus are valid only for b <bc, where bc denotes the nearest
singularity of the free energy on the real axis. The accessible temperature range is thus the
confined regime up to the deconfinement transition. We have calculated the first few orders of
these expansions of the free energy density as well as the screening masses for the gauge groups
SU(2) and SU(3). The resulting free energy series can be summed up and corresponds to a glueball
gas of the lowest mass glueballs up to the calculated order. Our result can be used to fix
the lower integration constant for Monte Carlo calculations of the thermodynamic pressure via
the integral method, and shows from first principles that in the confined phase this constant is
indeed exponentially small. Similarly, our results also explain the weak temperature dependence
of glueball screening masses below Tc, as observed in Monte Carlo simulations. Possibilities and
difficulties in extracting bc from the series are discussed.
The modern phase diagram of strongly interacting matter reveals a rich structure at high-densities
due to phase transitions related to the chiral symmetry of quantum chromodynamics (QCD) and
the phenomenon of color superconductivity. These exotic phases have a significant impact on
high-density astrophysics, such as the properties of neutron stars, and the evolution of astrophysical systems as proto-neutron stars, core-collapse supernovae and neutron star mergers. Most recent pulsar mass measurements and constraints on neutron star radii are critically discussed.
Astrophysical signals for exotic matter and phase transitions in high-density matter proposed recently in the literature are outlined. A strong first order phase transition leads to the emergence of a third family of compact stars besides white dwarfs and neutron stars. The different microphysics of quark matter results in an enhanced r-mode stability window for rotating compact stars compared to normal neutron stars. Future telescope and satellite data will be used to extract signals from phase transitions in dense matter in the heavens and will reveal properties of the phases of dense QCD. Spectral line profiles out of x-ray bursts will determine the mass-radius ratio of compact stars. Gravitational wave patterns from collapsing neutron stars or neutron star mergers will even be able to constrain the stiffness of the quark matter equation of state. Future astrophysical data can therefore provide a crucial cross-check to the exploration of the QCD phase diagram with the heavy-ion program of the CBM detector at the FAIR facility.
Einleitung: Die pathologische Stimulierbarkeit von Serum-Calcitonin (CT) im relativ niedrigen Bereich (über 100 bis 300 pg/ml) trennt nicht hinreichend zwischen C-Zell-Hyperplasie (CCH) und C-Zell-(Mikro-)Karzinom (CCC), bei Überwiegen der Fälle mit CCH. Der Schilddrüsenisthmus ist frei von C-Zellen (Lit. mult., eigene Studie). Dies führte zur Methode der ITBL , welche nun an einer größeren prospektiv dokumentierten Serie von Patienten evaluiert wird.
Material und Methoden: 102 Patienten mit präoperativ gering bis mäßig erhöhtem CT (stim.≥100 ≤400 pg/ml) wurden mit der Intention zur ITBL operiert. Bei 30 erfolgte die Komplettierung zur totalen Thyreoidektomie (TTX), davon 27 in gleicher Sitzung, im Fall von Malignität unter Einschluss der systematischen Lymphknotendissektion (LNX). Gründe zur Komplettierung waren Mikrokarzinome (12 medulläre, 7 differenzierte) oder benigne Isthmusknoten (n=11).
Ergebnisse: Bei allen 72 Patienten mit definitiver ITBL (darunter 2 Mikro-CCC, übrige CCH) lag, ebenso wie bei den 30 Patienten mit TTX, das postoperative CT unter der Messgrenze (unter 2 pg/ml), mit einer Ausnahme (3 pg/ml, nicht stimulierbar); maximal stim. CT war bei 5 der 72 Patienten im unteren Normbereich messbar (3 – 4,6 pg/ml), bei den übrigen ebenfalls unter der Messgrenze. Alle 102 Patienten waren "biochemisch geheilt".
Schlussfolgerung: Die ITBL hat sich mit hinreichender Sicherheit als optimale Operationsmethode für Fälle mit CCH erwiesen und ist bzgl. ihrer Radikalität der TTX gleichwertig, unter Belassung eines gesunden Schilddrüsenrestes (Isthmus) von funktioneller Relevanz (2 – 5 g).
Einleitung: Der Schlauchmagen (Sleeve Gastrectomy) wurde zunächst als erster Teil der biliopankreatischen Diversion mit Duodealswitch eingeführt, um das operative Risiko durch eine Zweischritt-Therapie zu senken. Zunehmend wird das Verfahren nun auch als eigeneständige Operation zur Gewichtsreduktion eingesetzt, obwohl noch keine Langzeitergebnisse vorliegen.
Material und Methoden: Im Zeitraum von 03/2001 bis 03/2007 wurden 120 Patienten (mittleres Alter: 40,3 Jahre; Geschlecht : 86 Frauen, 34 Männer ; Mittelwerte für Gewicht (179,8 kg), Körperlänge (1,72 m), BMI (60,7 kg/m2)Übergewicht (117,1 kg)mit einem laparoskopischen Schlauchmagenbildung behandelt. Die Ausgangssituation war zwischen den Gruppen nicht verschieden (Pearson). Bei 106 der Patienten war ein BPD-DS geplant, der in zwei Schritten erfolgen sollte. 6 Patienten hatten bereits vorher ein Magenband. In der Gruppe A (n=25) erfolgte keine Kalibration des Schlauches mit Hilfe einer Sonde. In Gruppe B (n=32) wurde eine 44 French und in Gruppe C (n=63) eine 33 French im Durchmesser starke Sonde zur Kalibration eingesetzt.
Ergebnisse: Intraoperativ wurden durch Volumenmessung über die Sonde die Schlauchvolumina mit einer hohen Varianz gemessen (A: 149,0 ml, SD: 15,2; B:117,4 ml, SD:34,8; C: 78,3 ml,SD: 17,9). Die Unterschiede waren statistisch signifikant (p<0,01; eta2=0,61). Besonders deutlich waren die Unterschiede im resezierten Magenvolumen (A:490,2 ml; B 732,7 ml; C:1156,1 ml). Da statistisch keine Abhängigkeit zwischen BMI und Magenvolumen nachgewiesen w erden konnte, zeigt sich die Ungenauigkeit der Schlauchmagenmessung gegenüber der Messung des resezierten Magenvolumens. Ergebnisse der Gewichtsreduktion zeigen eine Abhängigkeit von der Kalibration des Magenschlauches und des resezierten Magen-Volumens. Der Gewichtsverlust beträgt im Gesamtpatientengut und zeigt ab dem 3. Postoperativen Jahr eine Tendenz zum Wiederanstieg des Gewichtes. Eine unterlassene Kalibration und ein Volumen von weniger als 500 cm3 für den entfernten Magen sind mit einem Gewichtsanstieg spätestens nach 2- 3 Jahre verbunden. Der Verlust von 20 BMI-Punkten wird nach 2 Jahren erreicht.
Schlussfolgerung: Die Schlauchmagenbildung ist ein restriktives Verfahren, dass bei einer Kalibration eines engen Magenschlauches (32 French) und einem resezierten Magenvolumen von mindestens 500 eine sehr gute Gewichtsreduktion erzielt, die sich bei dem EWL zwischen de Ergebnissen des Magenbandes und des Magenbypass bewegt. Durch Anpassung der Ernährungsgewohnheiten kann es wie bei allen pur restriktiven Verfahren zu einem Wiederanstieg des Körpergewichtes.
We report progress in our exploration of the finite-temperature phase structure of two-flavour lattice
QCD with twisted-mass Wilson fermions and a tree-level Symanzik-improved gauge action
for a temporal lattice size Nt = 8. Extending our investigations to a wider region of parameter
space we gain a global view of the rich phase structure. We identify the finite temperature transition/
crossover for a non-vanishing twisted-mass parameter in the neighbourhood of the zerotemperature
critical line at sufficiently high b . Our findings are consistent with Creutz’s conjecture
of a conical shape of the finite temperature transition surface. Comparing with NLO lattice
cPT we achieve an improved understanding of this shape.
We present the status of runs performed in the twisted mass formalism with Nf =2+1+1 flavours of dynamical fermions: a degenerate light doublet and a mass split heavy doublet. The procedure for tuning to maximal twist will be described as well as the current status of the runs using both thin and stout links. Preliminary results for a few observables obtained on ensembles at maximal twist will be given. Finally, a reweighting procedure to tune to maximal twist will be described.
We perform a detailed study of the adjoint static potential in the pseudoparticle approach, which is a model for SU(2) Yang-Mills theory. We find agreement with the Casimir scaling hypothesis and there is clear evidence for string breaking. At the same time the potential in the fundamental representation is linear for large separations. Our results are in qualitative agreement with results from lattice computations.
Um die Nutzung von offenen Ressourcen und Web 2.0 Technologien einer breiten Masse von NutzerInnen zu ermöglichen, ist es auch wichtig, dass LehrerInnen und Lehrer die entsprechenden Kompetenzen erwerben, um diese medialen Angebote und einen sinnvollen Umgang damit ihren Schülerinnen und Schülern vermitteln zu und selbst Medienangebote im Unterricht einsetzen zu können. Die Universität Frankfurt stellt sich dieser Aufgabe und hat sich daher zum Ziel gesetzt, ihre Lehramtsstudierenden entsprechend zu qualifizieren und auch Angebote für Lehrerinnen und Lehrer bereitzustellen, um einen pädagogisch sinnvollen Einsatz von Open Ressources, Web 2.0 Technologien und anderen Medienangeboten zu befördern.
Neben einem Medienkompetenzzertifikat für Lehramtsstudierenden stellt die Hochschule entsprechende Fortbildungsangebote für Lehrerinnen und Lehrer bereit und erzeugt in dem vertikalen Integrationskonzept des Projektes Lehr@mt Medienprodukte mit Studierenden, die LehrerInnen und SchülerInnen über den hessischen Bildungsserver und andere Portale wiederum bereitstehen.
Um mit den wachsenden Anforderungen der Informations- und Kommunikationstechnologien in unserer Gesellschaft umzugehen, bedarf es der umfassenden Qualifizierung von Kindern und Jugendlichen im Umgang mit den neuen Medien. Das bedeutet, sie müssen befähigt werden, Medien bewusst und kritisch nutzen und kompetent bedienen zu können. Dies erfordert eine gezielte Vermittlung von Medienkompetenz, die neben der Nutzung der Medien auch deren kritische Beurteilung und die aktive Beteiligung an der Gestaltung und Verbreitung dieser Medien umfasst. Gesellschaftliches Ziel muss daher sein, Kinder und Jugendliche schon in der Schule mit den neuen Medien vertraut zu machen und ihnen dort einen pädagogisch geleiteten Umgang mit diesen zu ermöglichen. Dies kann nicht ohne die entsprechende Qualifizierung der Lehrerinnen und Lehrer erfolgen. Neben der Nutzung neuer Medien durch das Lehrpersonal selbst muss diese Zielgruppe auch befähigt werden, Medien zielgerichtet im Unterricht einzusetzen, entsprechende Unterrichtsszenarien zu entwickeln und zu betreuen.
Untersuchungen wie beispielsweise eine Studie unter Lehrkräften in Frankfurter Schulen haben jedoch gezeigt, dass die Ausstattung der Schulen mit modernen Medien zwar sehr zufriedenstellend ist, es den Lehrkräften jedoch an methodischen Qualifikationen mangelt, diese einzusetzen und „ein hoher Bedarf an weiterführenden Schulungen zum fachdidaktischen Einsatz“ artikuliert wurde (Wiedwald 2007, S. 4).
Während Lehrerfortbildungen an dieser Stelle ein Mittel zur Abhilfe darstellen, lösen sie das Problem jedoch nur punktuell. Die Universität Frankfurt hat sich daher mit der Einführung eines Medienkompetenzzertifikates für Lehramtsstudierende sowie der Umsetzung des Projektes Lehr@mt zum Ziel gesetzt, in allen drei Phasen der Lehrerbildung aktiv zu werden und schon ihre Lehramtsstudierenden entsprechend zu qualifizieren sowie auch Angebote für Lehrerinnen und Lehrer bereitzustellen, die einen pädagogisch sinnvollen Einsatz von neuen Medien in Schulen befördern.
Wiki-Systeme gewinnen für das kollaborative Erstellen von Wissen zunehmend an Bedeutung, belegt durch den Erfolg großer Projekte wie Wikipedia. Dabei beschränkt sich der Einsatz dieser Systeme nicht auf Anwendungsbereiche wie Wörterbücher oder Glossare; auch Universitäten und Unternehmen nutzen Wikis inzwischen zunehmend zur Unterstützung der Lehre im eLearning, für Dokumentationszwecke, Projektmanagement-Aufgaben, usw.. In diesem Kontext ist die Frage nach dem didaktisch motivierten Einsatz von Wikis im eLearning bedeutsam: welche Erfahrungen haben Akteure dem Einsatz von Wikis in eLearning-Veranstaltung oder auch begleitend zu räsenzveranstaltungen gemacht? Lassen sich Empfehlungen für die Gestaltung der Interaktion und Kooperation in Wikis aus diesen Erfahrungen ableiten?
The correspondence between the terminology used for querying and the one used in content objects to be retrieved, is a crucial prerequisite for effective retrieval technology. However, as terminology is evolving over time, a growing gap opens up between older documents in (long-term) archives and the active language used for querying such archives. Thus, technologies for detecting and systematically handling terminology evolution are required to ensure "semantic" accessibility of (Web) archive content on the long run. As a starting point for dealing with terminology evolution this paper formalizes the problem and discusses issues, first ideas and relevant technologies.
The Göttingen conference Systematics 2008 is the first joint meeting of the Gesellschaft für Biologische Systematik (GfBS) and the German Botanical Society, section Biodiversity and Evolutionary Biology (DBG), being the 10th Annual Meeting of the GfBS and the 18th International Symposium Biodiversity and Evolutionary Biology of the DBG. The conference programme covers biological systematics in the widest sense and provides ample opportunities for oral and poster presentations on new advances in plant, animal and microbial systematics. This volume brings together the abstracts of invited speaches from the plenary sessions on Progress in Deep Phylogeny, Speciation and Phylogeography, and New Trends in Biological Systematics as well as those of submitted talks and poster sessions.The Göttingen conference Systematics 2008 is the first joint meeting of the Gesellschaft für Biologische Systematik (GfBp. and the German Botanical Society, section Biodiversity and Evolutionary Biology (DBG), being the 10th Annual Meeting of the GfBS and the 18th International Symposium Biodiversity and Evolutionary Biology of the DBG. The conference programme covers biological systematics in the widest sense and provides ample opportunities for oral and poster presentations on new advances in plant, animal and microbial systematics. This volume brings together the abstracts of invited speaches from the plenary sessions on Progress in Deep Phylogeny, Speciation and Phylogeography, and New Trends in Biological Systematics as well as those of submitted talks and poster sessions.
Die vorliegende Dokumentation der 4. "Hessischen Schülerakademie - Schulpraktische Veranstaltung für Lehramtsstudierende" L3 hat wiederum eine ähnliche Gliederung wie die vorangegangenen: Hauptteile bilden die Dokumentation der Kursinhalte und Berichte über die kursübergreifenden (musisch - kulturellen) Aktivitäten. Es folgen u.a. exemplarisch Auszüge aus den von Studierenden verfassten Praktikumsberichten, welche auf Grund der neuen Praktikumsordnung jetzt Pflicht sind.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Ein wesentliches Ziel der modernen Perforatorlappen vom Unterbauch (DIEP-flap) für die Brustrekonstruktion nach Mammaamputation ist die Schonung der Rektusmuskulatur. Der Funktionserhalt der Muskulatur ist abhängig von der Präparationstechnik. In unserer Studie wird die Interaktion zwischen der Muskel- und Nervendurchtrennung und der postoperativen Muskelfunktion untersucht. Material und Methoden: Unser Patientenkollektiv umfasst 42 Patienten. Im Zeitraum von 6/04 bis 06/07 wurden 44 DIEP-Lappen an unserer Klink nach dem gleichen operativen Standard von unterschiedlichen Operateuren zur Brustrekonstruktion transferiert. Die Standards beinhalten die beidseitige Präparation der Perforatorgefäße des Unterbauches, der SIEA-Gefäße, die Auswahl der 2–4 kräftigsten Perforatoren einer Seite und die schonende Präparation der Rektusmuskulatur und der motorischen Nervenäste.In einer prospektiven monozentrischen Studie haben wir die Rektusmuskulatur präoperativ und 6 Monate postoperativ untersucht. Für die Funktionsanalyse wurde sowohl die Myosonografie der Rektusmuskulatur als auch eine klinischen Untersuchung angewandt. Intraoperativ wurde die Anzahl und Lokalisation der Perforatoren, die Länge der gespreizten Muskulatur, die Länge der durchtrennten Muskulatur und die Anzahl und Lokalisation der durchtrennten intramuskulären Nerven in einer Skizze eingetragen. Die Relation zwischen der intraoperativen Muskel- und Nervenschädigung und der postoperativen Funktion wurde analysiert. Ergebnisse: Bei der Hebung des DIEP – flaps wurden im Durchschnitt 10,8 cm Muskulatur gespreizt, 8,2 cm Muskulatur getunnelt und 2,5 cm Muskulatur durchtrennt. In 41% (18 Pat) wurde 1 motorischer Nervenast durchtrennt, in 27,3% (12 Pat) waren es 2 und in 13,6% (6 Pat) 3 Nervenäste. Bei der klinischen Untersuchung 6 Monate postoperativ hatten 8 Patientinnen noch funktionelle Störungen beim Heben schwerer Gegenstände. Myosonografisch fand sich bei 3 Patientinnen eine Funktionsminderung: 1 vollständiger Funktionsverlust der Muskulatur mit Relaxatio, 2 relevante Minderungen der Kontraktilität Bei keiner Patientin fand sich eine Bauchwandhernie. Bei allen Patientinnen mit einer Beeinträchtigung der Muskulatur waren mind. 2 motorische Nervenäste durchtrennt worden. Schlussfolgerung: Die klinische und myosonografische Funktionsanalyse der Bauchwand ermöglicht die Erstellung von Standards zur verbesserten Operationstechnik. Unsere Ergebnisse zeigen, dass die Durchtrennung von 2 oder mehr motorischen Nervenästen vermieden werden muß. Die Länge der durchtrennten und gespreizten Muskulatur ist dagegen von geringerer Bedeutung.
The multiplicity fluctuations in A+A collisions at SPS and RHIC energies are studied within the HSD transport approach. We find a dominant role of the fluctuations in the nucleon participant number for the final fluctuations. In order to extract physical fluctuations one should decrease the fluctuations in the participants number. This can be done considering very central collisions. The system size dependence of the multiplicity fluctuations in central A+A collisions at the SPS energy range – obtained in the HSD and UrQMD transport models – is presented. The results can be used as a ‘background’ for experimental measurements of fluctuations as a signal of the critical point. Event-by-event fluctuations of the K/p , K/p and p/p ratios in A+A collisions are also studied. Event-by-event fluctuations of the kaon to pion number ratio in nucleus-nucleus collisions are studied for SPS and RHIC energies. We find that the HSD model can qualitatively reproduce the measured excitation function for the K/p ratio fluctuations in central Au+Au (or Pb+Pb) collisions from low SPS up to top RHIC energies. The forward-backward correlation coefficient measured by the STAR Collaboration in Au+Au collisions at RHIC is also studied. We discuss the effects of initial collision geometry and centrality bin definition on correlations in nucleus-nucleus collisions. We argue that a study of the dependence of correlations on the centrality bin definition as well as the bin size may distinguish between these ‘trivial’ correlations and correlations arising from ‘new physics’. 5th International Workshop on Critical Point and Onset of Deconfinement - CPOD 2009, June 08 - 12 2009 Brookhaven National Laboratory, Long Island, New York, USA
Perturbation theory for non-abelian gauge theories at finite temperature is plagued by infrared
divergences which are caused by magnetic soft modes ~ g2T, corresponding to gluon fields of
a 3d Yang-Mills theory. While the divergences can be regulated by a dynamically generated
magnetic mass on that scale, the gauge coupling drops out of the effective expansion parameter
requiring summation of all loop orders for the calculation of observables. Some gauge invariant
possibilities to implement such infrared-safe resummations are reviewed. We use a scheme based
on the non-linear sigma model to estimate some of the contributions ~ g6 of the soft magnetic
modes to the QCD pressure through two loops. The NLO contribution amounts to ~ 10% of the
LO, suggestive of a reasonable convergence of the series.
The so-called sign problem of lattice QCD prohibits Monte Carlo simulations at finite baryon
density by means of importance sampling. Over the last few years, methods have been developed
which are able to circumvent this problem as long as the quark chemical potential is m=T <~1.
After a brief review of these methods, their application to a first principles determination of the
QCD phase diagram for small baryon densities is summarised. The location and curvature of the
pseudo-critical line of the quark hardon transition is under control and extrapolations to physical
quark masses and the continuum are feasible in the near future. No definite conclusions can as
yet be drawn regarding the existence of a critical end point, which turns out to be extremely quark
mass and cut-off sensitive. Investigations with different methods on coarse lattices show the lightmass
chiral phase transition to weaken when a chemical potential is switched on. If persisting on
finer lattices, this would imply that there is no chiral critical point or phase transition for physical
QCD. Any critical structure would then be related to physics other than chiral symmetry breaking.
We present a lattice QCD calculation of the heavy-light decay constants fB and fBs performed with Nf = 2 maximally twisted Wilson fermions, at four values of the lattice spacing. The decay constants have been also computed in the static limit and the results are used to interpolate the observables between the charmand the infinite-mass sectors, thus obtaining the value of the decay constants at the physical b quark mass. Our preliminary results are fB = 191(14)MeV, fBs = 243(14)MeV, fBs/ fB = 1.27(5). They are in good agreement with those obtained with a novel approach, recently proposed by our Collaboration (ETMC), based on the use of suitable ratios having an exactly known static limit.
The chiral critical surface is a surface of second order phase transitions bounding the region of
first order chiral phase transitions for small quark masses in the fmu;d;ms;mg parameter space.
The potential critical endpoint of the QCD (T;m)-phase diagram is widely expected to be part of
this surface. Since for m = 0 with physical quark masses QCD is known to exhibit an analytic
crossover, this expectation requires the region of chiral transitions to expand with m for a chiral
critical endpoint to exist. Instead, on coarse Nt = 4 lattices, we find the area of chiral transitions
to shrink with m, which excludes a chiral critical point for QCD at moderate chemical potentials
mB < 500 MeV. First results on finer Nt = 6 lattices indicate a curvature of the critical surface
consistent with zero and unchanged conclusions. We also comment on the interplay of phase
diagrams between the Nf = 2 and Nf = 2+1 theories and its consequences for physical QCD.
We present first results from runs performed with Nf = 2+1+1 flavours of dynamical twisted mass fermions at maximal twist: a degenerate light doublet and a mass split heavy doublet. An overview of the input parameters and tuning status of our ensembles is given, together with a comparison with results obtained with Nf = 2 flavours. The problem of extracting the mass of the K- and D-mesons is discussed, and the tuning of the strange and charm quark masses examined. Finally we compare two methods of extracting the lattice spacings to check the consistency of our data and we present some first results of cPT fits in the light meson sector.