Refine
Year of publication
- 2003 (1414) (remove)
Document Type
- Article (516)
- Doctoral Thesis (202)
- Part of Periodical (183)
- Working Paper (150)
- Review (89)
- Part of a Book (86)
- Preprint (45)
- Conference Proceeding (38)
- Book (36)
- Report (35)
Language
- German (907)
- English (445)
- French (35)
- Portuguese (17)
- Spanish (5)
- Multiple languages (2)
- Croatian (1)
- Italian (1)
- mis (1)
Has Fulltext
- yes (1414) (remove)
Keywords
- Deutschland (44)
- Bibliographie (38)
- Film (36)
- Deutsch (23)
- Frankfurt <Main> (20)
- Frankfurt <Main> / Universität (20)
- Rezension (18)
- Literatur (17)
- Vormärz (17)
- Hofmannsthal, Hugo von (15)
Institute
- Physik (90)
- Medizin (85)
- Rechtswissenschaft (74)
- Center for Financial Studies (CFS) (58)
- Extern (52)
- Wirtschaftswissenschaften (51)
- Biochemie und Chemie (48)
- Biowissenschaften (41)
- Gesellschaftswissenschaften (33)
- Pharmazie (22)
Observation of an exotic S = -2, Q = -2 baryon resonance in proton-proton collisions at the CERN SPS
(2003)
Results of resonance searches in the Xi- pi-, Xi- pi+, antiXi+ pi- and antiXi+ pi+ invariant mass spectra in proton-proton collisions at sqrt s=17.2 GeV are presented. Evidence is shown for the existence of a narrow Xi- pi- baryon resonance with mass of 1.862+/-0.002 GeV/c^2 and width below the detector resolution of about 0.018 GeV/c^2. The significance is estimated to be 4.0 sigma. This state is a candidate for the hypothetical exotic Xi_(3/2)^-- baryon with S = -2, I = 3/2 and a quark content of (d s d s ubar). At the same mass a peak is observed in the Xi- pi+ spectrum which is a candidate for the Xi_(3/2)^0 member of this isospin quartet with a quark content of (d s u s dbar). The corresponding antibaryon spectra also show enhancements at the same invariant mass.
Results are presented on event-by-event fluctuations in transverse momentum of charged particles, produced at forward rapidities in p+p, C+C, Si+Si and Pb+Pb collisions at 158 AGeV. Three different characteristics are discussed: the average transverse momentum of the event, the Phi_pT fluctuation measure and two-particle transverse momentum correlations. In the kinematic region explored, the dynamical fluctuations are found to be small. However, a significant system size dependence of Phi_pT is observed, with the largest value measured in peripheral Pb+Pb interactions. The data are compared with predictions of several models. PACS numbers: 14.20.Jn, 13.75.Cs, 12.39.-x
A non-monotonic energy dependence of the K + / pi + ratio with a sharp maximum close to 30 A GeV is observed in central Pb+Pb collisions. Within a statistical model of the early stage, this is interpreted as a sign of the phase transition to a QGP, which causes a sharp change in the energy dependence of the strangeness to entropy ratio. This observation naturally motivates us to study the production of multistrange hyperons (Xi, Omega) as a function of the beam energy. Furthermore it was suggested that the kinematic freeze-out of Omega takes place directly at QGP hadronization. If this is indeed the case, the transverse momentum spectra of the Omega directly reflect the transverse expansion velocity of a hadronizing QGP. In this report we show preliminary NA49 results on Omega - and Omega + production in central Pb+Pb collisions at 40 and 158 A GeV and compare them to measurements of Xi - and Xi + production in central Pb+Pb collisions at 30, 40, 80 and 158 A GeV.
Ziel dieser Präsentation (anlässlich des Seminars „Die Auswirkungen von Asset Securitisation auf die Stabilität des Finanzmarktes“ Österreichische Nationalbank (ÖNB), Wien 1. Oktober 2003) ist es, eine Verbindung zwischen Verbriefung und Finanzmarkstabilität unter Berücksichtigung veränderter Finanzintermediation herzustellen. In der folgenden Abhandlung soll nun zunächst auf die Natur der Verbriefung per se eingegangen werden, um sodann anhand theoretischer Überlegungen und empirischer Beobachtungen mögliche Quelle systemischen Risikos in der Kreditverbriefung aufzuzeigen. In diesem Fall handelt es sich um die Informationsasymmetrien und die durch Handelbarkeit von Kreditrisiko bestimmte Transaktionsstruktur („security design“), die bei regulatorischer Nichtberücksichtigung eine destabilisierende Wirkung nicht nur im Bereich der Verbriefung, sondern auch hinsichtlich der gegenseitigen Zahlungsverpflichtungen von Finanzintermediären begründen könnte.
Asset-backed securitisation (ABS) is an asset funding technique that involves the issuance of structured claims on the cash flow performance of a designated pool of underlying receivables. Efficient risk management and asset allocation in this growing segment of fixed income markets requires both investors and issuers to thoroughly understand the longitudinal properties of spread prices. We present a multi-factor GARCH process in order to model the heteroskedasticity of secondary market spreads for valuation and forecasting purposes. In particular, accounting for the variance of errors is instrumental in deriving more accurate estimators of time-varying forecast confidence intervals. On the basis of CDO, MBS and Pfandbrief transactions as the most important asset classes of off-balance sheet and on-balance sheet securitisation in Europe we find that expected spread changes for these asset classes tends to be level stationary with model estimates indicating asymmetric mean reversion. Furthermore, spread volatility (conditional variance) is found to follow an asymmetric stochastic process contingent on the value of past residuals. This ABS spread behaviour implies negative investor sentiment during cyclical downturns, which is likely to escape stationary approximation the longer this market situation lasts.
"Allgemeines Allgemeinrecht (nicht nur) als Privatrecht", "Rechtsverfassungsrecht", und "prozedurales Recht" als Ermöglichung und Verwirklichung der “autonomen Wahrnehmung von Eigen-Interessen zugleich als/für Allgemein-(Fremd-)Interesse“, als "Zulassung von/ Einlassung auf Autonomien unter vorbehaltenen Kontrollen", als "Freiheit unter Auflagen". Diese Begriffe verweisen auf ein zentrales Anliegen in Rudolf Wiethölters Rechtstheorie, i.e. das "bürgerlich wie antibürgerlich unerledigte nachfeudalistische Sachprojekt Reziprozität". Man kann dieses Anliegen auch in die Frage kleiden, ob und wie Kants Projekt der Suche nach einem allgemeinen Prinzip, nach dem die Freiheit des einen mit der gleichen Freiheit aller anderen übereinstimmt, unter modernen gesellschaftlichen Bedingungen zu verwirklichen ist. Wiethölters Antwort besteht in vorsichtigen "Skepsis-Verheißungen". Skeptisch bleibt seine Antwort vor allem deshalb, weil er es unternimmt, sich ganz den Herausforderungen der neueren Wissenschafts- und Gesellschaftstheorie auszusetzen, die den alteuropäischen Überbau kantischer Provenienz hoffnungslos dekonstruiert, ja hinweggefegt zu haben scheint. Die "Verheißungen" rühren hingegen von einer nie verleugneten persönlichen Voreingenommenheit für die "kritische Theorie" her, die gegenüber den gesellschaftstheoretischen Konkurrenten der Systemtheorie und der ökonomischen Theorie die Hoffnung auf eine rationale Gesellschaftsintegration nicht grundsätzlich zu verabschieden bereit ist. Das Projekt einer "reflexiven Modernisierung", das Vertreter der kritischen Theorie gegen die Postmoderne in Stellung gebracht haben, verbindet solche Hoffnungen primär mit dem Konzept der "Zivilgesellschaft". Diente die Zivilgesellschaft zunächst dazu, die kritische Theorie unter dem Stichwort der "deliberativen Politik" mit dem demokratischen Verfassungsstaat zu versöhnen, so richten sich die normativen Projektionen im Kontext der gegenwärtigen Globalisierungsdebatte auf eine "Global Civil Society", die in Abwesenheit eines institutionalisierten Weltrechtsstaats den Gedanken an eine "Global Governance" jenseits der nationalen Verfassungsstaaten erträglich machen soll. ...
Das deutsche und europäische Verbrauchervertragsrecht stehen aktuell für eine Tendenz zur Materialisierung des Schuldrechts, i.e. zur Begrenzung der Privatautonomie zugunsten zwingender Vorgaben des nationalen Privatrechts, die auch kollisionsrechtlich gegen eine parteiautonome Rechtswahl abgesichert werden. Während das in der E-Commerce-Richtlinie verankerte Herkunftslandprinzip nicht nur das Wirtschaftsaufsichtsrecht, sondern auch weite Teile des Zivilrechts den Innovationskräften des Systemwettbewerbs öffnet, scheint sich das Verbrauchervertragsrecht aufgrund seines Schutzzweckes als mit innovationsoffenen Regulierungsmodellen inkompatibel zu erweisen. Ist damit auf dem Gebiet des Verbraucherverträge nicht nur der individuelle Wettbewerb der Vertragsklauseln sowie der Klauselwerke (AGB) innerhalb einer staatlichen Privatrechtsordnung, sondern auch der institutionelle Wettbewerb zwischen den Verbraucherschutzmodellen der verschiedenen staatlichen Privatrechtsordnungen ausgeschlossen, so verbleibt als potentieller Innovationsspeicher nur der Raum der gesellschaftlichen Selbstregulierung jenseits des (staatlichen) Rechts. Vor diesem Hintergrund wird im folgenden untersucht, ob und inwieweit sich aufgrund der spezifischen Charakteristika der Internetkommunikation im Bereich des globalen E-Commerce eine Verdichtung von Phänomenen der privaten Normsetzung und der sozialen Selbstregulierung beobachten lässt, die als Emergenz eines transnationalen Verbrauchervertragsrecht interpretiert werden kann. Zunächst sollen einige Phänomene alternativer Verbraucherschutzmechanismen im globalen ECommerce beleuchtet werden, die als Privatisierung des Verbrauchervertragsrechts interpretiert werden können (B.), um sodann Ansätzen zu einer Konstitutionalisierung des transnationalen Verbrauchervertragsrechts nachzugehen, die auf eine Zivilisierung dieser Privatregimes gerichtet sind (C.). Schließlich wird ein Ausblick auf potentielle Ziele und Methoden einer innovationsoffenen Regulierung des Wettbewerbs transnationaler Verbraucherschutzregimes gegeben, die im Kern auf einen prozeduralen Rechtsverbraucherschutz hinauslaufen (D.).
Efficient systems for the securities transaction industry : a framework for the European Union
(2003)
This paper provides a framework for the securities transaction industry in the EU to understand the functions performed, the institutions involved and the parameters concerned that shape market and ownership structure. Of particular interest are microeconomic incentives of the industry players that can be in contradiction to social welfare. We evaluate the three functions and the strategic parameters - the boundary decision, the communication standard employed and the governance implemented - along the lines of three efficiency concepts. By structuring the main factors that influence these concepts and by describing the underlying trade-offs among them, we provide insight into a highly complex industry. Applying our framework, the paper describes and analyzes three consistent systems for the securities transaction industry. We point out that one of the systems, denoted as 'contestable monopolies', demonstrates a superior overall efficiency while it might be the most sensitive in terms of configuration accuracy and thus difficult to achieve and sustain.
This paper studies a setting in which a risk averse agent must be motivated to work on two tasks: he (1) evaluates a new project and, if adopted, (2) manages it. While a performance measure which is informative of an agent´s action is typically valuable because it can be used to improve the risk sharing of the contract, this is not necessarily the case in this two-task setting. I provide a sufficient condition under which a performance measure that is informative of the second task is worthless for contracting despite the agent being risk averse. This shows that information content is a necessary but not a sufficient condition for a performance measure to be valuable.
"Nicht-Ereignisse", Lebensenttäuschungen aufgrund des dauerhaften Ausbleibens erwünschter Ereignisse oder des Nicht-Erreichens von bedeutsamen Lebenszielen, können zu existenziellen Krisen führen. Die Autoren haben 40 Personen befragt und an ihrem Beispiel die Bewältigungsprozesse solcher Krisen untersucht, die z.B. durch ungewollte Kinderlosigkeit oder eine ausgebliebene berufliche Karriere ausgelöst worden waren. Dabei fanden sie verschiedene Prozesshilfen: kognitive und emotionale Verarbeitungsprozesse, soziale Unterstützung, Ersatzaktivitäten und pragmatisches Handeln. Alle Befragten berichteten von Entwicklungsgewinnen aufgrund der Krise und ihrer Bewältigung.
Die Zunahme an Gewalttaten, insbesondere durch Kinder und Jugendliche, wird in der öffentlichen und pädagogischen Diskussion weithin beklagt. Zwar zeigen zeitvergleichende Analysen, dass von einer dramatischen Erhöhung der Gewalhandlungen keine Rede sein kann; eher ist die öffentliche Sensibilität für derartige Vorfälle gestiegen. Andererseits gibt es erschreckende Beispiele für besonders brutale Übergriffe, die im öffentlichen Bewusstsein naturgemäß dominieren. Eindeutig zugenommen haben in den letzten Jahren politisch motivierte Gewalttaten, insbesondere mit rechtsextremistischem Hintergrund. Doch unabhängig davon, ob und wo die Zahl der Gewalthandlungen angestiegen ist, beinhaltet jede einzelne Tat einen Angriff auf die Menschenwürde und die politische Kultur und ruft deshalb nach Gegenmaßnahmen.
A steep maximum occurs in the Wroblewski ratio between strange and non-strange quarks created in central nucleus-nucleus collisions, of about A=200, at the lower SPS energy square root s approximately equal to 7 GeV. By analyzing hadronic multiplicities within the grand canonical statistical hadronization model this maximum is shown to occur at a baryochemical potential of about 450 MeV. In comparison, recent QCD lattice calculations at finite baryochemical potential suggest a steep maximum of the light quark susceptibility, to occur at similar mu B, indicative of "critical fluctuation" expected to occur at or near the QCD critical endpoint. This endpoint hat not been firmly pinned down but should occur in the 300 MeV < mu c B < 700 MeV interval. It is argued that central collisions within the low SPS energy range should exhibit a turning point between compression/heating, and expansion/cooling at energy density, temperature and mu B close to the suspected critical point. Whereas from top SPS to RHIC energy the primordial dynamics create a turning point far above in epsilon and T, and far below in mu B. And at lower AGS energies the dynamical trajectory stays below the phase boundary. Thus, the observed sharp strangeness maximum might coincide with the critical square root s at which the dynamics settles at, or near the QCD endpoint.
Strangeness enhancement is discussed as a feature specific to relativistic nuclear collisions which create a fireball of strongly interacting matter at high energy density. At very high energy this is suggested to be partonic matter, but at lower energy it should consist of yet unknown hadronic degrees of freedom. The freeze-out of this high density state to a hadron gas can tell us about properties of fireball matter. The hadron gas at the instant of its formation captures conditions directly at the QCD phase boundary at top SPS and RHIC energy, chiefly the critical temperature and energy density.
Relativistic nucleus-nucleus collisions create a "fireball" of strongly interacting matter at high energy density. At very high energy this is suggested to be partonic matter, but at lower energy it should consist of yet unknown hadronic, perhaps coherent degrees of freedom. The freeze-out of this high density state to a hadron gas can tell us about properties of fireball matter. Date (v1): Thu, 19 Dec 2002 12:52:34 GMT (146kb) Date (revised v2): Thu, 16 Jan 2003 15:11:47 GMT (146kb) Date (revised v3): Wed, 14 May 2003 12:49:35 GMT (146kb)
Im Rahmen der Diskussion des globalen bzw. regionalen Klimawandels sind, neben Extremereignissen, Langfristtrends von besonderem Interesse. Doch erfordert die ausgeprägte Klimavariabilität in Zeit und Raum spezielle regionale Detailuntersuchungen. Daher wird hier eine solche Analyse für Deutschland und die Klimaelemente bodennahe Lufttemperatur sowie Niederschlag vorgestellt, mit besonderem Blick auf die jahreszeitlichen/monatlichen Besonderheiten der Trends in ausgewählten Zeitintervallen zwischen 1891 und 2000. Am auffälligsten ist dabei die sich verstärkende winterliche Temperatur- und Niederschlagszunahme, während im Sommer, unter ebenfalls Erwärmung, eine Trendwende von abnehmendem zu in den letzten Dekaden zunehmendem Niederschlag eingetreten ist.
Temporal changes in the occurrence of extreme events in time series of observed precipitation are investigated. The analysis is based on a European gridded data set and a German station-based data set of recent monthly totals (1896=1899–1995=1998). Two approaches are used. First, values above certain defined thresholds are counted for the first and second halves of the observation period. In the second step time series components, such as trends, are removed to obtain a deeper insight into the causes of the observed changes. As an example, this technique is applied to the time series of the German station Eppenrod. It arises that most of the events concern extreme wet months whose frequency has significantly increased in winter. Whereas on the European scale the other seasons also show this increase, especially in autumn, in Germany an insignificant decrease in the summer and autumn seasons is found. Moreover it is demonstrated that the increase of extreme wet months is reflected in a systematic increase in the variance and the Weibull probability density function parameters, respectively.
The climate system can be regarded as a dynamic nonlinear system. Thus, traditional linear statistical methods fail to model the nonlinearities of such a system. These nonlinearities render it necessary to find alternative statistical techniques. Since artificial neural network models (NNM) represent such a nonlinear statistical method their use in analyzing the climate system has been studied for a couple of years now. Most authors use the standard Backpropagation Network (BPN) for their investigations, although this specific model architecture carries a certain risk of over-/underfitting. Here we use the so called Cauchy Machine (CM) with an implemented Fast Simulated Annealing schedule (FSA) (Szu, 1986) for the purpose of attributing and detecting anthropogenic climate change instead. Under certain conditions the CM-FSA guarantees to find the global minimum of a yet undefined cost function (Geman and Geman, 1986). In addition to potential anthropogenic influences on climate (greenhouse gases (GHG), sulphur dioxide (SO2)) natural influences on near surface air temperature (variations of solar activity, explosive volcanism and the El Nino = Southern Oscillation phenomenon) serve as model inputs. The simulations are carried out on different spatial scales: global and area weighted averages. In addition, a multiple linear regression analysis serves as a linear reference. It is shown that the adaptive nonlinear CM-FSA algorithm captures the dynamics of the climate system to a great extent. However, free parameters of this specific network architecture have to be optimized subjectively. The quality of the simulations obtained by the CM-FSA algorithm exceeds the results of a multiple linear regression model; the simulation quality on the global scale amounts up to 81% explained variance. Furthermore the combined anthropogenic effect corresponds to the observed increase in temperature Jones et al. (1994), updated by Jones (1999a), for the examined period 1856–1998 on all investigated scales. In accordance to recent findings of physical climate models, the CM-FSA succeeds with the detection of anthropogenic induced climate change on a high significance level. Thus, the CMFSA algorithm can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Observed global and European spatiotemporal related fields of surface air temperature, mean-sea-level pressure and precipitation are analyzed statistically with respect to their response to external forcing factors such as anthropogenic greenhouse gases, anthropogenic sulfate aerosol, solar variations and explosive volcanism, and known internal climate mechanisms such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO). As a first step, a principal component analysis (PCA) is applied to the observed spatiotemporal related fields to obtain spatial patterns with linear independent temporal structure. In a second step, the time series of each of the spatial patterns is subject to a stepwise regression analysis in order to separate it into signals of the external forcing factors and internal climate mechanisms as listed above as well as the residuals. Finally a back-transformation leads to the spatiotemporally related patterns of all these signals being intercompared. Two kinds of significance tests are applied to the anthropogenic signals. First, it is tested whether the anthropogenic signal is significant compared with the complete residual variance including natural variability. This test answers the question whether a significant anthropogenic climate change is visible in the observed data. As a second test the anthropogenic signal is tested with respect to the climate noise component only. This test answers the question whether the anthropogenic signal is significant among others in the observed data. Using both tests, regions can be specified where the anthropogenic influence is visible (second test) and regions where the anthropogenic influence has already significantly changed climate (first test).
Der Magnetstein - Wozu braucht es Materialien zum Sachunterricht : Ein Gespräch mit Horst Rumpf
(2003)
Dem Leser einer Reihe von Veröffentlichungen zur Didaktik des Sachunterrichts fällt auf, dass es bei aller Vielzahl von Differenzen und Differenzierungen zu didaktischen und pädagogischen Fragen so etwas wie eine - mehr implizite als explizite - Übereinstimmung in der Konstitution des Gegenstandes "Sache" zu geben scheint. Die "Sache" ist danach das zu Erkennende; der Sachunterricht soll entsprechend den Schüler in die Lage versetzen, zu erkennen, was gegeben ist. Aus einer jüngeren erkenntnistheoretischen Sicht lässt sich die Haltbarkeit dieser Grundannahme bezweifeln. Im Durchgang durch einige Konzepte zur Didaktik des Sachunterrichts soll dieser Zweifel begründet werden.
Erscheint halbjährl. www.widerstreit-sachunterricht.de ist als online-Zeitschrift seit Januar 2003 verfügbar. Die Zeitschrift bietet Raum für Diskussionsbeiträge, die Veröffentlichung von Forschungsergebnissen sowie für grundlegende, theoretische Überlegungen zum Sachunterricht in Form von Artikeln.
First results on the production of Xi- and Anti-xi hyperons in Pb+Pb interactions at 40 A GeV are presented. The Anti-xi/Xi- ratio at midrapidity is studied as a function of collision centrality. The ratio shows no significant centrality dependence within statistical errors; it ranges from 0.07 to 0.15. The Anti-xi/Xi- ratio for central Pb+Pb collisions increases strongly with the collision energy.
In den modernen Schwerionenexperimenten möchte man den Zustand der Materie unter extremen Bedingungen, wie sie in der frühen Phase unseres Kosmos herrschten, physikalisch untersuchen. Bei hoher Temperatur und Materiedichte wird ein Zustand postuliert, in dem Quarks, die unter den heute in der Natur vorkommenden Bedingungen auf Grund des Confinements in Hadronen gebunden sind, als quasi freie Teilchen existieren können. Eine spezielle Observable, die man dabei betrachtet, ist die Seltsamkeit. Aus früheren Messungen weiss man, dass die relative Häufigkeit einfach seltsamer Teilchen bei Kern-Kern-Reaktion gegenüber Proton-Proton-Reaktionen erhöht ist und eine andere Energieabhängigkeit zeigt. Zudem ist die Seltsamkeitsproduktion auch abhängig von der Systemgröße. Das kanonische, statistische Modell nach Redlich und Tounsi [7] sagt einen zunächst steilen Anstieg der Produktion von seltsamen Teilchen mit wachsender Systemgröße voraus, der aber bei großen Systemen immer flacher wird. Diese Diplomarbeit beschäftigt sich mit der Xi- und Xi+-Produktion in Blei-Blei-Stößen bei 40 A GeV. Bei dieser Analyse wird die Xi -Multiplizität in Abhängigkeit von der Kollisionszentralität und damit der Systemgröße untersucht. Zusätzlich wird die Xi- -Produktion in zentralen Blei-Blei-Stößen bei 40 A GeV mit Messungen bei anderen Energien verglichen und damit ihre Energieabhängigkeit der Xi- -Produktion untersucht. Die verwendeten Daten wurden während einer Strahlzeit im Herbst 1999 vom Experiment NA49 am SPS am CERN aufgenommen. Es wurden zwei Datensätze mit 7%igem Anteil am totalen Wirkungsquerschnitt und zwei Datensätze mit minimaler Einschränkung (minimum bias) durch den Trigger verwendet. Für die Analyse wurden aus diesen Daten 387.616 minimum bias und 577.605 zentrale Ereignisse ausgewählt. Die minimum bias Daten werden in verschiedene Zentralitätsklassen eingeteilt. Die Xi- (Xi+)-Hyperonen werden von NA49 nicht direkt detektiert. Stattdessen werden Kandidaten aus den Tochterteilchen (Lambda (Antilambda) und Pi - (Pi+)) des schwachen Zerfalls rekonstruiert. Die Häufigkeit der Hyperonen wird dann mit Hilfe statistischer Methoden extrahiert. Diese Methode liefert nicht nur die gewünschten Kandidaten sondern auch einen großen kombinatorischen Untergrund, den man durch geeignete, geometrische Einschränkungen reduzieren kann. Dazu wird eine Signifikanzstudie für die entsprechenden geometrischen Größen durchgeführt und auf diese Weise die besten Einschränkungsbedinungen gefunden. Da das NA49-Experiment auf Grund seiner Geometrie nicht den kompletten Phasenraum erfassen kann und die Effizienz, mit der Teilchen detektiert werden, begrenzt muss auf diese Effekte korrigiert werden. Um diese Korrektur zu bestimmen führt eine Simulation durch. Man simuliert Xi- -Hyperonen und überprüft, wie viele mit gleichen Verfahren, das man zur Datenbestimmung verwendet, in jedem Phasenraumbereich wiedergefunden werden können. Unter Verwendung dieser Korrektur erhält man die Transversalimpulsspektren bei mittlerer Rapidität für Xi- in vier verschiedenen Zentralitätsklassen. Aus diesen Spektren lässt sich die Anzahl der Xi- -Hyperonen bei mittlerer Rapidität pro Kollision ermitteln. Sie steigt von 0,12+-0,01 bei peripheren Stößen auf 1,23+-0,07 zu zentralen Stößen hin an. Zudem kann man aus der Steigung der pt-Spektren den Temperaturparameter T berechnen. Dieser bewegt sich im Bereich von 226 bis 292 MeV, zeigt aber keine eindeutige Zentralitätsabhängigkeit.....
Tagungsvorträge werden als MP3-Files zum Anhören angeboten. Das Motiv: 2003 stand der 100. Geburtstag Theodor W. Adornos auf der Tagesordnung des kulturellen und akademischen Geschehens. Adorno war sicherlich einer der wirkungsmächtigsten Philosophen und Theoretiker der Gesellschaft des 20. Jahrhunderts. Seine Schriften sind weltweit verbreitet und haben unzählige Wissenschaftler aus den verschiedensten Disziplinen anhaltend inspiriert. Wo immer man in der Welt als Frankfurter Hochschullehrer auf geistig tätige Menschen trifft, man wird auf Adorno angesprochen. Zum Schicksal eines jeden Klassikers gehört es, dass es einen Streit um das Erbe gibt und sich folglich verschiedene Strömungen auf das Vorbild beziehen. Zugleich provoziert das die unausgesetzte Debatte darum, ob das Werk nicht bereits historisch geworden sei und uns für unsere Zeit also nicht mehr viel zu sagen habe. Oder ob es klassisch: unvergänglich vergangen sei, und damit ein starker Anstoß zum Weiterdenken geblieben sei. Hinter dieser, in vielen Buchpublikationen und Feuilletons (insbesondere in der Frankfurt Allgemeinen Zeitung) geführten Debatte um die Aktualität der kritischen Theorie und des Denkens Adornos verschwindet leicht die aufmerksame Beobachtung, was denn nach Adornos Tod 1969 von seinen direkten oder mittelbaren Schülern in den Feldern geleistet worden ist, auf die insgesamt sich das Genie Adornos beziehen konnte. Es stand zu befürchten, dass das Jubiläum als Geburtstagsfeier einer Geistesgröße mit einer Fülle von Erinnerungen und Würdigungen vollzogen wird, ohne dass der doch ungleich interessanteren Frage nachgegangen würde, in welcher Hinsicht das Werk Adornos in den produktiven Arbeiten heutiger Wissenschaftler lebendig geblieben ist. Inhaltliche Akzente: Lebendigkeit bedeutet keineswegs die Fortsetzung eines orthodox verwalteten Erbes, sondern verweist notwendig auf oft eigensinnige Versuche, die Denkmittel Adornos im Sinne seiner Kritik an der Gesellschaft zu nutzen. Lebendigkeit konkretisiert sich also nicht als Traditionspflege oder als wohlfeile Revision von Positionen, über die die Zeit hinweggegangen sein soll, sondern im sachhaltigen Aufweis ihrer Aktualität durch Arbeiten, mit denen aus unterschiedlicher fachlicher Sicht kritische Theorie als fortgesetztes Arbeitsprogramm deutlich wird. Insofern diente der Kongress der systematischen Überprüfung und Dokumentation der in produktiver Forschung sich ausdrückenden Lebendigkeit der Ansätze Adornos sowie der Ausarbeitung der Aufgaben für die nähere Zukunft. Zugleich wird damit nicht weniger beansprucht als einen repräsentativen Überblick zu geben, wie es heute mit der Aufklärung selbst bestellt ist. Auf der Tagung sprachen Wissenschaftler sprechen, die in den vergangenen Jahrzehnten bewiesen haben, dass sie mit ihrem Forschungsprogramm die Diagnose der Gesellschaft, inspiriert durch jene Denkmittel, insbesondere auf unbearbeitetem Terrain fortgeführt haben und die zugleich für die Zukunft die Untersuchung von Fragen versprechen, die auf der Tagesordnung der Aufklärung stehen. Jeder Vortragende wird seine Arbeiten in den Kontext auch derjenigen stellen, die innerhalb seines Faches ebenfalls von Kritischer Theorie beeinflusst wurden. Im Vordergrund der Darstellung soll aber die eigene bislang geleistete Arbeit unter der Fragestellung der Tagung rekapituliert werden und schlaglichtartig erkennbar gemacht werden, in welchem Sinne Fragen der gegenwärtigsten Gegenwart mit den theoretischen Figuren Adornos kommunizieren.
Ein Schwerpunkt der physikalischen Fragestellungen, die zur Entwicklung des Dileptonenspektrometers HADES führten, ist die präzise Vermessung des invarianten Massenspektrums von Dileptonen, die in zentralen Reaktionen von relativistischen Schwerionen entstehen. In den Spektren sind die leptonischen Zerfälle der Vektormesonen enthalten. Aus Position und Breite der entsprechenden Signale kann auf eine mögliche Veränderung der Eigenschaften von Vektormesonen im dichten und heißen Kernmedium geschlossen werden. Für die Rekonstruktion der Teilchentrajektorien der Elektronen und Positronen werden die Vieldraht-Driftkammern verwendet, und unter Berücksichtigung des Magnetfelds kann der Teilchenimpuls mit hoher Genauigkeit bestimmt werden. Die hohe Impulsauflösung gepaart mit einer großen Akzeptanz und einem effektiven Trigger, ist eine notwendige Voraussetzung für das Studium von Dileptonen im SIS Energiebereich 1-2 GeV per Nukleon. Eine Flugzeitwand ermittelt über die Teilchenmultiplizität die Zentralität des Stoßes und hilft mittels der Flugzeit bei der Identifikation von Teilchen, insbesondere der Hadronen. Elektronen werden mit Hilfe spezieller Detektoren (Ringabbildender Cherenkov Detektor und Schauerdetektor) identifiziert. Ein effizientes Triggerkonzept zusammen mit einer innovativen Datenaufnahme ermöglicht, solche Ereignisse, in denen sich Dileptonenkandidaten befinden, schnell zu erkennen und dann zu registrieren, um so in kurzer Zeit eine hinreichende Statistik an Dileptonen zu erhalten. Im Rahmen dieser Forschungsarbeiten war das Ziel der Diplomarbeit, die Untersuchung des Ansprechverhaltens der Driftkammern auf Myonen aus der kosmischen Höhenstrahlung und deren Positionen relativ zur Flugzeitwand zu bestimmen. Da die Myonen aus der kosmischen Höhenstrahlung ähnliche Signale in den Vieldraht-Driftkammern hervorrufen wie die in den Schwerionenreaktionen produzierten minimal ionisierenden Teilchen, war es möglich, unabhängig von Strahlzeiten das Ansprechverhalten der Vieldraht-Driftkammern zu untersuchen. Um dieses zu erforschen, wurde zunächst ein spezieller Trigger aufgebaut, der auf Koinzidenzen von gegenüberliegenden Flugzeitwand-Sektoren beruht. So konnte das Durchqueren eines Myon-Kandidaten durch das Spektrometer registriert, und die Teilchentrajektorie vom Ein- bis zum Austritt aus diesem nachvollzogen werden. Die primären Messgrößen, wie die Driftzeiten, und die Korrelation zwischen den Driftkammern und der Flugzeitwand, wurden untersucht und mit Daten aus dem Strahlzeit-Experiment vom November 2001 C+C bei 1,9 GeV per Nukleon verglichen. Weiterhin wurde nach Entwicklung einer Myonen-Kandidatensuche die Effizienz der Driftkammern analysiert. Dabei stellte sich heraus, dass die Driftkammerebenen des Sektors 1 eine Nachweiswahrscheinlichkeit für kosmische Myonen von über 93% aufzeigen. Eine Optimierung der Methode hinsichtlich der Ortsauflösung und Korrelationen zu anderen Drahtebenen oder Driftkammern anderer Ebenen kann in Zukunft in Angriff genommen werden. Da die Intensität der Myonen gering ist, und sie in den meisten Fällen das Spektrometer auf geraden Bahnen durchqueren, sind Vieldeutigkeiten minimiert. So war es möglich, die Positionen der Driftkammern relativ zur Flugzeitwand mit einer Genauigkeit, die durch die Ortsauflösung der Szintillatoren der Flugzeitwand dominiert ist, zu ermitteln. Im Vergleich zu den Standard-Justierungsparametern ergeben sich Abweichungen von bis zu 37,73 mm für die Relativpositionen der Vieldraht-Driftkammern im Vergleich zur Flugzeitwand mit einer Ungenauigkeit von maximal ±7 mm. Um die für das invariante Massenspektrum der Dileptonen notwendige Massenauflösung zu erreichen, wird empfohlen, die Relativpositionen der Driftkammern zueinander und zum Magnetfeld zu bestimmen. Hierfür muss die exakte Ortsinformation des Durchstoßpunktes des Myons auf die Driftkammer über eine Anpassung der Trajektorie berechnet werden. Daraufhin können die Positionen der Driftkammern relativ zueinander mit einer Genauigkeit von < 100 mm ermittelt werden.
Immer mehr Hersteller bringen kleine mobile Endgeräte (PDAs1) auf den Markt, die via WLAN2 (IEEE 802.11), Bluetooth oder UMTS3 drahtlos Kontakt mit der Außenwelt aufnehmen können. Dabei werden neben zunehmend höheren Übertragungsraten auch große Fortschritte in der Miniaturisierung erzielt. Viele PDAs besitzen bereits eingebaute Funknetzwerk-Karten, bei vielen läßt sich eine solche Karte einfach zusätzlich in das Gerät einstecken. Durch die steigende Rechenleistung der Geräte und die gleichzeitig steigenden Übertragungsraten der Funkverbindungen entstehen diverse neue Anwendungsmöglichkeiten, die allerdings noch wenig ausgenutzt werden. Es überwiegen die Standardaufgaben der PDAs, wie die Termin und die Adressenverwaltung. Ein eventuell vorhandener Zugang zu Netzwerken wird meist ebenfalls nur für Standardanwendungen verwendet, wie z.B. die Synchronisation von Daten mit einem Server, der Zugang zum World Wide Web oder zum Versenden von e-Mails. Der herkömmliche Zugang zu Netzwerken ist meist ortsgebunden. Im sogenannten Infrastruktur-Modus ist man auf eine Basisstation (Access-Point) angewiesen. Bewegt man sich in Bereichen, in denen kein solcher Access-Point zur Verfügung steht, kann eine Netzwerkverbindung nicht hergestellt werden. Die Mobilität des Benutzers ist auf die Funkreichweite seines Geräts zu dieser Basisstation beschränkt. Die Bezeichnung „mobil“ trifft also nur auf das Endgerät, nicht auf die Basisstation zu. Genutzt werden üblicherweise die gleichen Dienste wie in einem kabelgebundenem Netz, nämlich Server des Intra-, bzw. Internets. Die eigenständige Vernetzung mobiler Geräte untereinander, der sogenannte Ad-hoc-Modus, eröffnet neuartige Anwendungsgebiete. Ursprünglich dafür gedacht, zwei Stationen schnell und einfach über Funk miteinander zu verbinden, können durch eine Erweiterung beliebig viele Stationen zu einem spontanen und mobilen Netzwerk zusammengefaßt werden (mobiles Ad-hoc Netzwerk, MANET). Eine zentral verwaltete Infrastruktur entfällt dabei vollständig. Die Aufgaben des Routings muß jede einzelne der beteiligten Stationen übernehmen. Auf diese Weise erhöht sich die Funkreichweite aller beteiligten Stationen, da nicht ein zentraler Access-Point, sondern jeder beliebige Teilnehmer in Reichweite den Zugriff auf das Netzwerk ermöglicht. Es muß dabei allerdings davon ausgegangen werden, daß sich die Stationen in einem solchen Netz ständig bewegen, das Netz verlassen oder neu hinzukommen können. Somit verändert sich andauernd die Netzwerktopologie und ein kontinuierliches und selbstständiges Neuorganisieren des Netzes wird notwendig. Man spricht daher von selbstorganisierenden mobilen Netzen. Der Informationsfluß in Ad-hoc Netzen ist üblicherweise ein anderer als in Festnetzen. Es entsteht eine eher interessensbezogene Kommunikation, weniger eine, die auf dem Wissen von bekannten Endpunkten im Netzwerk basiert. In Ad-hoc Netzwerken können Endpunkte und Adressen aufgrund der sich permanent ändernden Nutzerzusammensetzung naturgemäß nicht bekannt sein. Stattdessen gibt jeder Nutzer Informationen über seine Interessen und seine Angebote im Netzwerk bekannt. Findet sich ein zu diesem Interessensprofil passendes Angebot, so kommt eine Verbindung zustande. Die Flexibilität der PDAs, ihre Mobilität und ihre ständig steigende Leistung lassen die Entwicklung von mobilen Ad-hoc-Anwendungen sinnvoll erscheinen. MANET Netzwerke sind in ihrer Auslegung flexibel und schnell, genau so, wie es die modernen PDAs sind. Es eröffnet sich durch durch beides eine große Zahl neuer und innovativer Anwendungsmöglichkeiten. Eine davon, das so genannte E-Learning, soll im Folgenden näher betrachtet werden. E-Learning ist ein Beispiel für eine Anwendung in Ad-hoc Netzen, die besonders geeignet erscheint, die Beweglichkeit ihrer Anwender in vielerlei Hinsicht zu unterstützen. Durch die Eigenschaft, geeignete Kollaborationspartner und Informationen schnell und gezielt im Netzwerk finden zu können, wird ein spontaner Wissensaustausch über die bisher bestehende Grenzen hinaus möglich. Es werden im Rahmen dieser Diplomarbeit Mechanismen behandelt, die dem Anwender die Nutzung von kollaborativen Anwendungen wie dem E-Learning ermöglichen und ihn bei dessen Nutzung unterstützen sollen.
Deutsche Fassung: Expertise als soziale Institution: Die Internalisierung Dritter in den Vertrag. In: Gert Brüggemeier (Hg.) Liber Amicorum Eike Schmidt. Müller, Heidelberg, 2005, 303-334.
Englische Fassung: Societal Constitutionalism: Alternatives to State-centred Constitutional theory? ("Storrs Lectures 2003/04" Yale Law School) In: Christian Joerges, Inge-Johanne Sand und Gunther Teubner (Hg.) Constitutionalism and Transnational Governance. Hart, Oxford 2004, 3-28. Und in: Ius et Lex 2004, S.31-50. Französische Fassung: Constitutionalisme sociétal et globalisation: Alternatives à la théorie constitutionelle centrée sur l'État. Themis 2005 (im Erscheinen) Italienische Fassung: Costituzionalismo societario: alternative alla teoria costituzionale stato-centrica. In: Gunther Teubner, Costituzionalismo societario. Armando, Roma 2005 (im Erscheinen). Spanische Fassung: Globalización y constitucionalismo social: alternativas a la teoría constitucionalista centrada en el Estado". In: Carlos Gómez-Jara Díez (Hg.), Teoría de sistemas y Derecho penal: Fundamentos y posibilidades de aplicación. Granada: Comares, 2005 (im Erscheinen) und in: Cancio Meliá und Bacigalupo Saggese (Hg.) Derecho penal y política transnacional. Barcelona: Atelier, 2005 (in Erscheinen)und in: Gunther Teubner, El Derecho como sistema autopoiético de la sociedad global, herausgegeben von Carlos Gómez-Jara Diez. Bogotá: Universidad Externado de Colombia, 2005 (im Erscheinen) und Lima: ARA Editores, 2005 (im Erscheinen) Polnische Fassung: Konstytucjonalizm spoleczny: Alternatywy dla teorii konstitucyjnej nakierowanej na panstwo. Ius et Lex 3, 2004, S.5-27.
Vorliegender Text ist die leicht erweiterte Fassung von: Harald Hillgärtner: Ein Kramladen des Glücks. Filesharing aus Leidenschaft, in: Harald Hillgärtner, Thomas Küpper (Hg.): Medien und Ästhetik. Festschrift für Burkhardt Lindner, Bielefeld: transcript 2003, S. 332-342. Dieser Aufsatz war Grundlage eines Vortrages bei der Tagung "interfiction X - 2003 filesharer values - Ökonomien des (Aus-)Tauschs Utopien und Realitäten von Kulturproduktion unter Netzbedingungen", aus der Anregungen für diesen Text hervorgingen.
Coreference-Based Summarization and Question Answering: a Case for High Precision Anaphor Resolution
(2003)
Approaches to Text Summarization and Question Answering are known to benefit from the availability of coreference information. Based on an analysis of its contributions, a more detailed look at coreference processing for these applications will be proposed: it should be considered as a task of anaphor resolution rather than coreference resolution. It will be further argued that high precision approaches to anaphor resolution optimally match the specific requirements. Three such approaches will be described and empirically evaluated, and the implications for Text Summarization and Question Answering will be discussed.
This paper is focused on the coordination of order and production policy between buyers and suppliers in supply chains. When a buyer and a supplier of an item work independently, the buyer will place orders based on his economic order quantity (EOQ). However, the buyer s EOQ may not lead to an optimal policy for the supplier. It can be shown that a cooperative batching policy can reduce total cost significantly. Should the buyer have the more powerful position to enforce his EOQ on the supplier, then no incentive exists for him to deviate from his EOQ in order to choose a cooperative batching policy. To provide an incentive to order in quantities suitable to the supplier, the supplier could offer a side payment. One critical assumption made throughout in the literature dealing with incentive schemes to influence buyer s ordering policy is that the supplier has complete information regarding buyer s cost structure. However, this assumption is far from realistic. As a consequence, the buyer has no incentive to report truthfully on his cost structure. Moreover there is an incentive to overstate the total relevant cost in order to obtain as high a side payment as possible. This paper provides a bargaining model with asymmetric information about the buyer s cost structure assuming that the buyer has the bargaining power to enforce his EOQ on the supplier in case of a break-down in negotiations. An algorithm for the determination of an optimal set of contracts which are specifically designed for different cost structures of the buyer, assumed by the supplier, will be presented. This algorithm was implemented in a software application, that supports the supplier in determining the optimal set of contracts.
Die zunehmende Monopolisierung auf dem Markt für Informationsressourcen im akademischen Sektor führte in den vergangenen Jahren zu einer verstärkten Bildung von Bibliothekskonsortien auf der Abnehmerseite, die einen Gegenpol in Form einer Einkaufsgenossenschaft darstellen sollten [McCa02]. Diese Tendenzen lassen sich in verschiedenen Ländern wie etwa in Deutschland, England, der Schweiz und der Niederlande beobachten [Okerso]. In den USA sind Konsortien eher selten zu finden; das größte Konsortium ist hier OHIO-Link (http://www.lib.ohio-state.edu/). In Deutschland richten sich die meisten Konsortien wegen der föderalen Finanzierungsstrukturen regional aus; überregionale bzw. deutschlandweite Konsortien sind derzeit noch selten. Ein Zusammenschluss auf thematischer Grundlage findet derzeit so gut wie gar nicht statt, vielmehr werden möglichst viele Bibliotheken in Konsortien unabhängig von den an den jeweiligen Standorten betriebenen Forschungsschwerpunkten eingebunden [AnDe02]....
Elektronische Informationsressourcen, wie beispielsweise elektronische Zeitschriften und Datenbanken, gewannen in den letzten Jahren zunehmend an Bedeutung im Feld der akademischen Literaturversorgung. Mit diesem Trend einhergehend konnten Veränderungen der Bezugspraxis bei Bibliotheken einerseits und neue Preis- und Geschäftsmodelle bei Verlagen andererseits beobachtet werden. Neben der bequemeren Nutzbarkeit für die Leser bietet das neue Medium auch neue Formen des Kostencontrollings und der Optimierung für die Abnehmer. Dieser Workshop soll sich mit der Frage der Kostenrechnung und -verteilung für Konsortien für elektronische Informationsressourcen insbesondere eJournals beschäftigen. Dabei werden die neuen Möglichkeiten der Nutzungsmessung besonders berücksichtigt. Neben den theoretischen Ansätzen werden auch konkrete Beispielrechnungen durchgeführt und die Praktikabilität für die Umsetzung in der Praxis im besonderen Maße diskutiert.
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
Gleichgewichte auf Überschussmärkten : Theorie und Anwendbarkeit auf die Regelenergiezone der RWE
(2003)
Diese Version entspricht im wesentlichen der begutachteten Version bis auf die Kürzung von Satz 3.3.1 um einen für den Rest unbedeutenden Teil. Das Ziel folgender Arbeit ist es, mit einem intuitiven Ansatz eine spezielle Wettbewerbsform zweier interagierender Märkte zu modellieren und anschließend zu analysieren. Abschließend werden die theoretischen Ergebnisse mit den Beobachtungen an einem existierenden Markt - dem deutschen Energiemarkt - verglichen. In dieser behandelten Wettbewerbsform wird ein nicht lagerbares Gut an zwei aneinander gekoppelten Märkten gehandelt. Während Handel und Preisfindung am ersten Markt den üblichen Gepflogenheiten folgen, müssen alle Teilnehmer sämtliche Güter, welche nicht unmittelbar nach Lieferung verbraucht werden, am zweiten Marktplatz (dem Überschussmarkt) gegen ein gewisses Entgelt zur Verfügung stellen. Alle Teilnehmer, welche nicht genügend Güter am ersten Markt geordert haben, werden auf dem Überschussmarkt zu einem gewissen Preis mit der noch benötigten Menge versorgt. Einem Marketmaker auf dem zweiten Marktplatz fällt die Aufgabe zu, einen Preis festzustellen, zu dem diejenigen entschädigt werden, welche ihre Überschüsse zur Verfügung stellen müssen bzw. den diejenigen zu bezahlen haben, deren Gütermangel ausgeglichen wird. Weiterhin stellt dieser sicher, dass zu jedem Zeitpunkt genügend Güter vorhanden sind, so dass der Bedarf aller Teilnehmer zu jedem Zeitpunkt sichergestellt ist. Ziel ist es nun herauszufinden, welche gewinnmaximierenden Einkaufsstrategien die Marktteilnehmer verfolgen sollten und welche Konsequenzen sich daraus auf den deutschen Energiemarkt ableiten lassen.
We present a novel practical algorithm that given a lattice basis b1, ..., bn finds in O(n exp 2 *(k/6) exp (k/4)) average time a shorter vector than b1 provided that b1 is (k/6) exp (n/(2k)) times longer than the length of the shortest, nonzero lattice vector. We assume that the given basis b1, ..., bn has an orthogonal basis that is typical for worst case lattice bases. The new reduction method samples short lattice vectors in high dimensional sublattices, it advances in sporadic big jumps. It decreases the approximation factor achievable in a given time by known methods to less than its fourth-th root. We further speed up the new method by the simple and the general birthday method. n2
We enhance the security of Schnorr blind signatures against the novel one-more-forgery of Schnorr [Sc01] andWagner [W02] which is possible even if the discrete logarithm is hard to compute. We show two limitations of this attack. Firstly, replacing the group G by the s-fold direct product G exp(×s) increases the work of the attack, for a given number of signer interactions, to the s-power while increasing the work of the blind signature protocol merely by a factor s. Secondly, we bound the number of additional signatures per signer interaction that can be forged effectively. That fraction of the additional forged signatures can be made arbitrarily small.
Mit dem World Wide Web sind der Bestand und die Verfügbarkeit von Informationen rapide angewachsen. Der Einzelne hat Schwierigkeiten, der Menge an Informationen und Wissen Herr zu werden und so der Informationsüberflutung zu begegnen. Dieses Problem wurde von Forschern und Technikern bereits frühzeitig erkannt und durch verschiedene Konzepte wie die intelligente Suche und die Klassifikation von Informationen zu lösen versucht. Ein weiteres Konzept ist die Personalisierung, die das bedarfsgerechte Zuschneiden von Informationen auf die Bedürfnisse des einzelnen Anwenders zum Ziel hat. Diese Arbeit beschreibt dazu eine Reihe von Personalisierungstechniken und im Speziellen das Kollaborative Filtern als eine dieser Techniken. Bestehende Schwächen des Kollaborativen Filterns wie zu dünn besetzte Benutzerprofile und das mangelnde Erkennen von Änderungen im Benutzerinteresse im Verlauf der Zeit werden durch verschiedene Ansätze zu entschärfen versucht. Dazu wird eine Kombination mit Inhaltsbasierten Filtern und die Verbreiterung der Datenbasis bewerteter Ressourcen betrieben. Ziel ist die Optimierung der Personalisierung, so dass Anwender besser auf sie abgestimmte Informationen erhalten. Ein Teil der beschriebenen Ansätze wird zudem in einem prototypischen Informationssystem umgesetzt, um die Machbarkeit und den Nutzen zu prüfen. Dazu werden der auf der Java 2 Enterprise Edition aufbauende WebSphere Applikationsserver von IBM und die relationale Datenbank DB2 UDB aus gleichem Hause eingesetzt.
Suche im Semantic Web : Erweiterung des VRP um eine intuitive und RQL-basierte Anfrageschnittstelle
(2003)
Datenflut im World Wide Web - ein Problem jedes Internetbenutzers. Klassische Internetsuchmaschinen sind überfordert und liefern immer seltener brauchbare Resultate. Das Semantic Web verspricht Hoffnung - maßgeblich basierend auf RDF. Das Licht der Öffentlichkeit erblickt das Semantic Web vermutlich zunächst in spezialisierten Informationsportalen, so genannten Infomediaries. Besucher von Informationsportalen benötigen eine Abfragesprache, welche ebenso einfach wie eine gewöhnliche Internetsuchmaschine anzuwenden ist. Eine derartige Abfragesprache existiert für RDF zur Zeit nicht. Diese Arbeit stellt eine neuartige Abfragesprache vor, welche dieser Anforderung genügt: eRQL. Bestandteil dieser Arbeit ist der mittels Java implementierte eRQL-Prozessor eRqlEngine, welcher unter http://www.wleklinski.de/rdf/ und unter http://www.dbis.informatik.uni-frankfurt.de/~tolle/RDF/eRQL/ bezogen werden kann.
Presentation at the Università di Pisa, Pisa, Itlay 3 July 2002, the conference on Irreversible Quantum Dynamics', the Abdus Salam ICTP, Trieste, Italy, 29 July - 2 August 2002, and the University of Natal, Pietermaritzburg, South Africa, 14 May 2003. Version of 24 April 2003: examples added; 16 December 2002: revised; 12 Sptember 2002. See the corresponding papers "Zeno Dynamics of von Neumann Algebras", "Zeno Dynamics in Quantum Statistical Mechanics" and "Mathematics of the Quantum Zeno Effect"
Diese Arbeit beschäaftigt sich mit den Eigenschaften dynamischer Systeme, die in Form von autonomen Differentialgleichungen vorliegen. Genauer: Das Langzeitverhalten dieser dynamischen Systeme soll untersucht werden. Es läßtt sich beschreiben durch für das jeweilige System charakteristische Mengen, die attrahierenden Mengen und deren Einzugsbereiche. Attrahierende Mengen sind bezüglich eines dynamischen Systems invariante Mengen, die Trajektorien des dynamischen Systems, die in ihrer Umgebung starten, anziehen. Der Einzugsbereich einer attrahierenden Menge ist die Menge aller Punkte, die von der attrahierenden Menge angezogen werden. Betrachtet werden Systeme, die von einer Eingangsfunktion abhängen. Diese Eingangsfunktion kann je nach Zusammenhang eine Störung des dynamischen Systems oder eine Kontrolle desselben darstellen. Werden Störungen betrachtet, so sind Eigenschaften des dynamischen Systems, die für alle Eingangsfunktionen gelten, zu untersuchen. Diese werden in dieser Arbeit als starke Eigenschaften bezeichnet. Werden Kontrollen betrachtet, sind Eigenschaften des dynamischen Systems, die nur für mindestens eine Eingangsfunktion erfüllt sind, zu untersuchen. Sie werden hier als schwache Eigenschaften bezeichnet. Man betrachte beispielsweise einen Punkt, der zu einer invarianten Menge gehört. Zu jeder Eingangsfunktion gibt es eine zugehörige Trajektorie, die an diesem Punkt startet. Starke Invarianz bedeutet, daß keine dieser Trajektorien jemals die invariante Menge verläßt, schwache Invarianz, da mindestens eine dieser Trajektorien niemals die invariante Menge verläßt. Der Schwerpunkt dieser Arbeit liegt auf der Untersuchung der schwachen Einzugsbereiche. Sie lassen sich nur in Ausnahmefällen durch theoretische Überlegungen finden. Daher ist es von Nutzen, diese Mengen numerisch zu berechnen. Hier soll deshalb die benötigte Theorie bereitgestellt werden, um schwache Einzugsbereiche mit einem Unterteilungsalgorithmus anzunähern. Ein Unterteilungsalgorithmus dient allgemein dazu, innerhalb einer vorgegebenen Grundmenge eine Menge, die eine bestimmte Eigenschaft hat, zu finden. Die Idee eines solchen Algorithmus ist es einfach, die Grundmenge in "Zellen" zu unterteilen und für jede dieser Zellen zu prüfen, ob sie ganz, gar nicht oder teilweise zur gesuchten Menge gehört. Gehört eine Zelle nur teilweise zur gesuchten Menge, so wird sie weiter unterteilt und für die "Teilzellen" erneut entschieden, ob sie zur gesuchten Menge gehören. Für die Berechnung eines schwachen Einzugsbereiches bedeutet dies, daß für jede Zelle überprüft werden muß, ob es eine Kontrollfunktion gibt, mit deren Hilfe Trajektorien der betrachteten Differentialgleichung, die innerhalb der Zelle starten, in eine gegebene schwach attrahierende Menge (bzw. eine passend gewählte Umgebung dieser Menge) gesteuert werden können.