Refine
Year of publication
Document Type
- Report (1544) (remove)
Language
Has Fulltext
- yes (1544) (remove)
Is part of the Bibliography
- no (1544) (remove)
Keywords
- Islamischer Staat (43)
- Deutschland (41)
- Literatur (37)
- Terrorismus (37)
- Syrien (35)
- USA (35)
- IS (29)
- Russland (28)
- Ukraine (26)
- Gabon (23)
Institute
- Gesellschaftswissenschaften (719)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (442)
- Wirtschaftswissenschaften (141)
- Extern (87)
- Center for Financial Studies (CFS) (77)
- House of Finance (HoF) (64)
- Sustainable Architecture for Finance in Europe (SAFE) (62)
- Neuere Philologien (57)
- Universitätsbibliothek (37)
- Hessische Stiftung für Friedens- und Konfliktforschung (HSFK) (32)
The effects of vocational training programmes on the duration of unemployment in Eastern Germany
(2005)
Vocational training programmes have been the most important active labour market policy instrument in Germany in the last years. However, the still unsatisfying situation of the labour market has raised doubt on the efficiency of these programmes. In this paper, we analyse the effects of the participation in vocational training programmes on the duration of unemployment in Eastern Germany. Based on administrative data for the time between the October 1999 and December 2002 of the Federal Employment Administration, we apply a bivariate mixed proportional hazards model. By doing so, we are able to use the information of the timing of treatment as well as observable and unobservable influences to identify the treatment effects. The results show that a participation in vocational training prolongates the unemployment duration in Eastern Germany. Furthermore, the results suggest that locking-in effects are a serious problem of vocational training programmes. JEL Classification: J64, J24, I28, J68
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
Comparison of MSACD models
(2003)
We propose a new framework for modelling time dependence in duration processes on financial markets. The well known autoregressive conditional duration (ACD) approach introduced by Engle and Russell (1998) will be extended in a way that allows the conditional expectation of the duration process to depend on an unobservable stochastic process which is modelled via a Markov chain. The Markov switching ACD model (MSACD) is a very flexible tool for description and forecasting of financial duration processes. In addition, the introduction of an unobservable, discrete valued regime variable can be justified in the light of recent market microstructure theories. In an empirical application we show that the MSACD approach is able to capture several specific characteristics of inter trade durations while alternative ACD models fail. JEL classification: C22, C25, C41, G14
We propose a new framework for modelling the time dependence in duration processes being in force on financial markets. The pioneering ACD model introduced by Engle and Russell (1998) will be extended in a manner that the duration process will be accompanied by an unobservable stochastic process. The Discrete Mixture ACD framework provides us with a general methodology which puts the idea into practice. It is established by introducing a discrete-valued latent regime variable which can be justified in the light of recent market microstructure theories. The empirical application demonstrates its ability to capture specific characteristics of intraday transaction durations while alternative approaches fail. JEL classification: C41, C22, C25, C51, G14.
In recent methodological work the well known ACD approach, originally introduced by Engle and Russell (1998), has been supplemented by the involvement of an unobservable stochastic process which accompanies the underlying process of durations via a discrete mixture of distributions. The Mixture ACD model, emanating from the specialized proposal of De Luca and Gallo (2004), has proved to be a moderate tool for description of financial duration data. The use of one and the same family of ordinary distributions has been common practice until now. Our contribution incites to use the rich parameterized comprehensive family of distributions which allows for interacting different distributional idiosyncrasies. JEL classification: C41, C22, C25, C51, G14.
We propose a new framework for modelling the time dependence in duration processes being in force on financial markets. The pioneering ACD model introduced by Engle and Russell (1998) will be extended in a manner that the duration process will be accompanied by an unobservable stochastic process. The Discrete Mixture ACD framework provides us with a general methodology which puts the idea into practice. It is established by introducing a discrete-valued latent regime variable which can be justified in the light of recent market microstructure theories. The empirical application demonstrates its ability to capture specific characteristics of intraday transaction durations while alternative approaches fail. JEL classification: C41, C22, C25, C51, G14.
In recent methodological work the well known ACD approach, originally introduced by Engle and Russell (1998), has been supplemented by the involvement of an unobservable stochastic process which accompanies the underlying process of durations via a discrete mixture of distributions. The Mixture ACD model, emanating from the specialized proposal of De Luca and Gallo (2004), has proved to be a moderate tool for description of financial duration data. The use of one and the same family of ordinary distributions has been common practice until now. Our contribution incites to use the rich parameterized comprehensive family of distributions which allows for interacting different distributional idiosyncrasies. JEL classification: C41, C22, C25, C51, G14
We propose a new framework for modeling time dependence in duration processes. The ACD approach introduced by Engle and Russell (1998) will be extended so that the conditional expectation of the durations depends on an unobservable stochastic process which is modeled via a Markov chain. The Markov switching ACD model (MSACD) is a flexible tool for description of financial duration processes. The introduction of a latent information regime variable can be justified in the light of recent market microstructure theories. In an empirical application we show that the MSACD approach is able to capture specific characteristics of inter trade durations while alternative ACD models fail. JEL classification: C41, C22, C25, C51, G14
Internationale Verkehrsflughäfen sind Einrichtungen, die eine zentrale ökonomische Bedeutung für das regionale Umfeld haben. Zusätzlich zu ihrer eigentlichen Funktion als Anbieter von Flugverkehrsleistungen werden Güter und Dienstleistungen angeboten, die in unterschiedlich starkem Ausmaß an die Verkehrsfunktion gekoppelt sind. Neben der Flughafengesellschaft und den Flugverkehrsgesellschaften tragen beispielsweise gastronomische Einrichtungen, Groß- und Einzelhändler, Luftfrachtspeditionen, Expressdienste, Reiseveranstalter, Flugsicherung, Zoll, Catering-Unternehmen zu den ökonomischen Aktivitäten des Flughafens bei. Die Palette der verkehrsbezogenen Aktivitäten am Flughafen reicht von der Betreuung der Passagiere über Reparatur- und Wartungsarbeiten für die Fluggesellschaften bis hin zur Abwicklung des Frachtverkehrs. ...
Leseförderung und Lesekompetenz : fachdidaktische und bildungspolitische Aspekte der PISA-Debatte
(2003)
Mit Iain Lawrence’ "Die Tochter des Leuchtturmwärters" schließe ich meine Liste "Romane für Kinder, Jugendliche und junge Erwachsene", die ich seit meiner Verabschiedung in den Ruhestand geführt habe. Das eingeschränkte Arbeitsprogramm, das ich mir noch gönne, enthält inzwischen andere Prioritäten. Mit Befriedigung stelle ich fest, dass das Interesse, spannende und motivierende Gegenwartsliteratur für Kinder, Jungendliche und junge Erwachsene im breiten Angebot der Verlage ausfindig zu machen, unter denen, die in lesepädagogischen und literaturdidaktischen Institutionen arbeiten und publizieren, in den letzten Jahren sehr stark gewachsen ist. Gewachsen sind damit auch die Möglichkeiten, den eingeschränkten Kanon an Schullektüre zu erweitern und ein Fundament an Lesebereitschaft und Leselust zu sichern, das auch für die Entwicklung einer allgemeinen Lesekompetenz besonders wirksam zu sein scheint.
Schulstruktur und Gewalt in der Schule : PISA-Ratschlag bei "schuldistanzierten" Jugendlichen
(2004)
Bildungsgerechtigkeit beim Erwerb von Lesekompetenz : eine neue "Bestandsaufname Deutschunterricht"
(2004)
Die Enquete-Kommission des 14. Deutschen Bundestages „Recht und Ethik der modernen Medizin“ hat die Aufgabe, Kriterien für die ethische Bewertungsowie für gesetzgeberisches Handeln in bezug auf neue medizinische Entwicklungen zu erarbeiten. Sie befaßt sich mit drei Themengruppen: der Reproduktionsmedizin und dem Embryonenschutz (Themengruppe 1), der angewandten Forschung und den neuen diagnostischen und therapeutischen Methoden (Themengruppe 2) und den genetischen Daten (Themengruppe 3). In allen drei Bereichen ist eine Klärung der Frage erforderlich, welcher verfassungsrechtliche Status dem Embryo in vitro zukommt. Deutscher Bundestag, Enquete-Kommission „Recht und Ethik der modernen Medizin“, Leistungsbeschreibung für ein Gutachten zum Thema „Der verfassungsrechtliche Status des Embryos in vitro, S. 1. Die Enquete-Kommission hat mich daher beauftragt, ein Gutachten zum verfassungsrechtlichen Status des Embryos in vitro zu erstellen. Die in der Leistungsbeschreibung für das Gutachten Leistungsbeschreibung, S. 3 f. gestellten Untersuchungsfragen betreffen dabei sowohl grundsätzliche Fragen nach den anwendbaren verfassungsrechtlichen Normen als auch konkrete Anwendungsfragen, wie etwa die Auswirkungen des verfassungsrechtlichen Status des Embryos in vitro auf die Präimplantationsdiagnostik, auf die Forschung an menschlichen Embryonen, das therapeutische Klonen und für die Verwendung von Daten, die im Rahmen diagnostischer Maßnahmen gewonnen werden. Das Gutachten wird diese Fragen in zwei Schritten beantworten. Zunächst soll der verfassungsrechtliche Maßstab herausgearbeitet werden (B.), um die 5 maßstäblichen Überlegungen dann im Hinblick auf die gestellten Anwendungsfragen zu konkretisieren (C.).
During the last decade, there has been a significant bias towards bond financing on emerging markets, with private investors relying on a bail-out of bonds by the international community. The bias has been a main cause for recent excessive fragility of international capital markets. The paper shows how collective action clauses in bonds contracts help to involve the private sector in risk sharing. It argues that such clauses, as a market based instrument, will raise spreads for emerging market debt and so help to correct a market failure towards excessive bond finance. Recent pressure by the IMF to involve the private sector is facing a conflict between the principle to honour existing contracts and the principle of equal treatment of bondholders.
Structural positions are very common in investment practice. A structural position is defined as a permanent overweighting of a riskier asset class relative to a prespecified benchmark portfolio. The most prominent example for a structural position is the equity bias in a balanced fund that arises by consistently overweighting equities in tactical asset allocation. Another example is the permanent allocation of credit in a fixed income portfolio with a government benchmark. The analysis provided in this article shows that whenever possible, structural positions should be avoided. Graphical illustrations based on Pythagorean theorem are used to make a connection between the active risk/return and the total risk/return framework. Structural positions alter the risk profile of the portfolio substantially, and the appeal of active management – to provide active returns uncorrelated to benchmark returns and hence to shift the efficient frontier outwards – gets lost. The article demonstrates that the commonly used alpha – tracking error criterion is not sufficient for active management. In addition, structural positions complicate measuring managers’ skill. The paper also develops normative implications for active portfolio management. Tactical asset allocation should be based on the comparison of expected excess returns of an asset class to the equilibrium risk premium of the same asset class and not to expected excess returns of other asset classes. For the cases, where structural positions cannot be avoided, a risk budgeting approach is introduced and applied to determine the optimal position size. Finally, investors are advised not to base performance evaluation only on simple manager rankings because this encourages managers to take structural positions and does not reward efforts to produce alpha. The same holds true for comparing managers’ information ratios. Information ratios, in investment practice defined as the ratio of active return to active risk, do not uncover structural positions.
Hackethal and Schmidt (2003) criticize a large body of literature on the financing of corporate sectors in different countries that questions some of the distinctions conventionally drawn between financial systems. Their criticism is directed against the use of net flows of finance and they propose alternative measures based on gross flows which they claim re-establish conventional distinctions. This paper argues that their criticism is invalid and that their alternative measures are misleading. There are real issues raised by the use of aggregate data but they are not the ones discussed in Hackethal and Schmidt’s paper. JEL Classification: G30
Trotz ihrer hohen Zahl besetzen Jugendliche in westafrikanischen Staaten gesellschaftlich marginalisierte Positionen. Die Gründe für die Organisation der ländlichen Jugend in Jugendvereinen ergeben sich somit aus ihrer Lebenssituation. Formen sozialer Solidarität zur Verbesserung der Lebensmöglichkeiten wie die Aktivitäten der Jugendvereine stellen eine rationale Folge ihrer ökonomisch schlechten Situation dar (WEICKER 1992:550). Die im frankophonen Westafrika weit verbreiteten Jugendvereine, die im weiteren Verlauf auch als associations des jeunes bezeichnet werden, dienen Jugendlichen als Instrumente zur Gestaltung ihrer Lebenswelt. Als gemeinsames Betätigungsfeld bieten diese Vereine Einblicke in den Alltag der Jugendlichen (jeunes) (vgl. JENSEN 1996:61). Hier werden ihre Beziehungen untereinander sowie zu ihrer Umwelt erkennbar. Die Vereine sind Spiegel ihrer Interessen und Bedürfnisse. In diesem Kontext sind Jugendvereine als Instrumente zur Verfolgung ihrer spezifischen Interessen zu verstehen. Eine Betrachtung der Vereine macht deutlich, mit welchen unterschiedlichen Strategien die jeunes diese Interessen verfolgen. Über die Vereine engagieren sich die Mitglieder im Kollektiv für gemeinnützige Ziele, sie verstehen es aber auch, über ihre Mitgliedschaft individuelle Lebenskonzepte durchzusetzen. Dabei sind die jeunes keineswegs die einzigen Akteure, die über die Vereine ihre Umwelt zu gestalten versuchen. Die associations des jeunes stehen in einem besonderen Spannungsfeld. Sie stellen eine „Linse“ dar, welche die verschiedenen Interessen der Mitglieder bündelt. Die Vereine stellen nicht nur für die Jugend wichtige soziale Sprachorgane dar, sondern dienen auch der Artikulation allgemeiner gesellschaftlicher Bedürfnisse. Vereinsmässige Organisationsformen der Jugend (jeunesse) haben in dieser Funktion im frankophonen Westafrika vor und nach der völkerrechtlichen Unabhängigkeit von der französischen Kolonialmacht immer eine gesellschaftlich wichtige Rolle gespielt. So ist die Relevanz der jugendlichen Klientel der Partei RDA (Rassemblement Démocratique Africain) in ihrem Kampf um die völkerrechtliche Unabhängigkeit der französischen Kolonien Westafrikas im historischen Kontext ausschlaggebend für die heutige Verwendung des Begriffs jeunesse als übergreifende Bezeichnung für organisierte Jugendbewegungen (d’ALMEIDA-TOPOR 1992:16). Nach der Demokratisierung westafrikanischer Staaten ermöglichten jedoch Parteien der Bevölkerung die politische Beteiligung an gesellschaftlichen Entscheidungsprozessen. Gewerkschaften und Vereine verloren als Mittel zur Artikulation und Verfolgung gesellschaftlicher Bedürfnisse an Bedeutung. Im aktuellen Diskurs der Entwicklungszusammenarbeit und der staatlichen Entwicklungsagenda bieten sich den (ländlichen) Vereinen jedoch neue Möglichkeiten, auf die sozioökonomische Entwicklung ihrer Umwelt – und damit der Lebenswelt der Jugendlichen – Einfluss zu nehmen. Durch ihre Funktion als Selbsthilfegruppen dienen die Vereine als Transmissionsinstrumente für die Vorhaben lokal agierender NGOs (Non-Governmental Organisations) und erlangen dadurch für die lokale Bevölkerung sozioökonomische Relevanz. Aus diesem Grund stellen sie auch ein Zugriffsinstrument für politische Eliten dar, die sich die Reputation der Vereine nutzbar machen wollen, um über sie ihren Einfluss in der Bevölkerung zu vergrößern. So verstehen es vor allem die Vertreter der städtischen modernen Elite, die Vereine auch zur Verfolgung ihrer individuellen Ziele zu nutzen. Zurückgekehrte Migranten, aber auch durch Schulbildung qualifizierte, vor Ort lebende jeunes sind als potenzielle Initiatoren der Vereine zu sehen. Sie besitzen organisatorische Fähigkeiten, die sie zu Gründung, Leitung oder aktiven Mitgliedschaft in einer Vereinigung befähigen, die der Entwicklungszusammenarbeit dienen können. Die Zusammenarbeit der Vereine mit (staatlichen und nichtstaatlichen) Organisationen der Entwicklungszusammenarbeit eröffnet ihnen den Zugang zu ökonomischem und sozialem Kapital, das auch zur Verbesserung der eigenen Lebenssituation genutzt werden kann. Da sich die Berufs- und Studienabschlüsse der besser ausgebildeten jeunes nicht mehr zwangsläufig positiv auf ihre Lebenssituation auswirken, dienen ihnen die Vereine somit als ideales Instrument, entsprechende Ressourcen zu erschließen. Auf diese Weise hoffen die jeunes auch, sich zunehmend aus Abhängigkeiten befreien und ihren sozialen Status als Jugendliche hinter sich lassen zu können.
Empirical evidence suggests that even those firms presumably most in need of monitoring-intensive financing (young, small, and innovative firms) have a multitude of bank lenders, where one may be special in the sense of relationship lending. However, theory does not tell us a lot about the economic rationale for relationship lending in the context of multiple bank financing. To fill this gap, we analyze the optimal debt structure in a model that allows for multiple but asymmetric bank financing. The optimal debt structure balances the risk of lender coordination failure from multiple lending and the bargaining power of a pivotal relationship bank. We show that firms with low expected cash-flows or low interim liquidation values of assets prefer asymmetric financing, while firms with high expected cash-flow or high interim liquidation values of assets tend to finance without a relationship bank.
Tractable hedging - an implementation of robust hedging strategies : [This Version: March 30, 2004]
(2004)
This paper provides a theoretical and numerical analysis of robust hedging strategies in diffusion–type models including stochastic volatility models. A robust hedging strategy avoids any losses as long as the realised volatility stays within a given interval. We focus on the effects of restricting the set of admissible strategies to tractable strategies which are defined as the sum over Gaussian strategies. Although a trivial Gaussian hedge is either not robust or prohibitively expensive, this is not the case for the cheapest tractable robust hedge which consists of two Gaussian hedges for one long and one short position in convex claims which have to be chosen optimally.
We study the approximability of the following NP-complete (in their feasibility recognition forms) number theoretic optimization problems: 1. Given n numbers a1 ; : : : ; an 2 Z, find a minimum gcd set for a1 ; : : : ; an , i.e., a subset S fa1 ; : : : ; ang with minimum cardinality satisfying gcd(S) = gcd(a1 ; : : : ; an ). 2. Given n numbers a1 ; : : : ; an 2 Z, find a 1-minimum gcd multiplier for a1 ; : : : ; an , i.e., a vector x 2 Z n with minimum max 1in jx i j satisfying P n...
To preserve the required beam quality in an e+/e- collider it is necessary to have a very precise beam position control at each accelerating cavity. An elegant method to avoid additional length and beam disturbance is the usage of signals from existing HOM-dampers. The magnitude of the displacement is derived from the amplitude of a dipole mode whereas the sign follows from the phase comparison of a dipole and a monopole HOM. To check the performance of the system, a measurement setup has been built with an antenna which can be moved with micrometer resolution to simulate the beam. Furthermore we have developed a signal processing to determine the absolute beam displacement. Measurements on the HOM-damper cell can be done in the frequency domain using a network analyser. Final measurements with the nonlinear time dependent signal processing circuit has to be done with very short electric pulses simulating electron bunches. Thus, we have designed a sub nanosecond pulse generator using a clipping line and the step recovery effect of a diode. The measurement can be done with a resolution of about 10 micrometers. Measurements and numerical calculations concerning the monitor design and the pulse generator are presented.
Although the commoditisation of illiquid asset exposures through securitisation facilitates the disciplining effect of capital markets on the risk management, private information about securitised debt as well as complex transaction structures could possibly impair the fair market valuation. In a simple issue design model without intermediaries we maximise issuer proceeds over a positive measure of issue quality, where a direct revelation mechanism (DRM) by profitable informed investors engages endogenous price discovery through auction-style allocation preference as a continuous function of perceived issue quality. We derive an optimal allocation schedule for maximum issuer payoffs under different pricing regimes if asymmetric information requires underpricing. In particular, we study how the incidence of uninformed investors at varying levels of valuation uncertainty and their function of clearing the market effects profitable informed investment. We find that the issuer optimises own payoffs at each valuation irrespective of the applicable pricing mechanism by awarding informed investors the lowest possible allocation (and attendant underpricing) that still guarantees profitable informed investment. Under uniform pricing the composition of the investor pool ensures that informed investors appropriate higher profit than uninformed types. Any reservation utility by issuers lowers the probability of information disclosure by informed investors and the scope of issuers to curtail profitable informed investment. JEL Classifications: D82, G12, G14, G23
Asset securitisation as a risk management and funding tool : what does it hold in store for SMES?
(2005)
The following chapter critically surveys the attendant benefits and drawbacks of asset securitisation on both financial institutions and firms. It also elicits salient lessons to be learned about the securitisation of SME-related obligations from a cursory review of SME securitisation in Germany as a foray of asset securitisation in a bank-centred financial system paired with a strong presence of SMEs in industrial production. JEL Classification: D81, G15, M20
As a sign of ambivalence in the regulatory definition of capital adequacy for credit risk and the quest for more efficient refinancing sources collateral loan obligations (CLOs) have become a prominent securitisation mechanism. This paper presents a loss-based asset pricing model for the valuation of constituent tranches within a CLO-style security design. The model specifically examines how tranche subordination translates securitised credit risk into investment risk of issued tranches as beneficial interests on a designated loan pool typically underlying a CLO transaction. We obtain a tranchespecific term structure from an intensity-based simulation of defaults under both robust statistical analysis and extreme value theory (EVT). Loss sharing between issuers and investors according to a simplified subordination mechanism allows issuers to decompose securitised credit risk exposures into a collection of default sensitive debt securities with divergent risk profiles and expected investor returns. Our estimation results suggest a dichotomous effect of loss cascading, with the default term structure of the most junior tranche of CLO transactions (“first loss position”) being distinctly different from that of the remaining, more senior “investor tranches”. The first loss position carries large expected loss (with high investor return) and low leverage, whereas all other tranches mainly suffer from loss volatility (unexpected loss). These findings might explain why issuers retain the most junior tranche as credit enhancement to attenuate asymmetric information between issuers and investors. At the same time, the issuer discretion in the configuration of loss subordination within particular security design might give rise to implicit investment risk in senior tranches in the event of systemic shocks. JEL Classifications: C15, C22, D82, F34, G13, G18, G20
Global Governance bezeichnet ein produktives Zusammenwirken aller an einer effizienten und legitimen Lösung von grenzüberschreitenden Sachproblemen ernsthaft interessierten Akteure. Es handelt sich weder um Multilateralismus noch um Unilateralismus, sondern um eine Koalition des Weltbürgertums. Auf dem Gebiet des privaten Wirtschaftsrechts gibt es zwei Beispiele für von solchen zivilgesellschaftlichen Koalitionen geschaffene Regimes, anhand derer die Funktionsweise transnationaler Rechtssysteme aufgezeigt werden kann. Dabei handelt es sich einerseits um das Recht der Handelsverträge, wo bereits seit geraumer Zeit die Entstehung einer neuen Lex Mercatoria diskutiert wird (I.). Andererseits bildet die von ICANN errichtete Uniform Dispute Resolution Policy für Domain-Namen ein gutes Beispiel für die Entstehung eines transnationalen Markenrechts im Wege der Co-Regulierung (II.). In beiden Fällen ist unter Juristen umstritten, ob es sich überhaupt um Rechtsphänomene, geschweige denn um (autonome) Rechtssysteme handelt. Wie der Konflikt zwischen Traditionalisten und Transnationalisten in der seit gut vierzig Jahren andauernden Debatte um die Lex Mercatoria zeigt, ist diese Frage auf der strukturellen Normebene nicht zu lösen. Es erscheint deshalb als sinnvoll, sich dem Phänomen transnationaler Zivilregimes zunächst unter Verwendung sozialwissenschaftlicher Kriterien beschreibend zu nähern, bevor in einem dritten Schritt gezeigt wird, wie man die Emergenz transnationaler Zivilregimes im Rahmen einer auf operativer Ebene ansetzenden Theorie des Rechts als autopoietisches Kommunikationssystem auch rechtstheoretisch in den Griff bekommen kann (III.). Die folgenden Ausführungen orientieren sich dabei an den von Zangl und Zürn entwickelten Begriffen der Verrechtlichung und Konstitutionalisierung, weil diese eine Beschreibung anhand der der quantitativen Kategorien des Mehr oder Weniger anstelle des juristischen Alles oder Nichts (Recht/Nicht-Recht) ermöglichen.
Thema dieser Stellungnahme ist der spezielle Teil der "Abschlussarbeit" für alle Hauptschulen Frankfurts des Staatlichen Schulamts (Arbeitsgruppe Q ... Q soll für Qualität stehen), der sich im Teil Gesellschaftslehre in Teil 10 bis 15 mit der Nazi-Zeit beschäftigt. Die grundsätzliche Problematik zentralstaatlicher Tests - hier zunächst für alle 24 Hauptschulen in FFM - das ist ein eigenes Thema. Sinn, Chancen und Gefahren solcher Zentraltestverfahren ohne Kenntnis der jeweiligen Lerngruppen sollen hier nicht diskutiert werden.
Bossing in den Schulen
(2000)
Kind und Computer
(2000)
Vortrag gehalten am 12. Januar 2005 in Frankfurt am Main, am Physikalischen Verein, anläßlich der Verleihung des Philipp-Siedler-Wissenschaftspreises an Dipl.-Phys. Christine Meurer, als Anerkennung für ihre Diplomarbeit "Xi- und Xi+ Produktion in Pb+Pb Stößen bei 40 A GeV am CERN SPS" (urn:nbn:de:hebis:30-13740). Am CERN, dem Europäischen Kernforschungszentrum, werden Bleiatomkerne auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Dabei wird die Materie in einer Art Feuerball extrem verdichtet und erhitzt. Unter diesen Bedingungen brechen die Bestandteile der Atomkerne, die Nukleonen, auf und der Blick auf die eigentlichen Bausteine der Materie, die Quarks, wird möglich. Nach der Kollision expandiert der Feuerball und viele neue Teilchen, darunter auch die sogenannten seltsamen Teilchen, entstehen. Ihre Besonderheiten werden im Vortrag diskutiert: Ergebnisse zur Produktion des seltsamen Xi- -Teilchens in Pb+Pb-Stößen bei einer Energie von 40 A GeV werden vorgestellt. Aus dem transversalen Massenspektrum bei mittlerer Rapidität erhält man einen inversen Steigungsparamenter von T Xi- = (210±11±21)MeV . Die Integration des Rapiditätsspektrums liefert eine totale Anzahl der s im gesamten Phasenraum von (2.41 ± 0.15 ± 0.24) Teilchen pro Kollision. Desweiteren wird die Anregungsfunktion des Xi- -Hyperons sowie seine Zentralitätsabhänigkeit bei 40 A GeV diskutiert.
Plenarvortrag Weltkongress der Rechtsphilosophie und Sozialphilosophie, 24.-29. Mai, Granada 2005. Englische Fassung: Globalized Justice - Fragmented Justice. Human Rights Violations by "Private" Transnational Actors. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S.547-562. Spanische Fassung: Sociedad global, justicia fragmentada: sobre la violatión de los derechos humanos por actores transnacionales 'privados'. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S. 529-546.
Englische Fassung: Contracting Worlds: Invoking Discourse Rights in Private Governance Regimes (Annual Lecture Edinburgh 1997) Social and Legal Studies 9, 2000, 399-417. Italienische Fassung: Mondi contrattuali. Discourse rights nel diritto privato. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 113-142. Portugiesische Fassung: Mundos contratuais: o direito na fragmentacao de regimes de private governance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 269-298.
s.a. Deutsche Fassung: Rechtshistorisches Journal 15, 1996, 255-290 und in: Eric Schwarz (Hg.) La théorie des systèmes: une approche inter- et transdisciplinaire. Bösch, Sion 1996, 101-119. Italienische Fassung: La Bukowina globale: il pluralismo giuridico nella società mondiale. Sociologic a politiche sociali 2, 1999, 49-80. Portugiesische Fassung: Bukowina global sobre a emergência de um pluralismo jurídico transnacional. Impulso: Direito e Globalização 14, 2003. Georgische Fassung: Globaluri bukovina: samarTlebrivi pluralizmi msoflio sazogadoebaSi. Journal of the Institute of State and Law of the Georgian Academy of Sciences 2005 (im Erscheinen)
Vorliegender Text ist die leicht erweiterte Fassung von: Harald Hillgärtner: Ein Kramladen des Glücks. Filesharing aus Leidenschaft, in: Harald Hillgärtner, Thomas Küpper (Hg.): Medien und Ästhetik. Festschrift für Burkhardt Lindner, Bielefeld: transcript 2003, S. 332-342. Dieser Aufsatz war Grundlage eines Vortrages bei der Tagung "interfiction X - 2003 filesharer values - Ökonomien des (Aus-)Tauschs Utopien und Realitäten von Kulturproduktion unter Netzbedingungen", aus der Anregungen für diesen Text hervorgingen.
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
Robuste Anaphernresolution
(2004)
Im Zeitalter der ständig wachsenden Mobilitätsanforderungen kommt dem flexiblen, dezentralen Zugriff auf Datenbestände aller Art eine immer größere Bedeutung zu. Steht ein Zugang via Internet nicht zur Verfügung, so bietet sich als Alternative die Verwendung eines Mobiltelefons an. Auf der Grundlage des WAP-Protokolls konnen elementare grafische Zugriffsschnittstellen geschaffen werden; deren Möglichkeiten sind jedoch begrenzt: Im Vergleich zu stationären Computerterminals ist die Displaygröße i.d.R. gering; entsprchend aufwändig verlauft das Browsing. Die gegenwärtige Technologie verfügt über eine geringe Bandbreite. die Navigation über Tasten wird vom Benutzer als umständlich empfunden. Es gibt Einsatzkontexte, die eine tastaturbasierte Interaktion a priori ausschließen. Als Alternative bieten sich gesprochensprachige Schnittstellen an, in denen der Benutzer einen Mensch-Maschine-Dialog mit einem telefonbasierten Sprachportal führt. Die Grundlage derartiger Anwendungen bietet Hardware- bzw. Software-Technologie zu Computer-Telefonie-Integration, Spracherkennung, Sprachsynthese. Mit diesen technologischen Basiskomponenten alleine ist es jedoch noch nicht getan: In Abhängigkeit von den spezifischen Erfordernissen der jeweiligen Anwendung sind geeignete Vorgaben zu spezifizieren, die den Computer in die Lage versetzen, den Dialog mit seinem menschlichen Gegenüber in problemadaquater Weise zu führen. Wichtige Anforderungen sind: Natürlichkeit: Ausgestaltung der sprachlichen Interaktion in einer Weise, die den Erwartungen des Anwenders hinsichtlich des jeweiligen Anwendungsfalls entsprechen; Flexibilität: Anpassung an die Eigenarten des jeweiligen Nutzers (Novize oder geübter Anwender etc.); 2 Robustheit: geeignetes Handling von Missverständnissen, unvollständigem Benutzer-Input sowie Unzulänglichkeiten der maschinellen Sprachverarbeitung (insbesondere Fehler in der Spracherkennung) etc. Formale Spezifikationen des maschinellen Dialogverhaltens werden als Dialogmodelle bezeichnet. Hinsichtlich der generischen Wiederverwendbarkeit der Dialogsoftware ist es sinnvoll, derartige Beschreibungen in einem standardisierten Formalismus, einer Dialogmodellierungssprache abzufassen, die sich somit in erster Näherung als eine "Programmiersprache" für eine generische Dialogmaschine auffassen lässt. Folglich stellt sich die Frage, wie eine geeignete Dialogmodellierungssprache aussehen könnte. In Bezug auf webbasierte Sprachportale wurde vom W3C die XML-basierte Dialogmodellierungssprache VoiceXML als Standardisierungsvorschlag erarbeitet ([7]). Im vorliegenden Dokument sollen zunächst Reichweite und Grenzen der Sprache VoiceXML evaluiert werden. Auf der Grundlage der Evaluation sollen strategischen Empfehlungen fur Unternehmen abgeleitet werden, die sich als Anwendungsentwickler auf dem Innovationsmarkt der telefonbasierten Sprachportale betätigen wollen. Die zentralen Fragen lauten: 1. Welches sind die zentralen Probleme der Entwicklung telefonbasierter Sprachportale? 2. Inwieweit löst VoiceXML diese Probleme? 3. Inwiefern lohnt es sich somit, (z.B. zwecks Herausbildung eines Alleinstellungsmerkmals) auf die Technologie VoiceXML zu setzen? 4. Welche Alternativen existieren? In welchen anderen Bereichen sollte man ggf. Kernkompetenzen herausbilden?
Die zunehmende Bedeutung des Internets für den Informationstransfer stellt Bibliotheken vor eine neue Herausforderung. Es stellt sich die Frage, in welcher Weise Bibliotheken auf diese Entwicklung reagieren können. Um dieser Frage nachzugehen, hat die Senckenbergische Bibliothek in Frankfurt eine Studie in Auftrag gegeben, die anhand einer bundesweiten Befragung das aktuelle Informationsverhalten wie auch den aktuellen Informationsbedarf von Biologen in Deutschland ermittelt hat. Die Befragung wurde im November 2003 durchgeführt. Biologen aus verschiedenen Tätigkeitsbereichen wurden nach Kenntnis, Nutzung und Wichtigkeit von konventionellen und neuen Informationsangeboten bzw. quellen befragt. Insgesamt haben 1582 Biologen an der Befragung teilgenommen. Die Ergebnisse sollen dazu beitragen, das Angebot der Sondersammelgebiete der Senckenbergischen Bibliothek den aktuellen Bedürfnissen ihrer Nutzer anzupassen und bei Bedarf ein zentrales Informationsportal für biologische Literatur- und Fachinformation aufzubauen, das den Erwartungen der Nutzer entspricht.
Elektronische (digitale) Zeitschriften spielen seit mehreren Jahren eine zunehmend wichtigere Rolle in der Informationsversorgung von Wissenschaft und Forschung. Während jedoch die Nutzungsformen sich so gut wie vollständig an den Standards des www mit all seinen Vorzügen orientieren, sind die Preisbildungsmechanismen noch stark an der Welt der gedruckten Zeitschriften orientiert. Sie unterliegen allerdings zur Zeit einem erheblichen Wandel, ohne dass erkennbar wäre, welche Preisstrukturen zukünftig den Markt bestimmen werden. Das seit November 2001 laufende DFG-Projekt "Perspektiven für den Bezug elektronischer Informationsressourcen in der Bundesrepublik Deutschland" hat sich zum Ziel gesetzt, die Marktsituation für elektronische Informationsversorgung im hochschulischen Bereich zu analysieren und davon ausgehend Perspektiven abzuleiten. In einer ersten Phase sollen zunächst die Nutzungsgewohnheiten seitens der Wissenschaftler und Studierenden untersucht werden. Die Ergebnisse werden in der vorliegenden Arbeit exemplarisch aufgezeigt, eine detaillierte Nutzungsanalyse wird zu einem späteren Zeitpunkt veröffentlicht.
Eine bedeutende Stelle der betrieblichen Funktionen nimmt die Beschaffung der Ware am Markt ein. Die Organisation des Beschaffungswesens ist dabei integraler Bestandteil der Unternehmensstrategie und führung. Die Beschaffung im engeren Sinne umfasst dabei den Einkauf von Anlagegütern, Roh-, Hilfs- und Betriebsstoffen, Fertigwaren sowie von Dienstleistungen (z. B. Transportleistungen) und Rechten (z. B. Lizenzen aus Patenten). Die Beschaffung ist neben der Produktions- und Absatzfunktion einer der Hauptbereiche betrieblicher Planung und Leistungserstellung [Bichler/Krohn 2001]. Die Hauptaufgabe des Einkaufs im Industrieunternehmen besteht in der Beschaffung von Materialen und Teilen nach den von den zuständigen Fachabteilungen vorgegebenen Qualitätsvorschriften, zu günstigen Konditionen und zum richtigen Zeitpunkt, wodurch die termingerechte Produktion sicher gestellt werden kann. Eine weiterführende Aufgabe des Einkaufs besteht in einer Analyse des Beschaffungsmarktes sowie in der Aufbereitung und Weitergabe von Informationen an den Vertrieb. Es sind die Hersteller auf dem Markt zu suchen und zu katalogisieren, welche die entsprechenden Materialien in gleich bleibender Qualität und zu günstigen Preisen liefern können [Bichler/Krohn 2001]. Die Organisation des Einkaufsprozesses stellt einen bedeutenden Problemfokus für die Unternehmensleitung dar. Gegenstand dieser Untersuchung ist die Fragestellung, wie sich Einkaufgenossenschaften im Bibliothekswesen optimal bilden sollen. Die Frage der Optimalität muss dazu zunächst präzisiert werden und wird vor dem Hintergrund verschiedener Zielsetzungen näher diskutiert. Einkaufsgenossenschaften und verbünde finden sich in der Praxis immer häufiger und stellen probate Mittel dar, die Kosten für den Bezug von nötigen Betriebsmaterialen nachhaltig zu senken. Im Sektor der wissenschaftlichen Informationsversorgung können seit einigen Jahren im Bereich der elektronischen Informationsressourcen ebenfalls Einkaufsverbünde in Form von Bibliothekskonsortien beobachtet werden. Ziel dieser Genossenschaften ist es, gemeinsam Lizenzen für elektronische Informationen zu erwerben. Die derzeitige Bezugspraxis zeigt, dass Konsortien überwiegend regional ausgerichtet sind und weniger auf thematischer Ebene agieren. Auch die Größe sowie Nachfragestruktur und intensität finden weitestgehend noch keine Beachtung. Diese Arbeit untersucht Vor- und Nachteile von Einkaufgenossenschaften und diskutiert verschiedene Entscheidungsmodelle zur Bestimmung einer optimalen Konsortialstruktur vor dem Hintergrund der derzeitig gegebenen Marktstrukturen im Sektor der wissenschaftlichen Informationsversorgung.
We address to the problem to factor a large composite number by lattice reduction algorithms. Schnorr has shown that under a reasonable number theoretic assumptions this problem can be reduced to a simultaneous diophantine approximation problem. The latter in turn can be solved by finding sufficiently many l_1--short vectors in a suitably defined lattice. Using lattice basis reduction algorithms Schnorr and Euchner applied Schnorrs reduction technique to 40--bit long integers. Their implementation needed several hours to compute a 5% fraction of the solution, i.e., 6 out of 125 congruences which are necessary to factorize the composite. In this report we describe a more efficient implementation using stronger lattice basis reduction techniques incorporating ideas of Schnorr, Hoerner and Ritter. For 60--bit long integers our algorithm yields a complete factorization in less than 3 hours.
Given a real vector alpha =(alpha1 ; : : : ; alpha d ) and a real number E > 0 a good Diophantine approximation to alpha is a number Q such that IIQ alpha mod Zk1 ", where k \Delta k1 denotes the 1-norm kxk1 := max 1id jx i j for x = (x1 ; : : : ; xd ). Lagarias [12] proved the NP-completeness of the corresponding decision problem, i.e., given a vector ff 2 Q d , a rational number " ? 0 and a number N 2 N+ , decide whether there exists a number Q with 1 Q N and kQff mod Zk1 ". We prove that, unless ...
We generalize the concept of block reduction for lattice bases from l2-norm to arbitrary norms. This extends the results of Schnorr. We give algorithms for block reduction and apply the resulting enumeration concept to solve subset sum problems. The deterministic algorithm solves all subset sum problems. For up to 66 weights it needs in average less then two hours on a HP 715/50 under HP-UX 9.05.
We present an efficient variant of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lov´asz [LLL82]. We organize LLL-reduction in segments of size k. Local LLL-reduction of segments is done using local coordinates of dimension 2k. Strong segment LLL-reduction yields bases of the same quality as LLL-reduction but the reduction is n-times faster for lattices of dimension n. We extend segment LLL-reduction to iterated subsegments. The resulting reduction algorithm runs in O(n3 log n) arithmetic steps for integer lattices of dimension n with basis vectors of length 2O(n), compared to O(n5) steps for LLL-reduction.
We study the following problem: given x element Rn either find a short integer relation m element Zn, so that =0 holds for the inner product <.,.>, or prove that no short integer relation exists for x. Hastad, Just Lagarias and Schnorr (1989) give a polynomial time algorithm for the problem. We present a stable variation of the HJLS--algorithm that preserves lower bounds on lambda(x) for infinitesimal changes of x. Given x \in {\RR}^n and \alpha \in \NN this algorithm finds a nearby point x' and a short integer relation m for x'. The nearby point x' is 'good' in the sense that no very short relation exists for points \bar{x} within half the x'--distance from x. On the other hand if x'=x then m is, up to a factor 2^{n/2}, a shortest integer relation for \mbox{x.} Our algorithm uses, for arbitrary real input x, at most \mbox{O(n^4(n+\log \alpha))} many arithmetical operations on real numbers. If x is rational the algorithm operates on integers having at most \mbox{O(n^5+n^3 (\log \alpha)^2 + \log (\|q x\|^2))} many bits where q is the common denominator for x.
Black box cryptanalysis applies to hash algorithms consisting of many small boxes, connected by a known graph structure, so that the boxes can be evaluated forward and backwards by given oracles. We study attacks that work for any choice of the black boxes, i.e. we scrutinize the given graph structure. For example we analyze the graph of the fast Fourier transform (FFT). We present optimal black box inversions of FFT-compression functions and black box constructions of collisions. This determines the minimal depth of FFT-compression networks for collision-resistant hashing. We propose the concept of multipermutation, which is a pair of orthogonal latin squares, as a new cryptographic primitive that generalizes the boxes of the FFT. Our examples of multipermutations are based on the operations circular rotation, bitwise xor, addition and multiplication.
With ubiquitous use of digital camera devices, especially in mobile phones, privacy is no longer threatened by governments and companies only. The new technology creates a new threat by ordinary people, who now have the means to take and distribute pictures of one’s face at no risk and little cost in any situation in public and private spaces. Fast distribution via web based photo albums, online communities and web pages expose an individual’s private life to the public in unpreceeded ways. Social and legal measures are increasingly taken to deal with this problem. In practice however, they lack efficiency, as they are hard to enforce in practice. In this paper, we discuss a supportive infrastructure aiming for the distribution channel; as soon as the picture is publicly available, the exposed individual has a chance to find it and take proper action.
Korrektur zu: C.P. Schnorr: Security of 2t-Root Identification and Signatures, Proceedings CRYPTO'96, Springer LNCS 1109, (1996), pp. 143-156 page 148, section 3, line 5 of the proof of Theorem 3. Die Korrektur wurde präsentiert als: "Factoring N via proper 2 t-Roots of 1 mod N" at Eurocrypt '97 rump session.
Let G be a finite cyclic group with generator \alpha and with an encoding so that multiplication is computable in polynomial time. We study the security of bits of the discrete log x when given \exp_{\alpha}(x), assuming that the exponentiation function \exp_{\alpha}(x) = \alpha^x is one-way. We reduce he general problem to the case that G has odd order q. If G has odd order q the security of the least-significant bits of x and of the most significant bits of the rational number \frac{x}{q} \in [0,1) follows from the work of Peralta [P85] and Long and Wigderson [LW88]. We generalize these bits and study the security of consecutive shift bits lsb(2^{-i}x mod q) for i=k+1,...,k+j. When we restrict \exp_{\alpha} to arguments x such that some sequence of j consecutive shift bits of x is constant (i.e., not depending on x) we call it a 2^{-j}-fraction of \exp_{\alpha}. For groups of odd group order q we show that every two 2^{-j}-fractions of \exp_{\alpha} are equally one-way by a polynomial time transformation: Either they are all one-way or none of them. Our key theorem shows that arbitrary j consecutive shift bits of x are simultaneously secure when given \exp_{\alpha}(x) iff the 2^{-j}-fractions of \exp_{\alpha} are one-way. In particular this applies to the j least-significant bits of x and to the j most-significant bits of \frac{x}{q} \in [0,1). For one-way \exp_{\alpha} the individual bits of x are secure when given \exp_{\alpha}(x) by the method of Hastad, N\"aslund [HN98]. For groups of even order 2^{s}q we show that the j least-significant bits of \lfloor x/2^s\rfloor, as well as the j most-significant bits of \frac{x}{q} \in [0,1), are simultaneously secure iff the 2^{-j}-fractions of \exp_{\alpha'} are one-way for \alpha' := \alpha^{2^s}. We use and extend the models of generic algorithms of Nechaev (1994) and Shoup (1997). We determine the generic complexity of inverting fractions of \exp_{\alpha} for the case that \alpha has prime order q. As a consequence, arbitrary segments of (1-\varepsilon)\lg q consecutive shift bits of random x are for constant \varepsilon >0 simultaneously secure against generic attacks. Every generic algorithm using $t$ generic steps (group operations) for distinguishing bit strings of j consecutive shift bits of x from random bit strings has at most advantage O((\lg q) j\sqrt{t} (2^j/q)^{\frac14}).
We modify the concept of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lovasz [LLL82] towards a faster reduction algorithm. We organize LLL-reduction in segments of the basis. Our SLLL-bases approximate the successive minima of the lattice in nearly the same way as LLL-bases. For integer lattices of dimension n given by a basis of length 2exp(O(n)), SLLL-reduction runs in O(n.exp(5+epsilon)) bit operations for every epsilon > 0, compared to O(exp(n7+epsilon)) for the original LLL and to O(exp(n6+epsilon)) for the LLL-algorithms of Schnorr (1988) and Storjohann (1996). We present an even faster algorithm for SLLL-reduction via iterated subsegments running in O(n*exp(3)*log n) arithmetic steps.
We present a practical algorithm that given an LLL-reduced lattice basis of dimension n, runs in time O(n3(k=6)k=4+n4) and approximates the length of the shortest, non-zero lattice vector to within a factor (k=6)n=(2k). This result is based on reasonable heuristics. Compared to previous practical algorithms the new method reduces the proven approximation factor achievable in a given time to less than its fourthth root. We also present a sieve algorithm inspired by Ajtai, Kumar, Sivakumar [AKS01].
We consider Schwarz maps for triangles whose angles are rather general rational multiples of pi. Under which conditions can they have algebraic values at algebraic arguments? The answer is based mainly on considerations of complex multiplication of certain Prym varieties in Jacobians of hypergeometric curves. The paper can serve as an introduction to transcendence techniques for hypergeometric functions, but contains also new results and examples.
Bei der Untersuchung des Langzeitverhaltens von Verzweigungsprozessen und räumlich verzweigenden Populationen ist die Betrachtung von Stammbäumen zunehmend in den Vordergrund gerückt. Probabilistische Methoden haben die in der Theorie vorherrschenden analytischen Techniken ergänzt und zu wesentlichen neuen Einsichten geführt. Die vorliegende Synopse diskutiert eine Auswahl meiner Veröffentlichungen der letzten Jahre. Den Arbeiten ist gemeinsam, dass durch das Studium der genealogischen Verhältnisse in der Population Aussagen über deren Langzeitverhalten gewonnen werden konnten. Zwei dieser Arbeiten behandeln den klassischen Galton-Watson Prozess. Eine weitere Arbeit befasst sich mit Verzweigungsprozessen in zufälliger Umgebung, sie ist technische wesentlich anspruchsvoller. Die vierte der hier besprochenen Arbeiten beschäftigt sich mit dem Wählermodell, einem der Prototypen interagierender Teilchensysteme.
Es wird eine Einführung in den Satz von Belyi und Grothendiecks Dessins d'enfants gegeben, hier Kinderzeichnungen genannt. Dieses Arbeitsgebiet ist in den letzten zwanzig Jahren entstanden und weist viele reizvolle Querverbindungen auf von der inversen Galoistheorie über die Teichm llerräume bis hin zur Mathematischen Physik. Das Schwergewicht des folgenden Beitrags liegt in den Beziehungen zu den Fuchsschen Gruppen und der Uniformisierungstheorie: Kinderzeichnungen bieten die Möglichkeit, für arithmetisch interessante Riemannsche Flächen - die als algebraische Kurven über Zahlkörpern definiert sind - Überlagerungsgruppen explizit zu beschreiben und umgekehrt aus gewissen Typen von Überlagerungsgruppen Kurvengleichungen zu gewinnen. Was hier aufgeschrieben ist, behandelt eigentlich nur bekanntes Material, gelegentlich mit neuen Beweisvarianten und Beispielen. Da aber noch keine zusammenfassende Einführung in das Thema existiert, hoffe ich, dass es als Vorlage für ein Seminar oder eine fortgeschrittene Vorlesung nützlich sein mag.
Intelligenz : ein relevantes differenzialdiagnostisches Merkmal bei Sprachentwicklungstörungen?
(2003)
Die Spezifische Sprachentwicklungsstörung (SSES) ist als erwartungswidrige Minderleistung der Sprachentwicklung im Vergleich zur kognitiven Entwicklung definiert. Untersucht wird, (1) ob sich für SSES-Kinder im Vergleich zu unterdurchschnittlich intelligenten sprachentwicklungsgestörten Kindern (SES-Lb) ein typisches Muster von sprachlichen Leistungen sowie von Teilleistungsstörungen nachweisen lässt, das für eine Differenzialdiagnostik und damit für eine Untergruppenbildung sprachentwicklungsgestörter Kinder nutzbringend eingesetzt werden kann, (2) ob und in welcher Weise eine solche Differenzierung Konsequenzen für die Diagnostik und nachfolgend für eine Therapie zeitigt und (3) ob es Defizite in umschriebenen Leistungsbereichen gibt, die als Bedingungsfaktoren für eine Sprachentwicklungsstörung gelten, sich aber als unabhängig von der Intelligenz erweisen. Eine Gruppe von 138 fünf- und sechsjährigen Kindern mit einer schweren Sprachentwicklungsstörung, von denen 108 eine normale nonverbale Intelligenz aufwiesen, wurde anhand von IDIS (Inventar diagnostischer Informationen bei Sprachentwicklungsauffälligkeiten) untersucht. Erfasst wurden neben den sprachlichen Fähigkeiten auf der phonetisch-phonologischen, der semantisch-lexikalischen, der morphologisch-syntaktischen und der pragmatischen Ebene auch die Intelligenz, die auditive und visuelle Wahrnehmung, die auditive und visuelle Merkfähigkeit, sowie die Fein- und Grobmotorik. In den meisten geprüften Bereichen zeigt sich ein deutlicher Effekt der Intelligenz auf die Leistungen, der nicht nur auf Unterschiede in der Profilhöhe, sondern auch im Profilverlauf, also auf strukturelle Leistungsdifferenzen, hinweist. Als ein von der Intelligenz unabhängiger Bedingungsfaktor für eine Sprachentwicklungsstörung gilt eine gestörte phonologische Schleife, das auditive Subsystem des Arbeitsgedächtnisses. Für die Beibehaltung der Differenzierung der Sprachentwicklungsstörungen nach der kognitiven Leistungsfähigkeit wird nicht nur aufgrund der unterschiedlichen Leistungsstrukturen plädiert, sondern auch, weil die therapeutischen Möglichkeiten in Abhängigkeit von der Intelligenz als verschiedenartig eingeschätzt werden.
As there are apparently no doubts concerning the existence of Nazi anti-Semitism before 1933 regarding this topic – having largely been ignored by scholars of contemporary history – seems to be no use. This article tends to trace the role of anti-Semitism during the ascend of the Nazi-movement. Therefore, the author describes the theoretic function of this phenomena for the NSDAP by referring to Hitler’s Weltanschauung and the official program of the party. But how did this anti-Jewish ideology find its way into the party’s day-to-day agitation? By analysing Hitler’s political speeches it is shown how, after 1925/26, the Führer tried to present himself as a moderate politician – for he had realised that the NSDAP had to become a mass-movement in order to gain political power in Weimar Germany. Vis-à-vis the party’s antisemitic membership, mainly retailers and graduates, anti-Jewish stereotypes were pushed in propaganda. Yet, National Socialist anti-Semitism was not only opportunist in that it was played up or down depending upon when and where it hit responsive chords, it was also subject to the regional Gauleiter if this phenomena was promoted like in Streicher’s Franconia or restricted like in Württemberg, Hamburg or Danzig. Only after the world-wide economic crisis of 1929 the NSDAP had considerable success in the Reichstag’s elections. The party presented itself as the only power being capable to establish a new order in Germany. The propaganda focused on the main enemies of the National Socialists: Communism and the liberal democracy – in this context, the anti-Semitism was negligible.
We calculate the kaon HBT radius parameters for high energy heavy ion collisions, assuming a first order phase transition from a thermalized Quark-Gluon-Plasma to a gas of hadrons. At high transverse momenta K_T ~ 1 GeV/c direct emission from the phase boundary becomes important, the emission duration signal, i.e., the R_out/R_side ratio, and its sensitivity to T_c (and thus to the latent heat of the phase transition) are enlarged. Moreover, the QGP+hadronic rescattering transport model calculations do not yield unusual large radii (R_i<9fm). Finite momentum resolution effects have a strong impact on the extracted HBT parameters (R_i and lambda) as well as on the ratio R_out/R_side.
We calculate the antibaryon-to-baryon ratios, anti-p/p, anti-Lambda/Lambda, anti-Xi/Xi, and anti-Omega/Omega for Au+Au collisions at RHIC (sqrt{s}_{NN}=200 GeV). The effects of strong color fields associated with an enhanced strangeness and diquark production probability and with an effective decrease of formation times are investigated. Antibaryon-to-baryon ratios increase with the color field strength. The ratios also increase with the strangeness content |S|. The netbaryon number at midrapidity considerably increases with the color field strength while the netproton number remains roughly the same. This shows that the enhanced baryon transport involves a conversion into the hyperon sector (hyperonization) which can be observed in the (Lambda - anti-Lambda)/(p - anti-p) ratio.
Report-no: UFTP-492/1999 Journal-ref: Phys.Rev. C61 (2000) 024909 We investigate flow in semi-peripheral nuclear collisions at AGS and SPS energies within macroscopic as well as microscopic transport models. The hot and dense zone assumes the shape of an ellipsoid which is tilted by an angle Theta with respect to the beam axis. If matter is close to the softest point of the equation of state, this ellipsoid expands predominantly orthogonal to the direction given by Theta. This antiflow component is responsible for the previously predicted reduction of the directed transverse momentum around the softest point of the equation of state.
The wide-area deployment of WiFi hot spots challenges IP access providers. While new profit models are sought after by them, profitability as well as logistics for large-scale deployment of 802.11 wireless technology are still to be proven. Expenditure for hardware, locations, maintenance, connectivity, marketing, billing and customer care must be considered. Even for large carriers with infrastructure, the deployment of a large-scale WiFi infrastructure may be risky. This paper proposes a multi-level scheme for hot spot distribution and customer acquisition that reduces financial risk, cost of marketing and cost of maintenance for the large-scale deployment of WiFi hot spots.
Central wage bargaining and local wage flexibility : evidence from the entire wage distribution
(1998)
We argue that in labor markets with central wage bargaining wage flexibility varies systematically across the wage distribution: local wage flexibility is more relevant for the upper part of the wage distribution, and flexibility of wages negotiated under central wage bargaining affects the lower part of the wage distribution. Using a random sample of German social-security accounts, we estimate wage flexibility across the wage distribution by means of quantile regressions. The results support our hypothesis, as employees with low wages have significantly lower local wage flexibility than high wage employees. This effect is particularly relevant for the lower educational groups. On the other hand, employees with low wages tend to have a higher wage flexibility with respect to national unemployment.
This paper shows that abnormal stock price returns around open market repurchase announcements are about four times higher in Germany than in the US (12% versus 3%). We hypothesize that this observation can be explained by country differences in repurchase regulation. Our empirical evidence indicates that German managers primarily buy back shares to signal an undervaluation of their firm. We demonstrate that the stringent repurchase process prescribed by German law attributes a higher credibility to such a signal than lax US regulations and thereby corroborate our hypothesis.
Im Rahmen einer Ereignisstudie am deutschen Kapitalmarkt wird untersucht, ob Adhoc- Mitteilungen korrekt eingesetzt werden. Die Ergebnisse belegen, daß Nemax-50-Unternehmen die Veröffentlichung potentiell positiver Meldungsinhalte bevorzugen und die Bekanntmachung negativer Mitteilungen verzögern. Außerdem veröffentlichen Nemax-50-Werte in positiven Marktphasen besonders viele Mitteilungen und einen besonders hohen Anteil an positiven Meldungsinhalten, um von der positiven Stimmung der Marktteilnehmer zu profitieren. Dax-30-Werte verhalten sich dagegen regelgerecht. Die Befunde belegen die Notwendigkeit einer stärkeren Überwachung des Veröffentlichungsverhaltens der Emittenten, die in 2002 am Neuen Markt gelistet waren.