Refine
Year of publication
Document Type
- Report (1544) (remove)
Language
Has Fulltext
- yes (1544) (remove)
Is part of the Bibliography
- no (1544) (remove)
Keywords
- Islamischer Staat (43)
- Deutschland (41)
- Literatur (37)
- Terrorismus (37)
- Syrien (35)
- USA (35)
- IS (29)
- Russland (28)
- Ukraine (26)
- Gabon (23)
Institute
- Gesellschaftswissenschaften (719)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (442)
- Wirtschaftswissenschaften (141)
- Extern (87)
- Center for Financial Studies (CFS) (77)
- House of Finance (HoF) (64)
- Sustainable Architecture for Finance in Europe (SAFE) (62)
- Neuere Philologien (57)
- Universitätsbibliothek (37)
- Hessische Stiftung für Friedens- und Konfliktforschung (HSFK) (32)
Vortrag gehalten am 12. Januar 2005 in Frankfurt am Main, am Physikalischen Verein, anläßlich der Verleihung des Philipp-Siedler-Wissenschaftspreises an Dipl.-Phys. Christine Meurer, als Anerkennung für ihre Diplomarbeit "Xi- und Xi+ Produktion in Pb+Pb Stößen bei 40 A GeV am CERN SPS" (urn:nbn:de:hebis:30-13740). Am CERN, dem Europäischen Kernforschungszentrum, werden Bleiatomkerne auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Dabei wird die Materie in einer Art Feuerball extrem verdichtet und erhitzt. Unter diesen Bedingungen brechen die Bestandteile der Atomkerne, die Nukleonen, auf und der Blick auf die eigentlichen Bausteine der Materie, die Quarks, wird möglich. Nach der Kollision expandiert der Feuerball und viele neue Teilchen, darunter auch die sogenannten seltsamen Teilchen, entstehen. Ihre Besonderheiten werden im Vortrag diskutiert: Ergebnisse zur Produktion des seltsamen Xi- -Teilchens in Pb+Pb-Stößen bei einer Energie von 40 A GeV werden vorgestellt. Aus dem transversalen Massenspektrum bei mittlerer Rapidität erhält man einen inversen Steigungsparamenter von T Xi- = (210±11±21)MeV . Die Integration des Rapiditätsspektrums liefert eine totale Anzahl der s im gesamten Phasenraum von (2.41 ± 0.15 ± 0.24) Teilchen pro Kollision. Desweiteren wird die Anregungsfunktion des Xi- -Hyperons sowie seine Zentralitätsabhänigkeit bei 40 A GeV diskutiert.
Plenarvortrag Weltkongress der Rechtsphilosophie und Sozialphilosophie, 24.-29. Mai, Granada 2005. Englische Fassung: Globalized Justice - Fragmented Justice. Human Rights Violations by "Private" Transnational Actors. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S.547-562. Spanische Fassung: Sociedad global, justicia fragmentada: sobre la violatión de los derechos humanos por actores transnacionales 'privados'. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S. 529-546.
Englische Fassung: Contracting Worlds: Invoking Discourse Rights in Private Governance Regimes (Annual Lecture Edinburgh 1997) Social and Legal Studies 9, 2000, 399-417. Italienische Fassung: Mondi contrattuali. Discourse rights nel diritto privato. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 113-142. Portugiesische Fassung: Mundos contratuais: o direito na fragmentacao de regimes de private governance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 269-298.
s.a. Deutsche Fassung: Rechtshistorisches Journal 15, 1996, 255-290 und in: Eric Schwarz (Hg.) La théorie des systèmes: une approche inter- et transdisciplinaire. Bösch, Sion 1996, 101-119. Italienische Fassung: La Bukowina globale: il pluralismo giuridico nella società mondiale. Sociologic a politiche sociali 2, 1999, 49-80. Portugiesische Fassung: Bukowina global sobre a emergência de um pluralismo jurídico transnacional. Impulso: Direito e Globalização 14, 2003. Georgische Fassung: Globaluri bukovina: samarTlebrivi pluralizmi msoflio sazogadoebaSi. Journal of the Institute of State and Law of the Georgian Academy of Sciences 2005 (im Erscheinen)
Vorliegender Text ist die leicht erweiterte Fassung von: Harald Hillgärtner: Ein Kramladen des Glücks. Filesharing aus Leidenschaft, in: Harald Hillgärtner, Thomas Küpper (Hg.): Medien und Ästhetik. Festschrift für Burkhardt Lindner, Bielefeld: transcript 2003, S. 332-342. Dieser Aufsatz war Grundlage eines Vortrages bei der Tagung "interfiction X - 2003 filesharer values - Ökonomien des (Aus-)Tauschs Utopien und Realitäten von Kulturproduktion unter Netzbedingungen", aus der Anregungen für diesen Text hervorgingen.
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
Robuste Anaphernresolution
(2004)
Im Zeitalter der ständig wachsenden Mobilitätsanforderungen kommt dem flexiblen, dezentralen Zugriff auf Datenbestände aller Art eine immer größere Bedeutung zu. Steht ein Zugang via Internet nicht zur Verfügung, so bietet sich als Alternative die Verwendung eines Mobiltelefons an. Auf der Grundlage des WAP-Protokolls konnen elementare grafische Zugriffsschnittstellen geschaffen werden; deren Möglichkeiten sind jedoch begrenzt: Im Vergleich zu stationären Computerterminals ist die Displaygröße i.d.R. gering; entsprchend aufwändig verlauft das Browsing. Die gegenwärtige Technologie verfügt über eine geringe Bandbreite. die Navigation über Tasten wird vom Benutzer als umständlich empfunden. Es gibt Einsatzkontexte, die eine tastaturbasierte Interaktion a priori ausschließen. Als Alternative bieten sich gesprochensprachige Schnittstellen an, in denen der Benutzer einen Mensch-Maschine-Dialog mit einem telefonbasierten Sprachportal führt. Die Grundlage derartiger Anwendungen bietet Hardware- bzw. Software-Technologie zu Computer-Telefonie-Integration, Spracherkennung, Sprachsynthese. Mit diesen technologischen Basiskomponenten alleine ist es jedoch noch nicht getan: In Abhängigkeit von den spezifischen Erfordernissen der jeweiligen Anwendung sind geeignete Vorgaben zu spezifizieren, die den Computer in die Lage versetzen, den Dialog mit seinem menschlichen Gegenüber in problemadaquater Weise zu führen. Wichtige Anforderungen sind: Natürlichkeit: Ausgestaltung der sprachlichen Interaktion in einer Weise, die den Erwartungen des Anwenders hinsichtlich des jeweiligen Anwendungsfalls entsprechen; Flexibilität: Anpassung an die Eigenarten des jeweiligen Nutzers (Novize oder geübter Anwender etc.); 2 Robustheit: geeignetes Handling von Missverständnissen, unvollständigem Benutzer-Input sowie Unzulänglichkeiten der maschinellen Sprachverarbeitung (insbesondere Fehler in der Spracherkennung) etc. Formale Spezifikationen des maschinellen Dialogverhaltens werden als Dialogmodelle bezeichnet. Hinsichtlich der generischen Wiederverwendbarkeit der Dialogsoftware ist es sinnvoll, derartige Beschreibungen in einem standardisierten Formalismus, einer Dialogmodellierungssprache abzufassen, die sich somit in erster Näherung als eine "Programmiersprache" für eine generische Dialogmaschine auffassen lässt. Folglich stellt sich die Frage, wie eine geeignete Dialogmodellierungssprache aussehen könnte. In Bezug auf webbasierte Sprachportale wurde vom W3C die XML-basierte Dialogmodellierungssprache VoiceXML als Standardisierungsvorschlag erarbeitet ([7]). Im vorliegenden Dokument sollen zunächst Reichweite und Grenzen der Sprache VoiceXML evaluiert werden. Auf der Grundlage der Evaluation sollen strategischen Empfehlungen fur Unternehmen abgeleitet werden, die sich als Anwendungsentwickler auf dem Innovationsmarkt der telefonbasierten Sprachportale betätigen wollen. Die zentralen Fragen lauten: 1. Welches sind die zentralen Probleme der Entwicklung telefonbasierter Sprachportale? 2. Inwieweit löst VoiceXML diese Probleme? 3. Inwiefern lohnt es sich somit, (z.B. zwecks Herausbildung eines Alleinstellungsmerkmals) auf die Technologie VoiceXML zu setzen? 4. Welche Alternativen existieren? In welchen anderen Bereichen sollte man ggf. Kernkompetenzen herausbilden?
Die zunehmende Bedeutung des Internets für den Informationstransfer stellt Bibliotheken vor eine neue Herausforderung. Es stellt sich die Frage, in welcher Weise Bibliotheken auf diese Entwicklung reagieren können. Um dieser Frage nachzugehen, hat die Senckenbergische Bibliothek in Frankfurt eine Studie in Auftrag gegeben, die anhand einer bundesweiten Befragung das aktuelle Informationsverhalten wie auch den aktuellen Informationsbedarf von Biologen in Deutschland ermittelt hat. Die Befragung wurde im November 2003 durchgeführt. Biologen aus verschiedenen Tätigkeitsbereichen wurden nach Kenntnis, Nutzung und Wichtigkeit von konventionellen und neuen Informationsangeboten bzw. quellen befragt. Insgesamt haben 1582 Biologen an der Befragung teilgenommen. Die Ergebnisse sollen dazu beitragen, das Angebot der Sondersammelgebiete der Senckenbergischen Bibliothek den aktuellen Bedürfnissen ihrer Nutzer anzupassen und bei Bedarf ein zentrales Informationsportal für biologische Literatur- und Fachinformation aufzubauen, das den Erwartungen der Nutzer entspricht.
Elektronische (digitale) Zeitschriften spielen seit mehreren Jahren eine zunehmend wichtigere Rolle in der Informationsversorgung von Wissenschaft und Forschung. Während jedoch die Nutzungsformen sich so gut wie vollständig an den Standards des www mit all seinen Vorzügen orientieren, sind die Preisbildungsmechanismen noch stark an der Welt der gedruckten Zeitschriften orientiert. Sie unterliegen allerdings zur Zeit einem erheblichen Wandel, ohne dass erkennbar wäre, welche Preisstrukturen zukünftig den Markt bestimmen werden. Das seit November 2001 laufende DFG-Projekt "Perspektiven für den Bezug elektronischer Informationsressourcen in der Bundesrepublik Deutschland" hat sich zum Ziel gesetzt, die Marktsituation für elektronische Informationsversorgung im hochschulischen Bereich zu analysieren und davon ausgehend Perspektiven abzuleiten. In einer ersten Phase sollen zunächst die Nutzungsgewohnheiten seitens der Wissenschaftler und Studierenden untersucht werden. Die Ergebnisse werden in der vorliegenden Arbeit exemplarisch aufgezeigt, eine detaillierte Nutzungsanalyse wird zu einem späteren Zeitpunkt veröffentlicht.
Eine bedeutende Stelle der betrieblichen Funktionen nimmt die Beschaffung der Ware am Markt ein. Die Organisation des Beschaffungswesens ist dabei integraler Bestandteil der Unternehmensstrategie und führung. Die Beschaffung im engeren Sinne umfasst dabei den Einkauf von Anlagegütern, Roh-, Hilfs- und Betriebsstoffen, Fertigwaren sowie von Dienstleistungen (z. B. Transportleistungen) und Rechten (z. B. Lizenzen aus Patenten). Die Beschaffung ist neben der Produktions- und Absatzfunktion einer der Hauptbereiche betrieblicher Planung und Leistungserstellung [Bichler/Krohn 2001]. Die Hauptaufgabe des Einkaufs im Industrieunternehmen besteht in der Beschaffung von Materialen und Teilen nach den von den zuständigen Fachabteilungen vorgegebenen Qualitätsvorschriften, zu günstigen Konditionen und zum richtigen Zeitpunkt, wodurch die termingerechte Produktion sicher gestellt werden kann. Eine weiterführende Aufgabe des Einkaufs besteht in einer Analyse des Beschaffungsmarktes sowie in der Aufbereitung und Weitergabe von Informationen an den Vertrieb. Es sind die Hersteller auf dem Markt zu suchen und zu katalogisieren, welche die entsprechenden Materialien in gleich bleibender Qualität und zu günstigen Preisen liefern können [Bichler/Krohn 2001]. Die Organisation des Einkaufsprozesses stellt einen bedeutenden Problemfokus für die Unternehmensleitung dar. Gegenstand dieser Untersuchung ist die Fragestellung, wie sich Einkaufgenossenschaften im Bibliothekswesen optimal bilden sollen. Die Frage der Optimalität muss dazu zunächst präzisiert werden und wird vor dem Hintergrund verschiedener Zielsetzungen näher diskutiert. Einkaufsgenossenschaften und verbünde finden sich in der Praxis immer häufiger und stellen probate Mittel dar, die Kosten für den Bezug von nötigen Betriebsmaterialen nachhaltig zu senken. Im Sektor der wissenschaftlichen Informationsversorgung können seit einigen Jahren im Bereich der elektronischen Informationsressourcen ebenfalls Einkaufsverbünde in Form von Bibliothekskonsortien beobachtet werden. Ziel dieser Genossenschaften ist es, gemeinsam Lizenzen für elektronische Informationen zu erwerben. Die derzeitige Bezugspraxis zeigt, dass Konsortien überwiegend regional ausgerichtet sind und weniger auf thematischer Ebene agieren. Auch die Größe sowie Nachfragestruktur und intensität finden weitestgehend noch keine Beachtung. Diese Arbeit untersucht Vor- und Nachteile von Einkaufgenossenschaften und diskutiert verschiedene Entscheidungsmodelle zur Bestimmung einer optimalen Konsortialstruktur vor dem Hintergrund der derzeitig gegebenen Marktstrukturen im Sektor der wissenschaftlichen Informationsversorgung.
We address to the problem to factor a large composite number by lattice reduction algorithms. Schnorr has shown that under a reasonable number theoretic assumptions this problem can be reduced to a simultaneous diophantine approximation problem. The latter in turn can be solved by finding sufficiently many l_1--short vectors in a suitably defined lattice. Using lattice basis reduction algorithms Schnorr and Euchner applied Schnorrs reduction technique to 40--bit long integers. Their implementation needed several hours to compute a 5% fraction of the solution, i.e., 6 out of 125 congruences which are necessary to factorize the composite. In this report we describe a more efficient implementation using stronger lattice basis reduction techniques incorporating ideas of Schnorr, Hoerner and Ritter. For 60--bit long integers our algorithm yields a complete factorization in less than 3 hours.
Given a real vector alpha =(alpha1 ; : : : ; alpha d ) and a real number E > 0 a good Diophantine approximation to alpha is a number Q such that IIQ alpha mod Zk1 ", where k \Delta k1 denotes the 1-norm kxk1 := max 1id jx i j for x = (x1 ; : : : ; xd ). Lagarias [12] proved the NP-completeness of the corresponding decision problem, i.e., given a vector ff 2 Q d , a rational number " ? 0 and a number N 2 N+ , decide whether there exists a number Q with 1 Q N and kQff mod Zk1 ". We prove that, unless ...
We generalize the concept of block reduction for lattice bases from l2-norm to arbitrary norms. This extends the results of Schnorr. We give algorithms for block reduction and apply the resulting enumeration concept to solve subset sum problems. The deterministic algorithm solves all subset sum problems. For up to 66 weights it needs in average less then two hours on a HP 715/50 under HP-UX 9.05.
We present an efficient variant of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lov´asz [LLL82]. We organize LLL-reduction in segments of size k. Local LLL-reduction of segments is done using local coordinates of dimension 2k. Strong segment LLL-reduction yields bases of the same quality as LLL-reduction but the reduction is n-times faster for lattices of dimension n. We extend segment LLL-reduction to iterated subsegments. The resulting reduction algorithm runs in O(n3 log n) arithmetic steps for integer lattices of dimension n with basis vectors of length 2O(n), compared to O(n5) steps for LLL-reduction.
We study the following problem: given x element Rn either find a short integer relation m element Zn, so that =0 holds for the inner product <.,.>, or prove that no short integer relation exists for x. Hastad, Just Lagarias and Schnorr (1989) give a polynomial time algorithm for the problem. We present a stable variation of the HJLS--algorithm that preserves lower bounds on lambda(x) for infinitesimal changes of x. Given x \in {\RR}^n and \alpha \in \NN this algorithm finds a nearby point x' and a short integer relation m for x'. The nearby point x' is 'good' in the sense that no very short relation exists for points \bar{x} within half the x'--distance from x. On the other hand if x'=x then m is, up to a factor 2^{n/2}, a shortest integer relation for \mbox{x.} Our algorithm uses, for arbitrary real input x, at most \mbox{O(n^4(n+\log \alpha))} many arithmetical operations on real numbers. If x is rational the algorithm operates on integers having at most \mbox{O(n^5+n^3 (\log \alpha)^2 + \log (\|q x\|^2))} many bits where q is the common denominator for x.
Black box cryptanalysis applies to hash algorithms consisting of many small boxes, connected by a known graph structure, so that the boxes can be evaluated forward and backwards by given oracles. We study attacks that work for any choice of the black boxes, i.e. we scrutinize the given graph structure. For example we analyze the graph of the fast Fourier transform (FFT). We present optimal black box inversions of FFT-compression functions and black box constructions of collisions. This determines the minimal depth of FFT-compression networks for collision-resistant hashing. We propose the concept of multipermutation, which is a pair of orthogonal latin squares, as a new cryptographic primitive that generalizes the boxes of the FFT. Our examples of multipermutations are based on the operations circular rotation, bitwise xor, addition and multiplication.
With ubiquitous use of digital camera devices, especially in mobile phones, privacy is no longer threatened by governments and companies only. The new technology creates a new threat by ordinary people, who now have the means to take and distribute pictures of one’s face at no risk and little cost in any situation in public and private spaces. Fast distribution via web based photo albums, online communities and web pages expose an individual’s private life to the public in unpreceeded ways. Social and legal measures are increasingly taken to deal with this problem. In practice however, they lack efficiency, as they are hard to enforce in practice. In this paper, we discuss a supportive infrastructure aiming for the distribution channel; as soon as the picture is publicly available, the exposed individual has a chance to find it and take proper action.
Korrektur zu: C.P. Schnorr: Security of 2t-Root Identification and Signatures, Proceedings CRYPTO'96, Springer LNCS 1109, (1996), pp. 143-156 page 148, section 3, line 5 of the proof of Theorem 3. Die Korrektur wurde präsentiert als: "Factoring N via proper 2 t-Roots of 1 mod N" at Eurocrypt '97 rump session.
Let G be a finite cyclic group with generator \alpha and with an encoding so that multiplication is computable in polynomial time. We study the security of bits of the discrete log x when given \exp_{\alpha}(x), assuming that the exponentiation function \exp_{\alpha}(x) = \alpha^x is one-way. We reduce he general problem to the case that G has odd order q. If G has odd order q the security of the least-significant bits of x and of the most significant bits of the rational number \frac{x}{q} \in [0,1) follows from the work of Peralta [P85] and Long and Wigderson [LW88]. We generalize these bits and study the security of consecutive shift bits lsb(2^{-i}x mod q) for i=k+1,...,k+j. When we restrict \exp_{\alpha} to arguments x such that some sequence of j consecutive shift bits of x is constant (i.e., not depending on x) we call it a 2^{-j}-fraction of \exp_{\alpha}. For groups of odd group order q we show that every two 2^{-j}-fractions of \exp_{\alpha} are equally one-way by a polynomial time transformation: Either they are all one-way or none of them. Our key theorem shows that arbitrary j consecutive shift bits of x are simultaneously secure when given \exp_{\alpha}(x) iff the 2^{-j}-fractions of \exp_{\alpha} are one-way. In particular this applies to the j least-significant bits of x and to the j most-significant bits of \frac{x}{q} \in [0,1). For one-way \exp_{\alpha} the individual bits of x are secure when given \exp_{\alpha}(x) by the method of Hastad, N\"aslund [HN98]. For groups of even order 2^{s}q we show that the j least-significant bits of \lfloor x/2^s\rfloor, as well as the j most-significant bits of \frac{x}{q} \in [0,1), are simultaneously secure iff the 2^{-j}-fractions of \exp_{\alpha'} are one-way for \alpha' := \alpha^{2^s}. We use and extend the models of generic algorithms of Nechaev (1994) and Shoup (1997). We determine the generic complexity of inverting fractions of \exp_{\alpha} for the case that \alpha has prime order q. As a consequence, arbitrary segments of (1-\varepsilon)\lg q consecutive shift bits of random x are for constant \varepsilon >0 simultaneously secure against generic attacks. Every generic algorithm using $t$ generic steps (group operations) for distinguishing bit strings of j consecutive shift bits of x from random bit strings has at most advantage O((\lg q) j\sqrt{t} (2^j/q)^{\frac14}).
We modify the concept of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lovasz [LLL82] towards a faster reduction algorithm. We organize LLL-reduction in segments of the basis. Our SLLL-bases approximate the successive minima of the lattice in nearly the same way as LLL-bases. For integer lattices of dimension n given by a basis of length 2exp(O(n)), SLLL-reduction runs in O(n.exp(5+epsilon)) bit operations for every epsilon > 0, compared to O(exp(n7+epsilon)) for the original LLL and to O(exp(n6+epsilon)) for the LLL-algorithms of Schnorr (1988) and Storjohann (1996). We present an even faster algorithm for SLLL-reduction via iterated subsegments running in O(n*exp(3)*log n) arithmetic steps.
We present a practical algorithm that given an LLL-reduced lattice basis of dimension n, runs in time O(n3(k=6)k=4+n4) and approximates the length of the shortest, non-zero lattice vector to within a factor (k=6)n=(2k). This result is based on reasonable heuristics. Compared to previous practical algorithms the new method reduces the proven approximation factor achievable in a given time to less than its fourthth root. We also present a sieve algorithm inspired by Ajtai, Kumar, Sivakumar [AKS01].
We consider Schwarz maps for triangles whose angles are rather general rational multiples of pi. Under which conditions can they have algebraic values at algebraic arguments? The answer is based mainly on considerations of complex multiplication of certain Prym varieties in Jacobians of hypergeometric curves. The paper can serve as an introduction to transcendence techniques for hypergeometric functions, but contains also new results and examples.
Bei der Untersuchung des Langzeitverhaltens von Verzweigungsprozessen und räumlich verzweigenden Populationen ist die Betrachtung von Stammbäumen zunehmend in den Vordergrund gerückt. Probabilistische Methoden haben die in der Theorie vorherrschenden analytischen Techniken ergänzt und zu wesentlichen neuen Einsichten geführt. Die vorliegende Synopse diskutiert eine Auswahl meiner Veröffentlichungen der letzten Jahre. Den Arbeiten ist gemeinsam, dass durch das Studium der genealogischen Verhältnisse in der Population Aussagen über deren Langzeitverhalten gewonnen werden konnten. Zwei dieser Arbeiten behandeln den klassischen Galton-Watson Prozess. Eine weitere Arbeit befasst sich mit Verzweigungsprozessen in zufälliger Umgebung, sie ist technische wesentlich anspruchsvoller. Die vierte der hier besprochenen Arbeiten beschäftigt sich mit dem Wählermodell, einem der Prototypen interagierender Teilchensysteme.
Es wird eine Einführung in den Satz von Belyi und Grothendiecks Dessins d'enfants gegeben, hier Kinderzeichnungen genannt. Dieses Arbeitsgebiet ist in den letzten zwanzig Jahren entstanden und weist viele reizvolle Querverbindungen auf von der inversen Galoistheorie über die Teichm llerräume bis hin zur Mathematischen Physik. Das Schwergewicht des folgenden Beitrags liegt in den Beziehungen zu den Fuchsschen Gruppen und der Uniformisierungstheorie: Kinderzeichnungen bieten die Möglichkeit, für arithmetisch interessante Riemannsche Flächen - die als algebraische Kurven über Zahlkörpern definiert sind - Überlagerungsgruppen explizit zu beschreiben und umgekehrt aus gewissen Typen von Überlagerungsgruppen Kurvengleichungen zu gewinnen. Was hier aufgeschrieben ist, behandelt eigentlich nur bekanntes Material, gelegentlich mit neuen Beweisvarianten und Beispielen. Da aber noch keine zusammenfassende Einführung in das Thema existiert, hoffe ich, dass es als Vorlage für ein Seminar oder eine fortgeschrittene Vorlesung nützlich sein mag.
Intelligenz : ein relevantes differenzialdiagnostisches Merkmal bei Sprachentwicklungstörungen?
(2003)
Die Spezifische Sprachentwicklungsstörung (SSES) ist als erwartungswidrige Minderleistung der Sprachentwicklung im Vergleich zur kognitiven Entwicklung definiert. Untersucht wird, (1) ob sich für SSES-Kinder im Vergleich zu unterdurchschnittlich intelligenten sprachentwicklungsgestörten Kindern (SES-Lb) ein typisches Muster von sprachlichen Leistungen sowie von Teilleistungsstörungen nachweisen lässt, das für eine Differenzialdiagnostik und damit für eine Untergruppenbildung sprachentwicklungsgestörter Kinder nutzbringend eingesetzt werden kann, (2) ob und in welcher Weise eine solche Differenzierung Konsequenzen für die Diagnostik und nachfolgend für eine Therapie zeitigt und (3) ob es Defizite in umschriebenen Leistungsbereichen gibt, die als Bedingungsfaktoren für eine Sprachentwicklungsstörung gelten, sich aber als unabhängig von der Intelligenz erweisen. Eine Gruppe von 138 fünf- und sechsjährigen Kindern mit einer schweren Sprachentwicklungsstörung, von denen 108 eine normale nonverbale Intelligenz aufwiesen, wurde anhand von IDIS (Inventar diagnostischer Informationen bei Sprachentwicklungsauffälligkeiten) untersucht. Erfasst wurden neben den sprachlichen Fähigkeiten auf der phonetisch-phonologischen, der semantisch-lexikalischen, der morphologisch-syntaktischen und der pragmatischen Ebene auch die Intelligenz, die auditive und visuelle Wahrnehmung, die auditive und visuelle Merkfähigkeit, sowie die Fein- und Grobmotorik. In den meisten geprüften Bereichen zeigt sich ein deutlicher Effekt der Intelligenz auf die Leistungen, der nicht nur auf Unterschiede in der Profilhöhe, sondern auch im Profilverlauf, also auf strukturelle Leistungsdifferenzen, hinweist. Als ein von der Intelligenz unabhängiger Bedingungsfaktor für eine Sprachentwicklungsstörung gilt eine gestörte phonologische Schleife, das auditive Subsystem des Arbeitsgedächtnisses. Für die Beibehaltung der Differenzierung der Sprachentwicklungsstörungen nach der kognitiven Leistungsfähigkeit wird nicht nur aufgrund der unterschiedlichen Leistungsstrukturen plädiert, sondern auch, weil die therapeutischen Möglichkeiten in Abhängigkeit von der Intelligenz als verschiedenartig eingeschätzt werden.
As there are apparently no doubts concerning the existence of Nazi anti-Semitism before 1933 regarding this topic – having largely been ignored by scholars of contemporary history – seems to be no use. This article tends to trace the role of anti-Semitism during the ascend of the Nazi-movement. Therefore, the author describes the theoretic function of this phenomena for the NSDAP by referring to Hitler’s Weltanschauung and the official program of the party. But how did this anti-Jewish ideology find its way into the party’s day-to-day agitation? By analysing Hitler’s political speeches it is shown how, after 1925/26, the Führer tried to present himself as a moderate politician – for he had realised that the NSDAP had to become a mass-movement in order to gain political power in Weimar Germany. Vis-à-vis the party’s antisemitic membership, mainly retailers and graduates, anti-Jewish stereotypes were pushed in propaganda. Yet, National Socialist anti-Semitism was not only opportunist in that it was played up or down depending upon when and where it hit responsive chords, it was also subject to the regional Gauleiter if this phenomena was promoted like in Streicher’s Franconia or restricted like in Württemberg, Hamburg or Danzig. Only after the world-wide economic crisis of 1929 the NSDAP had considerable success in the Reichstag’s elections. The party presented itself as the only power being capable to establish a new order in Germany. The propaganda focused on the main enemies of the National Socialists: Communism and the liberal democracy – in this context, the anti-Semitism was negligible.
We calculate the kaon HBT radius parameters for high energy heavy ion collisions, assuming a first order phase transition from a thermalized Quark-Gluon-Plasma to a gas of hadrons. At high transverse momenta K_T ~ 1 GeV/c direct emission from the phase boundary becomes important, the emission duration signal, i.e., the R_out/R_side ratio, and its sensitivity to T_c (and thus to the latent heat of the phase transition) are enlarged. Moreover, the QGP+hadronic rescattering transport model calculations do not yield unusual large radii (R_i<9fm). Finite momentum resolution effects have a strong impact on the extracted HBT parameters (R_i and lambda) as well as on the ratio R_out/R_side.
We calculate the antibaryon-to-baryon ratios, anti-p/p, anti-Lambda/Lambda, anti-Xi/Xi, and anti-Omega/Omega for Au+Au collisions at RHIC (sqrt{s}_{NN}=200 GeV). The effects of strong color fields associated with an enhanced strangeness and diquark production probability and with an effective decrease of formation times are investigated. Antibaryon-to-baryon ratios increase with the color field strength. The ratios also increase with the strangeness content |S|. The netbaryon number at midrapidity considerably increases with the color field strength while the netproton number remains roughly the same. This shows that the enhanced baryon transport involves a conversion into the hyperon sector (hyperonization) which can be observed in the (Lambda - anti-Lambda)/(p - anti-p) ratio.
Report-no: UFTP-492/1999 Journal-ref: Phys.Rev. C61 (2000) 024909 We investigate flow in semi-peripheral nuclear collisions at AGS and SPS energies within macroscopic as well as microscopic transport models. The hot and dense zone assumes the shape of an ellipsoid which is tilted by an angle Theta with respect to the beam axis. If matter is close to the softest point of the equation of state, this ellipsoid expands predominantly orthogonal to the direction given by Theta. This antiflow component is responsible for the previously predicted reduction of the directed transverse momentum around the softest point of the equation of state.
The wide-area deployment of WiFi hot spots challenges IP access providers. While new profit models are sought after by them, profitability as well as logistics for large-scale deployment of 802.11 wireless technology are still to be proven. Expenditure for hardware, locations, maintenance, connectivity, marketing, billing and customer care must be considered. Even for large carriers with infrastructure, the deployment of a large-scale WiFi infrastructure may be risky. This paper proposes a multi-level scheme for hot spot distribution and customer acquisition that reduces financial risk, cost of marketing and cost of maintenance for the large-scale deployment of WiFi hot spots.
Central wage bargaining and local wage flexibility : evidence from the entire wage distribution
(1998)
We argue that in labor markets with central wage bargaining wage flexibility varies systematically across the wage distribution: local wage flexibility is more relevant for the upper part of the wage distribution, and flexibility of wages negotiated under central wage bargaining affects the lower part of the wage distribution. Using a random sample of German social-security accounts, we estimate wage flexibility across the wage distribution by means of quantile regressions. The results support our hypothesis, as employees with low wages have significantly lower local wage flexibility than high wage employees. This effect is particularly relevant for the lower educational groups. On the other hand, employees with low wages tend to have a higher wage flexibility with respect to national unemployment.
This paper shows that abnormal stock price returns around open market repurchase announcements are about four times higher in Germany than in the US (12% versus 3%). We hypothesize that this observation can be explained by country differences in repurchase regulation. Our empirical evidence indicates that German managers primarily buy back shares to signal an undervaluation of their firm. We demonstrate that the stringent repurchase process prescribed by German law attributes a higher credibility to such a signal than lax US regulations and thereby corroborate our hypothesis.
Im Rahmen einer Ereignisstudie am deutschen Kapitalmarkt wird untersucht, ob Adhoc- Mitteilungen korrekt eingesetzt werden. Die Ergebnisse belegen, daß Nemax-50-Unternehmen die Veröffentlichung potentiell positiver Meldungsinhalte bevorzugen und die Bekanntmachung negativer Mitteilungen verzögern. Außerdem veröffentlichen Nemax-50-Werte in positiven Marktphasen besonders viele Mitteilungen und einen besonders hohen Anteil an positiven Meldungsinhalten, um von der positiven Stimmung der Marktteilnehmer zu profitieren. Dax-30-Werte verhalten sich dagegen regelgerecht. Die Befunde belegen die Notwendigkeit einer stärkeren Überwachung des Veröffentlichungsverhaltens der Emittenten, die in 2002 am Neuen Markt gelistet waren.