Refine
Year of publication
Document Type
- Article (31800)
- Part of Periodical (11989)
- Book (8348)
- Doctoral Thesis (5772)
- Part of a Book (3973)
- Working Paper (3404)
- Review (2949)
- Preprint (2417)
- Contribution to a Periodical (2399)
- Conference Proceeding (1776)
Language
- German (43471)
- English (30833)
- French (1071)
- Portuguese (843)
- Multiple languages (320)
- Spanish (309)
- Croatian (302)
- Italian (198)
- mis (174)
- Turkish (168)
Keywords
- Deutsch (1086)
- Literatur (880)
- taxonomy (774)
- Deutschland (553)
- Rezension (516)
- new species (459)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (330)
- Geschichte (302)
Institute
- Medizin (7883)
- Präsidium (5281)
- Physik (4996)
- Extern (2742)
- Wirtschaftswissenschaften (2738)
- Gesellschaftswissenschaften (2383)
- Biowissenschaften (2212)
- Biochemie und Chemie (1985)
- Frankfurt Institute for Advanced Studies (FIAS) (1894)
- Informatik (1735)
We introduce a new method for representing and solving a general class of non-preemptive resource-constrained project scheduling problems. The new approach is to represent scheduling problems as de- scriptions (activity terms) in a language called RSV, which allows nested expressions using pll, seq, and xor. The activity-terms of RSV are similar to concepts in a description logic. The language RSV generalizes previous approaches to scheduling with variants insofar as it permits xor's not only of atomic activities but also of arbitrary activity terms. A specific semantics that assigns their set of active schedules to activity terms shows correctness of a calculus normalizing activity terms RSV similar to propositional DNF-computation. Based on RSV, this paper describes a diagram-based algorithm for the RSV-problem which uses a scan-line principle. The scan-line principle is used for determining and resolving the occurring resource conflicts and leads to a nonredundant generation of all active schedules and thus to a computation of the optimal schedule.
Ziel der hier pointiert zusammenfassenden Gesamtschau der Beobachtungen aus den unterschiedlichen Forschungsmodulen des 'Monitoringsystem Drogentrends' (MoSyD) ist es, sich abzeichnende Veränderungen (Trends) und Muster des Konsums legaler und illegaler Drogen in Frankfurt am Main herauszustellen. Die Darstellung abstrahiert weitgehend von konkreten Daten und Einzelbeobachtungen - diese finden sich ausführlich in den einzelnen Berichtsteilen dokumentiert, die jeweils mit detaillierten Zusammenfassungen enden. Eine Ausnahme bilden hier die punktuellen Vergleiche mit Beobachtungen aus Hamburg, die im Rahmen der dort erstmalig in der Intention eines Trendmonitorings durchgeführten Schülerbefragung gemacht wurden (vgl. Baumgärtner 2004, s. auch 3.2.3). Damit können die Ergebnisse unmittelbar mit aktuellen Daten aus einer in vielerlei Hinsicht vergleichbaren deutschen Großstadt verglichen werden. Zwecks weiterer Vergleichbarkeit werden die Ergebnisse der MoSyD-Schülerbefragung im Abschnitt zu Jugendlichen/ jungen Erwachsenen in Bezug zu den Ergebnissen der ersten deutschen Erhebungen im Rahmen der europäischen Schülerbefragung ESPAD (vgl. Hibel et al. 2000, Kraus et al. 2004) gesetzt.
Der vorliegende Bericht zur ‘Szenestudie 2002’ vermittelt eine aktuelle Situationsbeschreibung der offenen Drogenszene in Frankfurt am Main. Diese Studie zum Drogengebrauchsverhalten und Alltagsgeschehen auf der offenen Drogenszene versteht sich als eine Teilstudie im Rahmen eines komplexen Monitoringsystems (MoSyD _‘Monitoring-System Drogentrends’), welches in 2002 in der Stadt Frankfurt eingerichtet wurde, um zeitnah und umfassend neue Entwicklungen im Bereich des Konsums legaler wie illegaler Drogen verfolgen zu können (ausführlich: Kemmesies und Hess 2001). Die folgende Zusammenfassung gibt die zentralen Beobachtungen und Ergebnisse der Erhebung wieder. Diese Teilstudie vom MoSyD fokussiert auf den so genannten problematischen Kern des Drogenphänomens: Mit der Erscheinung offener Drogenszenen gehen vielfältige drogenpolitischen Herausforderungen einher. Diese beziehen sich sowohl auf sozial-medizinische wie strafrechtliche Aspekte, wie sie in den Stichworten Infektionskrankheiten, Beschaffungskriminalität, Deprivation, Verelendung et cetera geradezu greifbare Realität gewinnen. Aufgrund der enormen sozial-, gesundheits- wie ordnungspolitischen Herausforderungen und einer mitunter rasanten Veränderungsdynamik im mittelbaren und unmittelbaren Umfeld der offenen Drogenszene dokumentieren wir bereits hiermit - außerhalb des projektierten jährlichen Berichtsturnus vom MoSyD und zeitnah zur Interviewerhebung - unsere Beobachtungen. Im Vorgriff auf die konkreten Ergebnisse sei bereits angemerkt, dass sich die Situation offenbar innerhalb der letzten Jahre stark verändert hat: Wenn bisher eine offene Drogenszene in Deutschland in erster Linie mit dem klassischen Vorstellungsbild von einem intravenös Heroin konsumierenden ‘Junkie’ assoziiert war, so scheint diese Assoziation – zumindest mit Blick auf Frankfurt – die Realität nur noch äußerst gebrochen widerzuspiegeln. Denn Heroin hat seine dominierende Position auf dem Drogenschwarzmarkt verloren und an Kokain beziehungsweise dessen Derivat Crack abgegeben. Darüber hinaus hat sich der intravenöse Drogenkonsum insgesamt deutlich – um etwa die Hälfte – reduziert. Da systematisch vergleichbare Daten weit zurückreichen und erst aus dem Jahre 1995 vorliegen (Kemmesies 1995b), lässt sich nicht näher ergründen, wie es um die Dynamik der prozessualen Veränderungen bestellt ist: Befinden wir uns am Ende einer Entwicklung oder aber stecken wir mitten in einem grundsätzlichen Veränderungsprozess, innerhalb dessen sich das Bild der offenen Drogenszene grundlegend wandeln wird. Um einen besseren Einblick in die Veränderungsdynamik gewinnen zu können, schlagen wir vor, von dem ursprünglich im Rahmen vom MoSyD vorgesehenen zweijährigen Erhebungsturnus abzurücken und die Szenestudie bereits 2003 erneut durchzuführen. Ausgehend von zentralen Ergebnissen wäre näher zu ergründen, inwieweit der offensichtliche Trend einer Altersanhebung im Umfeld der offenen Drogenszene anhält, ob es zu einer fortschreitenden Ausweitung von kokain-/crackorientierten Drogengebrauchsmustern kommt, und inwieweit diese Entwicklungen sich im allgemeinen Gesundheitszustand der Drogenkonsumenten abbilden. Weiterhin wäre zu prüfen, ob die geplante Ausweitung der Substitutionsbehandlung in Gestalt des Heroinerprobungsprogramms sich auch auf das ‘typische’ Drogengebrauchsverhalten auf der offenen Drogenszene auswirkt.
Gitter sind diskrete, additive Untergruppen des IRm, ein linear unabhängiges Erzeugendensystem eines Gitters heißt Gitterbasis. Die Anzahl der Basisvektoren eines Gitters ist eindeutig bestimmt und heißt Rang des Gitters. Zu jedem Gitter vom Rang n gibt es mehrere Gitterbasen, die man alle erhält, indem man eine Basismatrix B = [b1, · · · , bn] von rechts mit allen Matrizen aus der Gruppe GLn(ZZ) multipliziert. Eine wichtige Fragestellung der Gittertheorie ist es, zu einem gegebenen Gitter einen kürzesten, vom Nullvektor verschiedenen Gittervektor zu finden. Dieses Problem heißt das kürzeste Gittervektorproblem . Ein dazu verwandtes Problem ist das "nächste Gittervektorproblem", das zu einem beliebigen Vektor x aus IRm einen Gittervektor sucht, dessen Abstand zu x minimal ist. Aus dem "kürzesten Gittervektorproblem" entwickelte sich die Gitterbasenreduktion, deren Ziel es ist, eine gegebene Gitterbasis in eine Gitterbasis zu transformieren, deren Vektoren bzgl. der Euklidischen Norm kurz und möglichst orthogonal zueinander sind. Wichtig für die Güte einer Reduktion ist der Begriff der sukzessiven Minima ¸1(L), · · · , ¸n(L) eines Gitters L. Dabei ist ¸i(L) die kleinste reelle Zahl r > 0, für die es i linear unabhängige Vektoren cj 2 L gibt mit kcjk · r für j = 1, · · · , i. Man versucht, für ein Gitter L eine Gitterbasis b1, · · · , bn zu finden, bei der die Größe kbik / ¸i(L) für i = 1, · · · , n möglichst klein ist. Für Gitter vom Rang 2 liefert das Gauß'sche Reduktionsverfahren eine Gitterbasis mit kbik = ¸i(L) für i = 1, 2. Eine Verallgemeinerung der Gauß-Reduktion auf Gitter mit beliebigem Rang ist die im Jahre 1982 von Lenstra, Lenstra, Lovasz vorgeschlagene L3-Reduktion einer Gitterbasis, deren Laufzeit polynomiell in der Bitlänge der Eingabe ist. L3-reduzierte Gitterbasen approximieren die sukzessiven Minima bis auf einen (im Rang des Gitters) exponentiellen Faktor. Die vorliegende Arbeit besteht aus zwei Teilen. Im ersten Teil (Kapitel 1-6) wird ein neues Reduktionskonzept von M. Seysen aus der Arbeit "A Measure for the Non-Orthogonality of a Lattice Basis" behandelt und im zweiten Teil (Kapitel 7) ein aktuelles Ergebnis von M. Ajtai über die Faktorisierung ganzer Zahlen aus "The Shortest Vector Problem in L2 is NP-hard for Randomized Reductions"[2]. Seysen führte in [13] zu einer gegebenen Gitterbasis b1, · · · , bn die Größe ¾(A) ein, die nur von den Einträgen der zugehörigen Gram-Matrix A = [b1, · · · , bn]T · [b1, · · · , bn] und der Inversen A 1 abhängt. Sie hat die Eigenschaft, daß für jede Gitterbasis b1, · · · , bn mit Gram-Matrix A gilt, daß ¾(A) ¸ 1, wobei die Gleichheit genau dann gilt, wenn b1, · · · , bn orthogonal ist. Aus dieser Defintion ergibt sich folgender Reduktionsbegriff: Eine Gitterbasis b1, · · · , bn mit Gram-Matrix A heißt genau dann ¿ -reduziert, wenn ¾(A) minimal für alle Basen des Gitters ist. Der wesentliche Unterschied der ¿-Reduktion zur L3-Reduktion ist, daß die Größe ¾(A) unabhängig von der Reihenfolge der Basisvektoren ist, so daß eine ¿ -reduzierte Gitterbasis bei beliebiger Permutation der Basisvektoren ¿ -reduziert bleibt. Die ¿-Reduktion reduziert also im Gegensatz zur L3-Reduktion die Basisvektoren gleichmäßig. Seysen zeigte, daß man zu jedem Gitter vom Rang n eine Gitterbasis mit Gram-Matrix A findet, so daß ¾(A) durch eO((ln n)2) beschränkt ist. Daraus läßt sich ableiten, daß ¿ -reduzierte Gitterbasen eines Gitters vom Rang n die sukzessiven Minima bis auf den Faktor eO((ln n)2) approximieren. Da es sich bei der ¿-Reduktion um einen sehr starken Reduktionsbegriff handelt, für den es schwer ist, einen effizienten Algorithmus zu finden, definiert man folgenden schwächeren Reduktionsbegriff: b1, · · · , bn heißt genau dann ¿2-reduziert, wenn keine Basistransformation der Form bj := bj +k · bi mit 1 · i 6= j · n und k 2 ZZ die Gr¨oße ¾(A) erniedrigt. Für n = 2 entspricht die ¿-Reduktion sowohl der ¿2- Reduktion als auch der Gauß-Reduktion. Für die ¿2-Reduktion findet man einen effizienten Algorithmus. Wendet man diesen Algorithmus auf Rucksackprobleme an, so ergibt sich, daß durch einen Algorithmus, bestehend aus ¿2-Reduktion und anschließender L3-Reduktion, bei großer Dichte und bei kleiner Dimension wesentlich mehr Rucksackprobleme gelöst werden als durch den L3-Algorithmus. Die Faktorisierung großer ganzer Zahlen ist ein fundamentales Problem mit großer kryptographischer Bedeutung. Schnorr stellte in [11] erstmals einen Zusammenhang zwischen Gitterbasenreduktion und Faktorisierung her, indem er das Faktorisieren ganzer Zahlen auf das "nächste Gittervektorproblem in der Eins-Norm" zurückführte. Adleman führte in [1] das Faktorisieren ganzer Zahlen sogar auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" zurück, allerdings unter zahlentheoretischen Annahmen. In [2] stellte Ajtai ein neues Ergebnis vor, in dem er das Faktorisieren ganzer Zahlen auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" ohne zusätzliche Annahmen zurückführte.
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
In the last decade, much effort went into the design of robust third-person pronominal anaphor resolution algorithms. Typical approaches are reported to achieve an accuracy of 60-85%. Recent research addresses the question of how to deal with the remaining difficult-toresolve anaphors. Lappin (2004) proposes a sequenced model of anaphor resolution according to which a cascade of processing modules employing knowledge and inferencing techniques of increasing complexity should be applied. The individual modules should only deal with and, hence, recognize the subset of anaphors for which they are competent. It will be shown that the problem of focusing on the competence cases is equivalent to the problem of giving precision precedence over recall. Three systems for high precision robust knowledge-poor anaphor resolution will be designed and compared: a ruleset-based approach, a salience threshold approach, and a machine-learning-based approach. According to corpus-based evaluation, there is no unique best approach. Which approach scores highest depends upon type of pronominal anaphor as well as upon text genre.
Assessing enhanced knowledge discovery systems (eKDSs) constitutes an intricate issue that is understood merely to a certain extent by now. Based upon an analysis of why it is difficult to formally evaluate eKDSs, it is argued for a change of perspective: eKDSs should be understood as intelligent tools for qualitative analysis that support, rather than substitute, the user in the exploration of the data; a qualitative gap will be identified as the main reason why the evaluation of enhanced knowledge discovery systems is difficult. In order to deal with this problem, the construction of a best practice model for eKDSs is advocated. Based on a brief recapitulation of similar work on spoken language dialogue systems, first steps towards achieving this goal are performed, and directions of future research are outlined.