Refine
Year of publication
Document Type
- Conference Proceeding (1289) (remove)
Language
Is part of the Bibliography
- no (1289) (remove)
Keywords
- Germanistik (54)
- Bologna-Prozess (32)
- Exzellenzinitiative (32)
- Theorie (32)
- Zukunft (32)
- Deutsch (24)
- Computerlinguistik (23)
- Kongress (23)
- Virtuelle Hochschule (23)
- Informationsstruktur (19)
Institute
- Physik (249)
- Medizin (193)
- Rechtswissenschaft (119)
- Universitätsbibliothek (97)
- Extern (69)
- Informatik (41)
- Geschichtswissenschaften (31)
- Gesellschaftswissenschaften (30)
- Frankfurt Institute for Advanced Studies (FIAS) (27)
- Erziehungswissenschaften (25)
Bei der Entwicklung und vor allem bei der institutions- und projektübergreifenden Nutzung von eLearning Modulen oder Lernobjekten spielen Standards und Spezifikationen zu deren Beschreibung und Verwaltung eine immer wichtigere Rolle. Nur auf deren Basis können sich langfristig Verwaltungs- und Verwertungsmodelle entwickeln, die eine breite Nutzung von eLearning Modulen bis hin zur Entwicklung eines entsprechenden Marktes ermöglichen. Aufgrund allgemeingültiger Spezifikation für die Beschreibung von Lernobjekten bis hin zu standardisierten Angaben für komplette online Kurse werden Anbieter und Nachfrager in Tauschbörsen, institutionsübergreifenden Kooperationen, fachspezifischen Datenbanken und Bildungsservern eLearning Ressourcen anbieten und nutzen. Projekte und Initiativen stehen jetzt vor der Aufgabe, sich einen Überblick über vorhandene Standards und Spezifikationen zu verschaffen, um für sich selbst die geeigneten auswählen und anwenden zu können. Oft werden aufgrund der projektspezifischen Anforderungen zudem eigene Beschreibungen entwickelt. Dadurch entsteht eine Vielzahl von Beschreibungen, die den Austausch und das Auffinden von Modulen über die Projektgrenzen hinaus schwierig wenn nicht unmöglich machen. Der in diesem Band dokumentierte Workshop "Standardisierung im eLearning" hat das Ziel, die aktuelle Diskussion um die Entwicklung und Anwendung von Standards aufzugreifen, transparent zu machen und fortzuführen. Veranstalter des Workshops sind das Kompetenzzentrum für Neue Medien in der Lehre der Johann Wolfgang Goethe-Universität Frankfurt/Main und der Projektträger Neue Medien in der Bildung + Fachinformation. Die Veranstaltung setzt die Reihe von themenspezifischen Begleitworkshops im Rahmen des Förderprogramms Neue Medien in der Bildung fort. Eine Übersicht zu bereits durchgeführten und in Planung befindlichen Begleitveranstaltungen finden Sie auf dem Internet-Portal des Projektträgers (http://www.medien-bildung.net).
Seit 2005 ist die Bibliothek des Südasien-Instituts in Kooperation mit der UB Heidelberg Trägerin des DFG-geförderten Sondersammelgebiets Südasien. Damit hat sie von der UB Tübingen ein traditionsreiches Sondersammelgebiet übernommen, dessen Geschichte bis ins Jahr 1949 zurückreicht. Der Vortrag wird zum Einen einen kurzen Überblick über den historischen Kontext des SSG Südasien geben und zum Anderen über Neuentwicklungen, wie z.B. die Virtuelle Fachbibliothek Südasien, die in den letzten zwei Jahren an der Bibliothek des Südasien-Instituts aufgebaut wurde. Vor diesem Hintergrund soll vor allem das Kooperationspotential im Bereich digitaler Informationsressourcen beleuchtet werden.
Wie wird man Formal- bzw. Sacherschließer?
Was macht ein Formal- bzw. Sacherschließer?
Unterschiedliche Traditionen. Ausblick in die Zukunft
Unterschiede in der derzeitigen Erschließungspraxis
Kooperative Erschließungsprogramme
Herkunft bibliografischer Datensätze: Wo kommen sie her?
Herausforderungen der Zukunft
The paper will provide a brief background to the history of the organization and cooperative efforts of African studies librarians in the United States including their efforts at international cooperation. Particular emphasis will be placed on the current opportunities for improved cooperation as digitization activities increase. Examples will include the DISA and Aluka initiatives and well as the Timbuktu manuscript digitization project at the Center for Research Libraries. Particular emphasis will placed on the possibilities for German-North American cooperation in the area of digital projects of historical photographs given the extensive collections held at Northwestern and Frankfurt.
... This year's Scientific Symposium of the University Library is already number six in the row. It was again prepared and organised like some of the previous conferences together with our North American partners. This means that a continuous specialists’ discussion and a professional partnership have been already installed. All librarians and information managers are invited to learn more about the results of this cooperation every year when it's time for the next Symposium during Frankfurt Book Fair. ...
Large American research libraries have been acquiring - by purchase and by lease - huge multi-disciplinary electronic collections of primary and secondary source materials. For example, the Digital Evans and Canadian Poetry easily make available to scholars primary materials that once were scattered in libraries across North America and Europe. The American State Papers, 1789 – 1838 collection allows easier searching of fragile rare materials. Collections made by libraries digitizing their own holdings, such the Archive of Early American Images from the John Carter Brown Library at Brown University, make research materials more discoverable and usable. Yet recent scholarship in American Studies by American and European scholars makes relatively little use of these new materials. Both disparities and congruities in what scholars use and what research libraries collect are apparent. Some simple reasons explain the dissonance. Furthermore, conversations with scholars suggest that materials and collections alone will not suffice to support research. Librarians’ skills and actions will increase the value of the new research materials.
The paper presents an overview about some of the international relevant projects of digital resources in Germany. Online presentations of primary sources, e.g. photographic material, and bibliographic tools supporting research, such as cross searching, will be presented as potential partners of resource sharing with North America. Not only the possibility of cooperation will be sketched, but also necessary preliminary work and some obstacles will be outlined. This report is accompanied by a short characterization of African studies in Germany and the status quo of Open Access-initiatives.
Ziel des Seminars war es, für die "Volkskrankheit Rückenschmerz" vom sportorthopädisch-traumatologisch-sportmedizinischen, vom internistischen, vom schmerztherapeutisch-neurochirurgischen und vom physiotherapeutischen Standpunkt aus neue, auf physiologisch-pathophysiologischen Kenntnissen basierende Sichtweisen mit Relevanz für Prävention und Therapie des verbreiteten Problems Rückenschmerz zu präsentieren.
Der Rückenschmerz als Folge der biomechanischen Besonderheit des "Zweibeiners" im Zeitalter der Hypomobilisation und Hyperalimentation - Lendenwirbelsäulen- und Halswirbelsäulen-Beschwerden (Dr. med. Udo Schreiber, Frankfurt am Main): Der Rückenschmerz - besonders der tiefe Rückenschmerz - des Menschen ist wahrscheinlich meist durch eine Fehlstatik verursacht. In Deutschland beträgt die Inzidenz von Rückenschmerzen während des Lebens fast 80%. Dr. Schreiber legte dar, dass die anatomische Längendifferenz der Beine zu verschiedenen Pathologien im Halte- und Bewegungsapparat führt. Die pathologischen Veränderungen - z.B. transversaler Schub auf das Ileosakralgelenk - treten meistens auf der längeren Beinseite mit einer Skoliose der Wirbelsäule mit erhöhten Druckbelastungen auf der Konkavseite der Skoliose in den Bandscheiben und mit typischen Blockaden in den verschiedenen Wirbelsäulensegmenten auf. Sinnvolle Diagnostik beinhaltet Anamnese und umfangreiche klinische Untersuchung zum Erkennen von Funktionsdefiziten anstelle von nur bildgebender Diagnostik. Sinnvolle Therapien sind - neben analgetischen Therapien, wie manueller Therapie, Matrix-Rhythmus-Therapie, wassergefiltertem Infrarot A (wIRA), Ohrakupunktur, Magnetfeldresonanztherapie, Mikrostromtherapie, Injektionstherapie - vor allem die therapeutisch-präventiven Maßnahmen Dehnen verkürzter Muskulatur und partieller Ausgleich von Beinlängendifferenzen. Wirtschaftlich gesehen verursacht die Fehlstatik immense indirekte und direkte Krankheitskosten, wobei die aufgezeigten sinnvollen Therapien zielführend und zugleich kostengünstig sind.
Ein ganzheitliches Therapiekonzept mit Matrix-Rhythmus-Therapie, Hyperthermie, Sauerstoff und Entsäuerung - Therapie von muskulo-skelettalen Beschwerden (Dr. med. Bernhard Dickreiter, Nordrach): Die Kosten zur Behandlung von Rückenschmerzen belasten in den vergangenen Jahren zunehmend die Krankenkassen durch Diagnose- und Therapiekosten sowie die Betriebe durch Ausfallzeiten. Rückenschulkonzepte der vergangenen Jahre zeigen aus Sicht von Dr. Dickreiter nicht den gewünschten Effekt. Vielversprechende neue Sichtweisen für den Umgang mit diesem Krankheitsbild ergeben sich aus den aktuellen Ergebnissen der zellbiologischen Grundlagenforschungen und dem daraus resultierenden neuen "Matrix-Therapie-Konzept": Die Ursache der muskulo-skelettalen Beschwerden im Sinne eines myofaszialen, myo-ischämisch-azidotischen und myotendinitischen Schmerzsyndroms wird in der Verspannung der Muskulatur mit einer Energiekrise auf zellulärer Ebene gesehen. Beim neuen Therapiekonzept steht nicht eine Therapiefülle wie bisher im Vordergrund, sondern ein auf Effektivität ausgerichtetes modulares Konzept, welches die zellbiologischen Prozesse auf extrazellulärer Matrixebene gezielt beeinflusst. Wesentliche Bestandteile des Konzepts sind die Matrix-Rhythmus-Therapie als tiefenwirksame Mikroextensionstechnik, die lokale Wärme mit wassergefiltertem Infrarot A (wIRA) bzw. die Infrarot-Ganzkörperhyperthermie, die körperliche Bewegung zur lokalen Verbesserung der Sauerstoffversorgung, die Sauerstofftherapie einschließlich Hyperbarer Oxygenation (HBO) und die orthomolekulare Substitution und "gesunde" Ernährung.
Konservative, interventionelle und operative Verfahren aus der Sicht des Schmerztherapeuten und Neurochirurgen: Stellenwert im Hinblick auf ein integriertes Behandlungskonzept (Dr. med. Volker Ritzel, Offenbach am Main): Mit einem interdisziplinären Therapiekonzept (Hausarzt; Orthopädie, Neurochirurgie, Schmerztherapie, Krankengymnastik/Physiotherapie, Psychotherapie) multimodal mit Nutzung konservativer, interventioneller und operativer Verfahren können heute Rückenschmerzen erfolgreich behandelt werden. Dabei ist besonders auf eine rechtzeitige suffiziente Therapie Wert zu legen (u.a. protektive, antizipierende Analgesie), um die Ausbildung eines Schmerzgedächtnisses mit Chronifizierung und Verselbstständigung des Schmerzes zu vermeiden. Zu den konservativen Therapiemöglichkeiten gehören neben einer medikamentösen Schmerztherapie nach dem WHO-Stufenschema die Transkutane elektrische Nervenstimulation (TENS), Physiotherapie, Psychotherapie, übende Verfahren (Progressive Muskelentspannung nach Jakobsen, Autogenes Training, Göttinger Rücken-Aktiv-Programm GRAP), Ergotherapie, Akupunktur und Balneotherapie. Weitere schmerztherapeutisch-neurochirurgische Verfahren sind die therapeutische Lokalanästhesie, CT-gesteuerte Verfahren, die perkutane Laser-Diskus-Dekompression, denervierende Verfahren, die endoskopische Sequestrektomie, die Vertebroplastie, offen-operative Verfahren, die mikrochirurgische Dekompression sowie Implantatverfahren wie die minimal-invasive zervikale und lumbale Spondylodese. Ambulante/Praxisklinische Operationen können heute in einer neurochirurgischen Praxisklinik im Rahmen des modernen Konzepts der Integrationsversorgung erfolgen.
Rückenschule zur primären, sekundären und tertiären Prävention - Lebensstiländerung, Krankengymnastik/Physiotherapie - im Zeitalter integrierter ambulanter Versorgung (Monika Kremer, Frankfurt am Main): Moderne Therapiestrategien bevorzugen - soweit möglich - ein konservatives gegenüber einem operativen Vorgehen, ein aktives gegenüber einem passiven, ein multimodales gegenüber einem monotherapeutischen Vorgehen. Bewegungs- und trainingstherapeutische Maßnahmen (z.B. Erweiterte Ambulante Physiotherapie EAP als Komplextherapie mit den Bestandteilen Krankengymnastik/Physiotherapie, Physikalische Therapie und Medizinische Trainingstherapie MTT) sind wichtige Bestandteile moderner Rückenkonzepte. Die Arbeitsplatzsituation wird besonders berücksichtigt mit zunehmender Integration von Ergonomie-Trainingsprogrammen. Der Begriff "Präventive Rückenschule" umfasst die Vermittlung und Anwendung wirkungsvoller Alltagsstrategien zur Vermeidung hoher Rückenbelastungen, um der Entwicklung funktioneller und degenerativer Krankheiten vornehmlich im Bereich der Wirbelsäule einschließlich muskulärer Dysbalancen vorzubeugen. Hierzu gehört ein rückengerechtes Alltagsverhalten (z.B. richtiges körpernahes Heben und Tragen). Besonders effektiv sind aktive Trainingsformen zum Muskelaufbau und zur Verbesserung der Ausdauer in Kombination mit verhaltensorientierten Trainingsprogrammen mit dem Ziel der Steigerung von Wohlbefinden und Lebensqualität. Erläutert werden das Konzept des Forschungs- und Präventionszentrums Köln (FPZ), das Kieser-Training, das Baunataler Rücken-Konzept (BRK) und das tergumed®-Rückenkonzept. Häufig können Rückenschmerzen durch rückengerechte Verhaltensweisen sowie präventives und rehabilitatives Rückentraining vermieden werden oder es kann nach ihrem Auftreten rehabilitativ wieder ein schmerzfreier stabiler Gesundheitszustand erreicht werden.
Die in den beiden letzten Jahren abgeschlossenen Nationallizenzen haben Tatsachen geschaffen, die den Start zu einer Umstrukturierung der überregionalen Informationsversorgung erleichtern: - Versorgungslücken wurden geschlossen. - Die Durchdringung der Hochschulen und Forschungseinrichtungen mit elektronischer Fachinformation wurde vergleichbaren Ländern angeglichen. - Wissenschaftler, Studierende und wissenschaftlich interessierte Privatpersonen haben deutschlandweit kostenlosen Zugang zu einem fachlich breit gestreuten Angebot an retrospektiven Datenbanken, digitalen Textsammlungen und elektronischen Zeitschriften.
Retiming is a widely investigated technique for performance optimization. It performs powerful modifications on a circuit netlist. However, often it is not clear, whether the predicted performance improvement will still be valid after placement has been performed. This paper presents a new retiming algorithm using a highly accurate timing model taking into account the effect of retiming on capacitive loads of single wires as well as fanout systems. We propose the integration of retiming into a timing-driven standard cell placement environment based on simulated annealing. Retiming is used as an optimization technique throughout the whole placement process. The experimental results show the benefit of the proposed approach. In comparison with the conventional design flow based on standard FEAS our approach achieved an improvement in cycle time of up to 34% and 17% on the average.
Retiming is a widely investigated technique for performance optimization. In general, it performs extensive modifications on a circuit netlist, leaving it unclear, whether the achieved performance improvement will still be valid after placement has been performed. This paper presents an approach for integrating retiming into a timing-driven placement environment. The experimental results show the benefit of the proposed approach on circuit performance in comparison with design flows using retiming only as a pre- or postplacement optimization method.
This paper presents a new timing driven approach for cell replication tailored to the practical needs of standard cell layout design. Cell replication methods have been studied extensively in the context of generic partitioning problems. However, until now it has remained unclear what practical benefit can be obtained from this concept in a realistic environment for timing driven layout synthesis. Therefore, this paper presents a timing driven cell replication procedure, demonstrates its incorporation into a standard cell placement and routing tool and examines its benefit on the final circuit performance in comparison with conventional gate or transistor sizing techniques. Furthermore, we demonstrate that cell replication can deteriorate the stuck-at fault testability of circuits and show that stuck-at redundancy elimination must be integrated into the placement procedure. Experimental results demonstrate the usefulness of the proposed methodology and suggest that cell replication should be an integral part of the physical design flow complementing traditional gate sizing techniques.
We present new concepts to integrate logic synthesis and physical design. Our methodology uses general Boolean transformations as known from technology-independent synthesis, and a recursive bi-partitioning placement algorithm. In each partitioning step, the precision of the layout data increases. This allows effective guidance of the logic synthesis operations for cycle time optimization. An additional advantage of our approach is that no complicated layout corrections are needed when the netlist is changed.
The languages of the world differ with respect to argument extraction possibilities. In languages such as English, wh-movement is possible from Spec IP and from the complement position, whereas in languages such as Malagasy only extraction from Spec IP is possible. This difference correlates with the fact that these language types obey different island constraints and behave differently with respect to wh-in situ and superiority effects. The goal of this paper is to outline an analysis for these differences. The basic idea is that in contrast to languages such as English, in Malagasy-type languages every argument can be merged in the complement position of the selecting head.
Expletives as features
(2000)
Expletives have always been a central topic of theoretical debate and subject to different analyses within the different stages of the Principles and Parameter theory (see Chomsky 1981, 1986, 1995; Lasnik 1992, 1995; Frampton and Gutman 1997; among others). However, most analyses center on the question how to explain the behavior of expletives in A-chains (such as there in English or Þad in Icelandic). No account relates wh-expletives (as one finds them in so-called partial wh-movement constructions in languages such as Hungarian, Romani, and German) to expletives in Achains. In this paper, I argue that the framework of the Minimalist Program opens up the possibility of accounting for expletive-associate relations in A-/A'-chains in a unified manner. The main idea of the unitary analysis is that an expletive is an overtly realized feature bundle that is (sub)extracted from its associate DP. There in an expletive-associate chain is a moved D-feature which orginates inside the associate DP. Similarily, in A'-chains, the whexpletive originates as a focus-/wh-feature in the wh-phrase with which it is associated. This analysis provides evidence for the feature-checking theory in Chomsky (1995). The paper is organized as follows. Section 2 contains the discussion of expletive there. In section 3 I suggest an analysis for whexpletives, and I also explore whether this analysis can be extended to relations between X°-categories such as auxiliary and participle complexes.
In this paper I show that Clitic Climbing (CC) in Spanish and Long Scrambling (LS) in German (and Polish) are (im-)possible out of the same environments. For an explanation of this fact I propose a feature-oriented analysis of incorporation phenomena. The idea is that restructuring is a phenomenon of syntactic incorporation. In German and Polish, Agro incorporates covertly into the matrix clause and licenses LS out of the infinitival into the matrix clause. Similarily the clitic in Spanish, which is analysed as an Agro-head, incorporates into the matrix clause. I argue that this movement is necessary for reasons of feature-checking, i. e. for checking of an [+R]- or Restructuring-feature. In section 2 I discuss several differences between CC and LS. For example, the proposed analysis correctly predicts that clitics in contrast to scrambled phrases are subject to several serialization restrictions. Throughout the paper I use the term restructuring only in a descriptive sense, in order to describe the phenomenon in question.
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
Flight paths of homing pigeons were measured with a newly developed recorder based on GPS. The device consists of a GPS receiver board, a logging facility, an antenna, a power supply, a DCDC converter and a casing. It has a weight of 33g and works reliably with a sampling rate of 1/s with an operation time of about 3 h, providing timeindexed data on geographic positions, ground speed and altitude. The data are downloaded when the bird is recaptured. The devices are fixed to the birds with a harness. The measured complete flight paths show many details: e.g. initial loops flown immediately after release and large detours flown by some pigeons. We are here presenting 3 examples of flight paths from a release site 17.3 km Northeast of the home loft in Frankfurt. Mean speed in flight, duration of breaks and length of the flight path were calculated. The pigeons chose different routes and have different individual tendencies to fly loops over the village close to the release site.
This paper describes a first version of the GPS flight recorder for homing pigeons. The GPS recorder consists of a hybrid GPS board, a patch antenna 19*19 mm, a 3 V Lithium battery as power supply, a DCDC converter, a logging facility and an additional microprocessor. It has a weight of 33g. Prototypes were tested and worked reliably with a sampling rate of 1/sec and with an operation time of about 3 h. In first tests on homing pigeons 9 flight paths were recorded, showing details like loops flown immediately after the release, complete routes over 30 km including detours, rest periods and speed.
Location-based services (LBS) are services that position your mobile phone to provide some context-based service for you. Some of these services – called ‘location tracking’ applications - need frequent updates of the current position to decide whether a service should be initiated. Thus, internet-based systems will continuously collect and process the location in relationship to a personal context of an identified customer. This paper will present the concept of location as part of a person’s identity. I will conceptualize location in information systems and relate it to concepts like privacy, geographical information systems and surveillance. The talk will present how the knowledge of a person's private life and identity can be enhanced with data mining technologies on location profiles and movement patterns. Finally, some first concepts about protecting location information.
Mobile telephony and mobile internet are driving a new application paradigm: location-based services (LBS). Based on a person’s location and context, personalized applications can be deployed. Thus, internet-based systems will continuously collect and process the location in relationship to a personal context of an identified customer. One of the challenges in designing LBS infrastructures is the concurrent design for economic infrastructures and the preservation of privacy of the subjects whose location is tracked. This presentation will explain typical LBS scenarios, the resulting new privacy challenges and user requirements and raises economic questions about privacy-design. The topics will be connected to “mobile identity” to derive what particular identity management issues can be found in LBS.
Information literacy is a mosaic of attitudes, understandings, capabilities and knowledge about which there are three myths. The first myth is that it is about the ability to use ICTs to access a wealth of information. The second is that students entering higher education are information literate because student centred, resource based, and ICT focused learning are now pervasive in secondary education. The third myth is that information literacy development can be addressed by library-centric generic approaches. This paper addresses those myths and emphasises the need for information literacy to be recognised as the critical whole of education and societal issue, fundamental to an information-enabled and better world. In formal education, information literacy can only be developed by infusion into curriculum design, pedagogies, and assessment.
Navigating information, facilitating knowledge: the library, the academy, and student learning
(2004)
Understanding the nature and complementarity of the phenomena of information and knowledge lend not only epistemological clarity to their relationship, but also reaffirms the place of the library in the academic mission of knowledge transfer, acquisition, interpretation, and creation. These in turn reassert the legitimacy of the academic library as necessary participant in the teaching enterprise of colleges and universities. Such legitimacy induces an obligation to teach, and that obligation needs to be explored and implemented with adequate vigor and reach. Librarians and the academy must, however, concede that the scope of the task calls for a solution that goes beyond shared responsibilities. Academic libraries should assume a full teaching function even as they continue their exploration and design of activities and programs aimed at reinforcing information literacy in the various disciplines on campus. All must concede that need for collaboration cannot provide grounds for questioning the desirability of autonomous teaching status for the academic library in information literacy education
Damping cells for the higher order modes are necessary for the S-band linear collider to minimize BBU (Beam-Break-Up). The construction of the damper cells has to take into account the different field geometries of the higher order modes. So two different types of dampers have been designed: a wall slotted an an iris slotted cell. In order to optimize the two types of damping cells with respect to damping strength, impedance matching between coupling system and waveguide dampers and between damping cell and undamped cells and the tuning system, damping cells of both types have been built and examinated.
To reach high luminosities in future linear colliders short range wakes havea to be controlled in the range of X-band frequencies or higher. Rectangular irises can be used to introduce strong focusing quadrupole-like rf-fields. Even circular irises in iris-loaded accelarator structures have the capability of focusing if the particle velocity differs from phase velocity. Theoretical investigations concerning the focusing strength to be expected are presented. Their applicability for linear colliders is discussed.
A new method of measuring quality factors in cavities is presented. This method is well suited to measure quality factors in undamped cavities as well as in heavily damped cavities, and in addition this method provides a possibility of separating modes and measuring quality factors especially in cases of overlapping modes. Measurements have been carried out on HOM-damped cavities for the DESY/THD linear collider project. Results are presented.
Due to the additional need of very short bunches for the FEL operation with the TESLA-machine strong wakefield effects are expected. One third of the total wakefield energy per bunch is radiated into the frequency region above the energy gap of Cooper pairs in superconducting niobium. The energy of the cooper pairs in superconducting niobium at 2 K corresponds to a frequency of 700 GHz. An analytical and experimental estimation for the overall energy loss of the FEL bunch above energy gap is presented. The analytical method is based on a study from R. B. Palmer [1]. The results of the wakefield estimations are used to calculate possible quality factor reduction of the TESLA cavities during FEL operation. Results are presented.
While science claims to be universal, the notion of universality actually covers two very different facets: on the one hand, it refers to the universal value of the epistemological claims of science while, on the other hand, it addresses the issue of how fully the process of scientific communication is presently globalized. How the issue of open access crosses that of the globalization of scientific communication will be the theme of this presentation. The conclusion will be that, without open access, the globalization of scientific communication will lead to increased knowledge and digital divisions.
In this increasingly complex world of learned information delivery and discovery - is it possible that the "free lunch" the Publishing world worries about could come true? Although Open Access and Institutional Repositories have not (yet) created the "scorched earth" effect many were predicting, they are slowly and inevitably gaining momentum. Broader access to top-level information via Google (and others) does indeed appear to be "good enough" for many in their search for content. But you rarely get food for free in a good quality restaurant. You pay for the selection, preparation, speed and expertise of the delivery. At the soup kitchen the food can often be filling - but the queue will be long, the wait even longer and there is no chance of silver service or à la carte. If you are unfortunate enough to have little choice then this may be a great solution. Others will be willing to pay for a more satisfactory meal. As in all aspects of life, diversification and specialisation are fundamental forces. The publishing community in the years to come will continue to develop its offerings for a variety of needs that require more than just broth. To stretch the analogy, the ongoing presence of tap water in our lives has done little to halt the extraordinary rise of bottled water as part of our staple diet. Business reality will continue to settle these types of debate; my bet is that the commercial publishers see a role as providing information that commands an intrinsic value proposition to enough customers to remain economically viable for some time to come. Inspired by the comments and ideas expounded by Dr. James O'Donnell of Georgetown University on the liblicense listserv on 20th July this year, this paper will look to expand on the analogy and identify the good, the bad - but importantly the difference in information quality and access that will result in the radically changed (but still co-existent) information landscape of tomorrow.
The economical and organizational debates about open access have mostly been concerned with journals. This is not surprising since the open access movement can be seen largely as a response to the serials crisis. Recently the open access debate has been extended to include access to government produced data in different forms. In this presentation I'll critically look at some economic and organizational issues pertaining to the open access provision of bibliographical data.
In keeping with the views of its guru, Stephen Harnard, the open access movement is only prepared to discuss the two models of the "green road" and the "golden road" as sole alternatives for the future of scientific publishing. The "golden road" is put forward as the royal road for solving the journals crisis. However, no one has drawn attention to the fact that the golden road represents a purely socialist solution to a free-market problem and thus continues the "samizdat" tradition of underground literature in the former Eastern bloc. The present paper reveals the alarmingly low level at which the open access movement intends to publish top-class results from science and research, and the low degree of professionalism with which they are satisfied.
Der Vortrag wurde am 5th Frankfurt Scientific Symposium gehalten (22-23 Oktober 2005). Die Betrachtung des Videos ist (leider) nur mit den Browsern Internet Explorer ab 5.0, Netscape Navigator ab 7.0 oder Internet Explorer ab 5.2.2 für MaC möglich (s. Dokument 1.html). Die gesamten Tagungsbeiträge sind unter http://publikationen.ub.uni-frankfurt.de/volltexte/2005/1992/ abrufbar.
Course management software : supporting the university’s teaching with technology initiatives
(2004)
An increasingly important element of the teaching with technology activities at Northwestern University is the course management system, a web-based class communication and administration environment. The usage growth of the system is substantial and amplifies the need for integration with other web services and resources. Integration is particularly material in area of library services. This presentation contains a case study of Northwestern University's implementation of its course management system software and highlights examples of how the system is being used to enhance the teaching and learning. A description of the integration efforts with library resources is provided. The goal of the presentation is to equip librarians with the basic knowledge required to engage with their colleagues in conversations surrounding the nature of integration of these systems within the teaching and learning landscapes of their home institutions.
The key hypothesis is that the IT industry lure us into the IT world with a promise to solve our information problems. Do we sign the contract, we will recognise that the IT industry can´t keep the promise. One reason: they themselves lost sight over there own game. Therefore they have to invent new tools continiously. LIS professionals should not leave the field IT professionals. LIS professional should rather put stress on to reveal the difference in the value chain between data – information – knowledge. Information and knowledge is brainware and not produced by hard and software in the sense of IT philosophy. Against the background of the language game of Jean-François Lyotard, the author explains the information and knowledge society as language game invented by the IT industry. Furthermore his beliefs of postmodernen LIS professionals and the consequences involved for LIS traning will be presented.
US investors hold much less foreign stocks than mean/variance analysis applied to historical data predicts. In this article, we investigate whether this home bias can be explained by Bayesian approaches to international asset allocation. In contrast to mean/variance analysis, Bayesian approaches employ different techniques for obtaining the set of expected returns. They shrink sample means towards a reference point that is inferred from economic theory. We also show that one of the Bayesian approaches leads to the same implications for asset allocation as mean-variance/tracking error criterion. In both cases, the optimal portfolio is a combination the market portfolio and the mean/variance efficient portfolio with the highest Sharpe ratio.
Applying the Bayesian approaches to the subject of international diversification, we find that substantial home bias can be explained when a US investor has a strong belief in the global mean/variance efficiency of the US market portfolio and when he has a high regret aversion falling behind the US market portfolio. We also find that the current level of home bias can justified whenever regret aversion is significantly higher than risk aversion.
Finally, we compare the Bayesian approaches to mean/variance analysis in an empirical out-ofsample study. The Bayesian approaches prove to be superior to mean/variance optimized portfolios in terms of higher risk-adjusted performance and lower turnover. However, they not systematically outperform the US market portfolio or the minimum-variance portfolio.
In the current globalization debate the law appears to be entangled in economic and political developments which move into a new dimension of depoliticization, de-centralization and de-individualization. For all the correct observations in detail, though, this debate is bringing about a drastic (polit)economic reduction of the role of law in the globalization process that I wish to challenge in this paper. Here one has to take on Wallerstein’s misconception of “worldwide economies” according to which the formation of the global society is seen as a basically economic process. Autonomous globalization processes in other social spheres running parallel to economic globalization need to be taken seriously. In protest against such (polit)economic reductionism several strands of the debate, among them the neo-institutionalist theory of “global culture”, post-modern concepts of global legal pluralism, systems theory studies of differentiated global society and various versions of “global civil society” have shaped a concept of a polycentric globalization. From these angles the remarkable multiplicity of the world society, in which tendencies to re-politicization, re-regionalization and re-individualization are becoming visible at the same time, becomes evident. I shall contrast two current theses on the globalization of law with two less current counter-theses: First thesis: globalization is relevant for law because the emergence of global markets undermines the control potential of national policy, and therefore also the chances of legal regulation. First counter-thesis: globalization produces a set of problems intrinsic to law itself, consisting in a change to the dominant lawmaking processes. Second thesis: globalization means that the law institutionalizes the worldwide shift in power from governmental actors to economic actors. Second counter-thesis: globalization means that the law has a chance of contributing to a dual constitution of autonomous sectors of world society.
The hadronic final state of central Pb+Pb collisions at 20, 30, 40, 80, and 158 AGeV has been measured by the CERN NA49 collaboration. The mean transverse mass of pions and kaons at midrapidity stays nearly constant in this energy range, whereas at lower energies, at the AGS, a steep increase with beam energy was measured. Compared to p+p collisions as well as to model calculations, anomalies in the energy dependence of pion and kaon production at lower SPS energies are observed. These findings can be explained, assuming that the energy density reached in central A+A collisions at lower SPS energies is sufficient to transform the hot and dense nuclear matter into a deconfined phase.
Vor gut einem Jahr ist im Archiv für die civilistische Praxis ein Aufsatz erschienen, in welchem ich mich mit den Perspektiven des Verbrauchervertragsrechts nach der Schuldrechtsreform auseinandergesetzt habe. Der leicht provozierende Unterton der dort vorgetragenen Kritik hat nun nicht nur – wie beabsichtigt – den einen oder anderen Leser zum Lachen verführt, sondern offensichtlich auch Irritationen bezüglich der Richtung hervorgerufen, in die der Verbraucherschutzzug in Zukunft fahren soll: zurück in die Siebziger Jahre und – nach erneutem Schlagen vergangener Schlachten – ins bürgerliche Formalrecht des 19. Jahrhundert? Oder was soll mit dem Stichwort "Prozedurales Verbrauchervertragsrecht" gemeint sein? Ich möchte an dieser Stelle einen Präzisierungsversuch unternehmen.
We present a detailed study of chemical freeze-out in nucleus-nucleus collisions at beam energies of 11.6, 30, 40, 80 and 158A GeV. By analyzing hadronic multiplicities within the statistical hadronization approach, we have studied the chemical equilibration of the system as a function of center of mass energy and of the parameters of the source. Additionally, we have tested and compared different versions of the statistical model, with special emphasis on possible explanations of the observed strangeness hadronic phase space under-saturation.
Fluctuations and NA49
(2005)
The knowledge of the build up time of space charge compensation (SCC) and the investigation of the compensation process is of main interest for low energy beam transport of pulsed high perveance ion beams under space charge compensated conditions. To investigate experimentally the rise of compensation an LEBT system consisting of a pulsed ion source, two solenoids and a drift tube as diagnostic section has been set up. The beam potential has been measured time resolved by a residual gas ion energy analyser (RGA). A numerical simulation for the calculation of self-consistent equilibrium states of the beam plasma has been developed to determine plasma parameters which are difficult measure directly. The results of the simulation has been compared with the measured data to investigate the behavior of the compensation electrons as a function of time. The acquired data shows that the theoretical rise time of space charge compensation is by a factor of two shorter than the build up time determined experimentally. In view of description the process of SCC an interpretation of the gained results is given.
High perveance negative ion beams with low emittance are essential for several next generation particle accelerators (i. g. spallation sources like ESS [1] and SNS [2]). The extraction and transport of these beams have intrinsic difficulties different from positive ion beams. Limitation of beam current and emittance growth have to be avoided. To fulfill the requirements of those projects a detailed knowledge of the physics of beam formation the interaction of the H- with the residual gas and transport is substantial. A compact cesium free H- volume source delivering a low energy high perveance beam (6.5 keV, 2.3 mA, perveance K= 0.0034) has been built to study the fundamental physics of beam transport and will be integrated into the existing LEBT section in the near future. First measurements of the interaction between the ion beam and the residual gas will be presented together with the experimental set up and preliminary results.
Low energy beam transport (LEBT) for a future heavy ion driven inertial fusion (HIDIF [1]) facility is a crucial point using a Bi+ beam of 40 mA at 156 keV. High space charge forces (generalised perveance K=3.6*10-3) restrict the use of electrostatic focussing systems. On the other hand magnetic lenses using space charge compensation suffer from the low particle velocity. Additionally the emittance requirements are very high in order to avoid particle losses in the linac and at ring injection [2]. urthermore source noise and rise time of space charge compensation [3] might enhance particle losses and emittance. Gabor lenses [4] using a continuous space charge cloud for focussing could be a serious alternative to conventional LEBT systems. They combine strong cylinder symmetric focussing with partly space charge compensation and low emittance growth due to lower non linear fields. A high tolerance against source noise and current fluctuations and reduced investment costs are other possible advantages. The proof of principle has already been shown [5, 6]. To broaden the experiences an experimental program was started. Therefrom the first experimental results using a double Gabor lens (DGPL, see fig. 1 ) LEBT system for transporting an high perveance Xe+ beam will be presented and the results of numerical simulations will be shown.
The determination of the beam emittance using conventional destructive methods suffers from two main disadvantages. The interaction between the ion beam and the measurement device produces a high amount of secondary particles. Those particles interact with the beam and can change the transport properties of the accelerator. Particularly in the low energy section of high current accelerators like proposed for IFMIF, heavy ion inertial fusion devices (HIDIF) and spallation sources (ESS, SNS) the power deposited on the emittance measurement device can lead to extensive heat on the detector itself and can destruct or at least dejust the device (slit or grit for example). CCD camera measurements of the incident light emitted from interaction of beam ions with residual gas are commonly used for determination of the beam emittance. Fast data acquisition and high time resolution are additional features of such a method. Therefore a matrix formalism is used to derive the emittance from the measured profile of the beam [1,2] which does not take space charge effects and emittance growth into account. A new method to derive the phase space distribution of the beam from a single CCD camera image using statistical numerical methods will be presented together with measurements. The results will be compared with measurements gained from a conventional Allison type (slit-slit) emittance measurement device.
Vortrag gehalten an der Tagung "The XVI International Conference on Ultrarelativistic Nucleus-Nucleus Collisions, organized by SUBATECH Laboratory", in Nantes, France, 18-24 Juli 2002.
The experiment NA49 at the CERN SPS is a large acceptance detector for charmed hadrons. The identification of neutral strange hadrons Lambda and AntiLambda is based on the measurement of their charged decay particles and the reconstruciton of the decay vertex. The charged particles were measured with the 4 time projection chambers (TPC), two of them are situated inside 2 large dipole magnets, the two others are downstream of the magnet. Lambda and AntiLambda baryons have been measured in central Pb+Pb collisions at 40, 80 and 160 GeV/nucleon over a wide range in rapidity (1 - 5) and transverse momentum (0 - 3 GeV/c). Particle yields and spectra will be shown for the different energies. The results will be put into the existing systematics of Lambda-production as a function of beam energy.
Tagungsvorträge werden als MP3-Files zum Anhören angeboten. Das Motiv: 2003 stand der 100. Geburtstag Theodor W. Adornos auf der Tagesordnung des kulturellen und akademischen Geschehens. Adorno war sicherlich einer der wirkungsmächtigsten Philosophen und Theoretiker der Gesellschaft des 20. Jahrhunderts. Seine Schriften sind weltweit verbreitet und haben unzählige Wissenschaftler aus den verschiedensten Disziplinen anhaltend inspiriert. Wo immer man in der Welt als Frankfurter Hochschullehrer auf geistig tätige Menschen trifft, man wird auf Adorno angesprochen. Zum Schicksal eines jeden Klassikers gehört es, dass es einen Streit um das Erbe gibt und sich folglich verschiedene Strömungen auf das Vorbild beziehen. Zugleich provoziert das die unausgesetzte Debatte darum, ob das Werk nicht bereits historisch geworden sei und uns für unsere Zeit also nicht mehr viel zu sagen habe. Oder ob es klassisch: unvergänglich vergangen sei, und damit ein starker Anstoß zum Weiterdenken geblieben sei. Hinter dieser, in vielen Buchpublikationen und Feuilletons (insbesondere in der Frankfurt Allgemeinen Zeitung) geführten Debatte um die Aktualität der kritischen Theorie und des Denkens Adornos verschwindet leicht die aufmerksame Beobachtung, was denn nach Adornos Tod 1969 von seinen direkten oder mittelbaren Schülern in den Feldern geleistet worden ist, auf die insgesamt sich das Genie Adornos beziehen konnte. Es stand zu befürchten, dass das Jubiläum als Geburtstagsfeier einer Geistesgröße mit einer Fülle von Erinnerungen und Würdigungen vollzogen wird, ohne dass der doch ungleich interessanteren Frage nachgegangen würde, in welcher Hinsicht das Werk Adornos in den produktiven Arbeiten heutiger Wissenschaftler lebendig geblieben ist. Inhaltliche Akzente: Lebendigkeit bedeutet keineswegs die Fortsetzung eines orthodox verwalteten Erbes, sondern verweist notwendig auf oft eigensinnige Versuche, die Denkmittel Adornos im Sinne seiner Kritik an der Gesellschaft zu nutzen. Lebendigkeit konkretisiert sich also nicht als Traditionspflege oder als wohlfeile Revision von Positionen, über die die Zeit hinweggegangen sein soll, sondern im sachhaltigen Aufweis ihrer Aktualität durch Arbeiten, mit denen aus unterschiedlicher fachlicher Sicht kritische Theorie als fortgesetztes Arbeitsprogramm deutlich wird. Insofern diente der Kongress der systematischen Überprüfung und Dokumentation der in produktiver Forschung sich ausdrückenden Lebendigkeit der Ansätze Adornos sowie der Ausarbeitung der Aufgaben für die nähere Zukunft. Zugleich wird damit nicht weniger beansprucht als einen repräsentativen Überblick zu geben, wie es heute mit der Aufklärung selbst bestellt ist. Auf der Tagung sprachen Wissenschaftler sprechen, die in den vergangenen Jahrzehnten bewiesen haben, dass sie mit ihrem Forschungsprogramm die Diagnose der Gesellschaft, inspiriert durch jene Denkmittel, insbesondere auf unbearbeitetem Terrain fortgeführt haben und die zugleich für die Zukunft die Untersuchung von Fragen versprechen, die auf der Tagesordnung der Aufklärung stehen. Jeder Vortragende wird seine Arbeiten in den Kontext auch derjenigen stellen, die innerhalb seines Faches ebenfalls von Kritischer Theorie beeinflusst wurden. Im Vordergrund der Darstellung soll aber die eigene bislang geleistete Arbeit unter der Fragestellung der Tagung rekapituliert werden und schlaglichtartig erkennbar gemacht werden, in welchem Sinne Fragen der gegenwärtigsten Gegenwart mit den theoretischen Figuren Adornos kommunizieren.
We introduce a new method for representing and solving a general class of non-preemptive resource-constrained project scheduling problems. The new approach is to represent scheduling problems as de- scriptions (activity terms) in a language called RSV, which allows nested expressions using pll, seq, and xor. The activity-terms of RSV are similar to concepts in a description logic. The language RSV generalizes previous approaches to scheduling with variants insofar as it permits xor's not only of atomic activities but also of arbitrary activity terms. A specific semantics that assigns their set of active schedules to activity terms shows correctness of a calculus normalizing activity terms RSV similar to propositional DNF-computation. Based on RSV, this paper describes a diagram-based algorithm for the RSV-problem which uses a scan-line principle. The scan-line principle is used for determining and resolving the occurring resource conflicts and leads to a nonredundant generation of all active schedules and thus to a computation of the optimal schedule.
In the last decade, much effort went into the design of robust third-person pronominal anaphor resolution algorithms. Typical approaches are reported to achieve an accuracy of 60-85%. Recent research addresses the question of how to deal with the remaining difficult-toresolve anaphors. Lappin (2004) proposes a sequenced model of anaphor resolution according to which a cascade of processing modules employing knowledge and inferencing techniques of increasing complexity should be applied. The individual modules should only deal with and, hence, recognize the subset of anaphors for which they are competent. It will be shown that the problem of focusing on the competence cases is equivalent to the problem of giving precision precedence over recall. Three systems for high precision robust knowledge-poor anaphor resolution will be designed and compared: a ruleset-based approach, a salience threshold approach, and a machine-learning-based approach. According to corpus-based evaluation, there is no unique best approach. Which approach scores highest depends upon type of pronominal anaphor as well as upon text genre.
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
Syntactic coindexing restrictions are by now known to be of central importance to practical anaphor resolution approaches. Since, in particular due to structural ambiguity, the assumption of the availability of a unique syntactic reading proves to be unrealistic, robust anaphor resolution relies on techniques to overcome this deficiency. In this paper, two approaches are presented which generalize the verification of coindexing constraints to de cient descriptions. At first, a partly heuristic method is described, which has been implemented. Secondly, a provable complete method is specified. It provides the means to exploit the results of anaphor resolution for a further structural disambiguation. By rendering possible a parallel processing model, this method exhibits, in a general sense, a higher degree of robustness. As a practically optimal solution, a combination of the two approaches is suggested.
An anaphor resolution algorithm is presented which relies on a combination of strategies for narrowing down and selecting from antecedent sets for re exive pronouns, nonre exive pronouns, and common nouns. The work focuses on syntactic restrictions which are derived from Chomsky's Binding Theory. It is discussed how these constraints can be incorporated adequately in an anaphor resolution algorithm. Moreover, by showing that pragmatic inferences may be necessary, the limits of syntactic restrictions are elucidated.
Coreference-Based Summarization and Question Answering: a Case for High Precision Anaphor Resolution
(2003)
Approaches to Text Summarization and Question Answering are known to benefit from the availability of coreference information. Based on an analysis of its contributions, a more detailed look at coreference processing for these applications will be proposed: it should be considered as a task of anaphor resolution rather than coreference resolution. It will be further argued that high precision approaches to anaphor resolution optimally match the specific requirements. Three such approaches will be described and empirically evaluated, and the implications for Text Summarization and Question Answering will be discussed.
Eine spieltheoretische Analyse von Zulieferer-Abnehmer-Beziehungen auf Basis des JELS-Modells
(2001)
Elektronische Informationsressourcen, wie beispielsweise elektronische Zeitschriften und Datenbanken, gewannen in den letzten Jahren zunehmend an Bedeutung im Feld der akademischen Literaturversorgung. Mit diesem Trend einhergehend konnten Veränderungen der Bezugspraxis bei Bibliotheken einerseits und neue Preis- und Geschäftsmodelle bei Verlagen andererseits beobachtet werden. Neben der bequemeren Nutzbarkeit für die Leser bietet das neue Medium auch neue Formen des Kostencontrollings und der Optimierung für die Abnehmer. Dieser Workshop soll sich mit der Frage der Kostenrechnung und -verteilung für Konsortien für elektronische Informationsressourcen insbesondere eJournals beschäftigen. Dabei werden die neuen Möglichkeiten der Nutzungsmessung besonders berücksichtigt. Neben den theoretischen Ansätzen werden auch konkrete Beispielrechnungen durchgeführt und die Praktikabilität für die Umsetzung in der Praxis im besonderen Maße diskutiert.
Given x small epsilon, Greek Rn an integer relation for x is a non-trivial vector m small epsilon, Greek Zn with inner product <m,x> = 0. In this paper we prove the following: Unless every NP language is recognizable in deterministic quasi-polynomial time, i.e., in time O(npoly(log n)), the ℓinfinity-shortest integer relation for a given vector x small epsilon, Greek Qn cannot be approximated in polynomial time within a factor of 2log0.5 − small gamma, Greekn, where small gamma, Greek is an arbitrarily small positive constant. This result is quasi-complementary to positive results derived from lattice basis reduction. A variant of the well-known L3-algorithm approximates for a vector x small epsilon, Greek Qn the ℓ2-shortest integer relation within a factor of 2n/2 in polynomial time. Our proof relies on recent advances in the theory of probabilistically checkable proofs, in particular on a reduction from 2-prover 1-round interactive proof-systems. The same inapproximability result is valid for finding the ℓinfinity-shortest integer solution for a homogeneous linear system of equations over Q.
Gewalt in der Schule
(2004)
We present a novel practical algorithm that given a lattice basis b1, ..., bn finds in O(n exp 2 *(k/6) exp (k/4)) average time a shorter vector than b1 provided that b1 is (k/6) exp (n/(2k)) times longer than the length of the shortest, nonzero lattice vector. We assume that the given basis b1, ..., bn has an orthogonal basis that is typical for worst case lattice bases. The new reduction method samples short lattice vectors in high dimensional sublattices, it advances in sporadic big jumps. It decreases the approximation factor achievable in a given time by known methods to less than its fourth-th root. We further speed up the new method by the simple and the general birthday method. n2
The main subject of this survey are Belyi functions and dessins d'enfants on Riemann surfaces. Dessins are certain bipartite graphs on 2-mainfolds defining there are conformal and even an algebraic structure. In principle, all deeper properties of the resulting Riemann surfaces or algebraic curves should be encoded in these dessins, but the decoding turns out to be difficult and leads to many open problems. We emphasize arithmetical aspects like Galois actions, the relation to the ABC theorem in function filds and arithemtic questions in uniformization theory of algebraic curves defined over number fields.
Presentation at the AMS Southeastern Sectional Meeting 14-16 March 2003, and the Workshop Asymptotic Analysis, Stability, and Generalized Functions', 17-19 March 2003, Louisiana State University, Baton Rouge, Louisiana. See the corresponding papers "Mathematical Problems of Gauge Quantum Field Theory: A Survey of the Schwinger Model" and "Infinite Infrared Regularization and a State Space for the Heisenberg Algebra".
Presentation at the Università di Pisa, Pisa, Itlay 3 July 2002, the conference on Irreversible Quantum Dynamics', the Abdus Salam ICTP, Trieste, Italy, 29 July - 2 August 2002, and the University of Natal, Pietermaritzburg, South Africa, 14 May 2003. Version of 24 April 2003: examples added; 16 December 2002: revised; 12 Sptember 2002. See the corresponding papers "Zeno Dynamics of von Neumann Algebras", "Zeno Dynamics in Quantum Statistical Mechanics" and "Mathematics of the Quantum Zeno Effect"
In this short note on my talk I want to point out the mathematical difficulties that arise in the study of the relation of Wightman and Euclidean quantum field theory, i.e., the relation between the hierarchies of Wightman and Schwinger functions. The two extreme cases where the reconstructed Wightman functions are either tempered distributions - the well-known Osterwalder-Schrader reconstruction - or modified Fourier hyperfunctions are discussed in some detail. Finally, some perpectives towards a classification of Euclidean reconstruction theorems are outlined and preliminary steps in that direction are presented.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Thomas Küpper nimmt in seinem Beitrag das Kriterium der Wiederholungslektüre, das als Qualitäts- und Differenzmerkmal ästhetisch anspruchsvoller Literatur gilt, zum Anlass, die Grenzziehung zwischen Kitsch und Kunst genauer zu überdenken. Nicht die Wiederholungslektüre an sich macht bereits den Unterschied, vielmehr muss eine Unterscheidung zwischen verschiedenen Formen der Wiederholungslektüre getroffen werden. In systemtheoretischer Perspektive lässt sich eine solche typologische Differenzierung anhand des je spezifischen Verhältnisses von Medium, d.h. hier: der Gattungen, und der Form, d.h. der Texte, präzise vornehmen. Trivialliteratur unterscheidet sich dann von der Kunst, insofern ihre Medien der eigentlichen Formrealisierung nur wenig Spielraum lassen: Nicht die Abweichung, sondern die Bestätigung der gegebenen Schemata wird honoriert. Auch der Kitsch bietet Variationen des Bekannten, doch – und hier nähert er sich der Kunst an – die vertrauten und wiederholten Muster werden als einmalige und besondere Formen von bleibendem Wert inszeniert. Am Beispiel des Kultfilms "Pretty Woman" spielt Thomas Küpper diese unterschiedlichen Lektüren durch und zeigt an diesem vermeintlich eindeutig trivialen Fall, dass sich die Faszination des Films den vielen Wiederholungen verdankt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. In ihrem Beitrag zu Spannungsliteratur und Lesepraxen um 1800 entwirft Ute Dettmar aus kultursoziologischer Perspektive ein Bild von der Vielfalt und Dynamik der kulturellen, literarischen und diskursiven Praxen des ausgehenden 18. Jahrhunderts. Die Gleichzeitigkeit von ästhetisch-normierender Auseinandersetzung um die Faszination des Schrecklichen, von aufgeklärter Lesekritik und einer unbefangenen bürgerlichen Lese- und Theaterpraxis, die sich nicht an das vorgegebene Maß und die Grenzen eines autonomieästhetisch konstituierten Kunstbegriffs hält, charakterisiert das spannungsreiche Mit- und Gegeneinander dieser Umbruchzeit. Anhand der Lektüre populärer Räuberromane erweist sich, dass Grenzziehungen zwischen hoch- und unterhaltungskulturellen Textverwendungsweisen weder in Hinblick auf Stoffe und Gattungen, noch in Hinblick auf die lesende Öffentlichkeit hier bereits rigide gezogen sind.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Manuel Gujber widmet sich einem vordergründig "sprachlosen" Gegenstand: der Architektur. Sein Interesse gilt dabei dem Spannungsverhältnis zwischen architektonischer Konstruktion und Oberfläche – der "Haut" des Hauses. So bietet die architektonische Oberfläche nicht nur fortwährend neue Möglichkeiten der Gestaltung sondern auch der Interpretation – Lesarten, in denen sich das Verhältnis zwischen "Haut" und "Haus" sowie von deren Wahrnehmung spiegelt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Protected Mode
(2005)
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Gegenstand von Harald Hillgärtners Untersuchung ist die Frage nach der Lesbarkeit des Computers, vielmehr seiner System- und Programmcodes. Gilt der Computer einerseits als "Textmaschine", die endlose Schreib- und Leseakte prozessiert, so finden jene Programmabläufe doch zumeist jenseits der für alle zugänglichen Benutzeroberflächen statt, die ihrerseits in immer stärkerem Maß mit Icons – Bildern – arbeiten. Und selbst im Falle von frei zugänglichen Software-Codes ist zu fragen, um welche Art Text es sich hier handelt – ob in diesen Fällen gar von Literatur die Rede sein kann. Insofern ist die Frage nach der Lesbarkeit des Computers nicht nur eine Frage nach der Zukunft des Lesens (geht es um Sinn oder um Information?) sondern vielmehr nach dem (Zu-)Stand unserer Schriftkultur selbst.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Irene Pieper beschäftigt sich aus literaturdidaktischer und lesesoziologischer Perspektive mit der kulturellen Praxis des Lesens. Ihr Beitrag entwickelt systematisch, worin die "Kunst" des literarischen Lesens im Einzelnen besteht und wie diese Kompetenz methodisch in der Auseinandersetzung mit dem Gegenstand Literatur zu erwerben bzw. zu vermitteln ist. Ein kompetenter Leser zu werden heißt, ein breites Spektrum von Fähigkeiten zu erwerben, das vom Realisieren der poetischen Funktion der Literatur über die Empathiefähigkeit bis hin zur Lust am Text reicht. Der Beitrag lotet aus, in welcher Weise vor allem die Schule, die außerhalb der Familie Begegnungen mit und Kommunikationen über Literatur herbeiführt und anregt, an der Bildung solcher Leser und Leserinnen mitwirken kann.
Im Jahr 2003 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Sabine Nessel eröffnete die Vortragsreihe mit Beobachtungen zum Lektürebegriff hinsichtlich des Phänomens Film: am Beispiel von Otto Premingers "Bonjour Tristesse" zeigt sie, wie die seit den späten 1960er Jahren übliche Übertragung des Textparadigmas auf den Film im Folgenden eine Erfassung des „Erlebnis Kino“ als Ereignis verstellte. Im Durchgang durch verschiedene Filmtheorien zeigt sie auf, dass Filme zwar "gelesen" aber auch auf einer Ebene jenseits des Kino-Texts somatisch rezipiert – "genossen" – werden, dass also die Begriffe Film, Text und Lesen auf die Bereiche Kino, Ereignis und Erleben hin zu erweitern sind.