Refine
Year of publication
Document Type
- Conference Proceeding (1282) (remove)
Language
Is part of the Bibliography
- no (1282) (remove)
Keywords
- Germanistik (54)
- Bologna-Prozess (32)
- Exzellenzinitiative (32)
- Theorie (32)
- Zukunft (32)
- Deutsch (24)
- Computerlinguistik (23)
- Kongress (23)
- Virtuelle Hochschule (23)
- Informationsstruktur (19)
Institute
- Physik (248)
- Medizin (189)
- Rechtswissenschaft (119)
- Universitätsbibliothek (96)
- Extern (69)
- Informatik (41)
- Geschichtswissenschaften (31)
- Gesellschaftswissenschaften (30)
- Frankfurt Institute for Advanced Studies (FIAS) (27)
- Erziehungswissenschaften (24)
Hintergrund: Die praktische Anwendung der EbM bedarf neben interner Evidenz auch einiger Basis-Fertigkeiten, die schon während der medizinischen Ausbildung trainiert werden sollten. Während die EbM seit über 3 Jahren fester Bestandteil des Ausbildungscurriculums der medizinischen Fakultät in Frankfurt/Main ist, findet sie an vielen anderen Fakultäten nur langsam Einzug.
Um diesen Prozess zu unterstützen und zu beschleunigen, wurde von der Arbeitsgruppe EBM Frankfurt das Ausbildungskonzept Train the Teacher ins Leben gerufen.
Methoden: Der Train the Teacher-Kurs besteht aus zwei Teilen und basiert auf den Erfahrungen von 20 Basiskursen und über 50 curricularen Seminaren an der Universität Frankfurt. Er setzt sich aus einem „EbM-Aufbaukurs“ und einem „Didaktik-Kurs“ zusammen. Ziel des Kurses ist die Befähigung der Teilnehmer zur Konzeption eines eigenen EbM-Lehrangebotes an der jeweiligen Ausbildungseinrichtung. Beide Ausbildungsteile werden sowohl subjektiv als auch objektiv evaluiert.
Ergebnisse: Es konnten im Rahmen des Lehrkonzepts Train the Teacher mittlerweile 25 Personen aus unterschiedlichsten Fachbereichen und Einrichtungen aus dem gesamten Bundesgebiet ausgebildet werden. Sowohl die subjektiven als auch objektiven Evaluationen fallen durchweg positiv aus. Die Vorevaluation ergab bei der subjektiven Bewertung einen Score von 8,27 (Skala von 1 bis maximal 10). Bei der objektiven Evaluation wurden im Mittel 84% der gestellten Fragen richtig beantwortet.
Schlussfolgerung/Implikation: Der Train the Teacher – Kurs ist für das angestrebte Ziel Erfolg versprechend. Einige Absolventen haben bereits begonnen, an verschiedenen Ausbildungsstandorten evidenzbasierte Lehrangebote zu implementieren. Das Konzept wird erweitert und fortgeführt.
Die medizinische Ausbildung wird gegenwärtig zunehmend mit E-Learning-Elementen angereichert. Die Orientierung in der in verschiedenste Netze zersplitterten Lernlandschaft erweist sich häufig als problematisch und zeitaufwändig, und dies bereits innerhalb einzelner Universitäten und Fachbereiche. "FAUST" - Frankfurter Ausbildungs - und Studienangebote der Medizin im virtuellen Raum (http://www.med.uni-frankfurt.de/faust/index.html) - löst dieses Problem. FAUST bietet einfache und schnelle Zugangsmöglichkeiten zu allen instituts- und klinikeigenen elektronischen Informationsquellen (z. B. Vorlesungsskripte) und E-learning Projekten (e!uro; fanatomic.de; HistoPathOnline, E-learning-Academy) sowie zu überregionalen medizinischen Lernplattformen (z. B. k-med, LaMedica), die in Frankfurt entwickelt bzw. mitentwickelt wurden und bereits curricular eingesetzt werden. Schneller Zugang wird auch zum Lernmanagementsystem WebCT vermittelt, das zunehmend zur Kommunikation, strukturierten Präsentation von E-Content sowie zur Durchführung elektronischer Klausuren eingesetzt wird. Das Portal wurde von einem im E-Learning erfahrenen Team (Kliniker, Vorkliniker, Designer, Informatiker) mit Mitteln des Lehr- und Studienausschusses entwickelt. Es ist seit dem Sommersemester 2005 freigeschaltet. FAUST versteht sich zudem als Anlaufstelle für Lehrende des Fachbereichs Medizin, die am E-Learning interessiert sind. Sie können Beratung bei didaktischen und technischen Fragen, sowie Unterstützung bei der Realisierung ihrer Projekte erhalten. FAUST möchte auf diesem Wege die Vernetzung der E-Learning-Akteure unterstützen.
Objective: Establishment of an immunocompetent mouse model representing the typical progressive stages observed in malignant human gliomas for the in vivo evaluation of novel target-specific regimens.
Methods: Isolated clones from tumours that arose spontaneously in GFAP-v-src transgenic mice were used to develop a transplantable brain tumour model in syngeneic B6C3F1 mice. STAT3 protein was knocked down by infection of tumour cells with replication-defective lentivirus encoding STAT3-siRNA. Apoptosis is designed to be induced by soluble recombinant TRAIL + chemical Bcl-2/Bcl-xL inhibitors.
Results: Striatal implantation of 105 mouse tumour cells resulted in the robust development of microscopically (2 – 3 mm) infiltrating malignant gliomas. Immunohistochemically, the gliomas displayed the astroglial marker GFAP and the oncogenic form of STAT3 (Tyr-705-phosphorylated) which is found in many malignancies including gliomas. Phosphorylated STAT3 was particularly prominent in the nucleus but was also found at the plasma membrane of peripherally infiltrating glioma cells. To evaluate the role of STAT3 in tumour progression, we stably expressed siRNA against STAT3 in several murine glioma cell lines. The effect of STAT3 depletion on proliferation, invasion and survival will be first assessed in vitro and subsequently after transplantation in vivo. Upstream and downstream components of the STAT3 signalling pathway as well as possible non-specific side effects of STAT3-siRNA expression after lentiviral infection will be examined, too.
Conclusions: Its high rate of engraftment, its similarity to the malignant glioma of origin, and its rapid locally invasive growth should make this murine model useful in testing novel therapies for malignant gliomas.
Survivin functions as an apoptosis inhibitor and a regulator of cell division during development and tumorigenesis. Since survivin is a highly relevant target for tumor therapy, we investigated whether interference with it’s dynamic cellular localization represents a novel strategy to inhibit survivin’s cancer promoting functions. We confirmed survivin overexpression in head and neck as well as in colorectal cancers and identified an evolutionary conserved Crm1-dependent nuclear export signal (NES) in survivin. Importantly, nuclear export was required for survivin mediated protection against chemo- and radiotherapy-induced apoptosis by securing efficient interference with cytoplasmic caspases. In dividing cells, the NES was required for tethering of survivin and of the survivin/Aurora-B kinase complex to the mitotic machinery, which was inevitable for proper cell division. The clinical relevance of our findings was supported by showing that preferential nuclear localization of survivin correlated with enhanced survival in a cohort of colorectal cancer patients. Targeting survivin’s nuclear export by the application of NES-specific antibodies promoted its nuclear accumulation and inhibited its cytoprotective function. We here show that nuclear export is essential for the tumor promoting activities of survivin and encourage the identification of chemical inhibitors to specifically interfere with survivin’s nuclear export as a novel class of anticancer therapeutics.
Hintergrund Die chronische Herzinsuffizienz erfordert als Systemerkrankung hausärztliche sowie spezialärztliche Versorgung. Die evidenzbasierte DEGAM-Leitlinie (LL) zur hausärztlichen Versorgung der Herzinsuffizienz wurde formal interdisziplinär konsentiert, nachdem der Entwurf ein mehrstufiges internes und externes Reviewverfahren durchlaufen hatte. Methode Wissenschaftliche Fachgesellschaften und Organisationen (FG/O) wurden zu einem Nominalen Gruppenprozeß (NGP) eingeladen und entsandten autorisierte Teilnehmer. Diese erhielten den LL-Entwurf inkl. Methodenreport sowie eine Liste zentraler LL-Empfehlungen für ein persönliches Ranking (44-Items; 6-stufige Likert-Skala). Beim Konsentierungstreffen wurden aus dem 1. Ranking Themen ohne deutliche Übereinstimmung (Likert =4) identifiziert, unter Hinzunahme weiterer Themenvorschläge in priorisierter Reihenfolge diskutiert und erneut abgestimmt. Der überarbeitete LL-Entwurf wurde in einem zweiten Ranking im Delphi-Verfahren konsentiert. Ergebnisse Im Abstimmungsprozess mit 10 Vertretern aus 11 FG/O wurden ~35 Themen diskutiert. Bei zwei Empfehlungen mit fehlender Evidenz wurde ein von internationalen LL abweichender Konsens getroffen (z.B. ß-Blocker bei asymptomatischen Patienten nur nach durchgemachtem Herzinfarkt). Vier Formulierungen bewertenden Charakters zur BNP-Bestimmung wurden zugunsten einer Negativempfehlung gestrichen, eine Empfehlung mit der STIKO harmonisiert (Pneumokokkenimpfung), bei weiteren wurden ergänzende Konditionen im Wortlaut eingefügt oder sprachliche Änderungen vorgenommen. Fünf Themen wurden neu erstellt (z.B. kontraindizierte Pharmaka). Bis auf drei (z.B. Flussdiagramme nicht vollständig konsensfähig: unangemessene Vereinfachung vs. fehlende Praktikabilität) wurden alle Empfehlungen der LL konsentiert. Schlussfolgerungen Der NGP ist für evidenzbasierte LL eine geeignete Vorgehensweise. Interdisziplinarität ist insbesondere bei Entscheidungsunsicherheit (fehlende oder inkonsistente Evidenz) und zur Schnittstellendefinition wertvoll.
Das Bibliothekssystem der Universität Frankfurt am Main ist seit dem Jahre 2005 in einer Phase des Umbruchs. Durch die Überleitung der ehemaligen Stadt- und Universitätsbibliothek in die Trägerschaft der Universität mit gleichzeitiger vollständiger Integration der Senckenbergischen Bibliothek zu einer neuen Institution mit Namen "Universitätsbibliothek Johann Christian Senckenberg" vollzieht sich auf allen Ebenen ein struktureller Wandel. Da per gesetzlicher Vorgabe und von der Universität erlassenen Bibliotheksordnung die funktionale Einschichtigkeit realisiert werden soll, werden nun auch die bisher autonomen dezentralen Bibliotheken sukzessive administrativ mit der UB zusammengeführt. Der Frage, wie dabei die zentralen und dezentralen Erwerbungsmittel zu einer sinnvollen Verteilung geführt werden können, wird derzeit am Standort diskutiert. Der Beitrag versucht, schlaglichtartig den augenblicklichen Stand zu beleuchten.
Germanistik im Netz - das Fachportal zur deutschen Sprach- und Literaturwissenschaft - ist seit Juni 2006 online. Germanistik im Netz richtet sich vorrangig an Germanistinnen und Germanisten in Forschung und Lehre und ermöglicht eine übergreifende Suche nach ausgewählten digitalen und konventionellen Medien sowie nach weiteren fachrelevanten Informationen. Beteiligt waren bei Projektstart Ende 2004 vier Partner: Die Universitätsbibliothek Frankfurt/Main (SSG-Bibliothek für Germanistik), das Deutsche Literaturarchiv Marbach, der Deutsche Germanistenverband sowie die Initiativgruppe Fachportal Germanistik, im Juni 2005 stieß die Mailingliste H-Germanistik hinzu, in Förderphase II verstärken u.a. die Anna Amalia Bibliothek Weimar und die Herzog August Bibliothek Wolfenbüttel das Projektkonsortium.
Symbolischer Konsens, regionale Kohäsion und das Versagen institutioneller Innovation in Donetsk
(2000)
Die Ukraine zeichnet sich durch erhebliche regionale Disparität aus, die sich in einander verstärkenden historischen, sprachlichen, kulturellen und wirtschaftlichen Unterschieden ausdrückt. Meine Betrachtung konzentriert sich auf den Oblast Donetsk in der Ost-Ukraine, der geprägt ist von sprachlicher und kultureller Russifizierung sowie dem Vorherrschen der Kohle- und Schwerindustrie. Die Region befindet sich in einer tiefen sozioökonomischen Krise, der wenig Innovation und Reform entgegengesetzt werden. Im folgenden möchte ich zwei Formen von Entwicklungsblockaden beschreiben. ...
This paper presents the design and implementation of a group oriented, decentralised, virtual learning settings where students meet in groups of 3 –5 people at different locations all over the world and communicate via the internet. After presenting the objective of such a didactical design the paper gives an insight into the technical implementation. It presents the advantages and disadvantages of several internet services in such a virtual setting and a way of combining these internet applications according to their special characteristics. While the role of teachers change to those of coordinators the communication process within and between the groups becomes more important – as discussed in the following chapter. The paper concludes with the presentation of two practical applications as offered by the Institute for Didactics and Economics at the Johann Wolfgang Goethe-University Frankfurt/Main (Germany) and some evaluating remarks.
Dieser Beitrag widmet sich in erster Linie der Analyse, unter welchen Voraussetzungen Telearbeit als neue Form der Arbeitsorganisation eingeführt wird und welche Formen dabei auftreten. Nach einer Einführung in die Thematik werden die verschiedenen Ausprägungen der Telearbeit (Kapitel 2) dargestellt, bevor die Voraussetzungen (Kapitel 3) im einzelnen diskutiert werden. Die genauen Kenntnisse dieser Bedingungen zur Einführung der Telearbeit erlauben einerseits Voraussagen für ihre zukünftige Umsetzung sowie die Ableitung politischer Empfehlungen - besonders im regionalpolitischen Bereich - für die gezielte Förderung der Telearbeit (Kapitel 4). Die Telearbeit erhält zur Zeit im öffentlichen Interesse wieder einen Aufschwung: ist doch die technische Entwicklung der Telekommunikation und Computervernetzung inzwischen genügend vorangeschritten und der Bekanntheitsgrad des Internets und der damit verbundenen möglichen Veränderungen im Berufs- wie auch im Privatleben dank der Medien entsprechend angestiegen, um die Diskussion um diese neue Arbeitsorganisation aufleben zu lassen. Während Arbeitgeber vor allem Kostenfaktoren und Wettbewerbsfähigkeit im Auge behalten, sind die Arbeitnehmer von neuen Arbeitsformen, flexibleren Arbeitszeiten und freier Ortswahl angetan. Trotz der Euphorie ist die tatsächliche Entwicklung der Telearbeit weltweit nur langsam voranschreitend. Vorreiter sind die USA, die aufgrund der Telekommunikationsentwicklung und dem Bedarf an verkehrsreduzierenden Arbeitsformen (vor allem Kalifornien) und auch aufgrund der kulturellen Aufgeschlossenheit gegenüber Innovationen zuerst diese Entwicklung aufgriff. In Europa sind vor allem die britischen Telearbeiter in der Anzahl führend, gefolgt von Frankreich, Deutschland, Spanien und Italien. Betrachtet man die unterschiedliche Entwicklung der Telearbeit in den Ländern, so läßt dies vermuten, daß bestimmte Faktoren zu deren Einführung beitragen, welche in einigen Ländern vorliegen und in anderen weniger oder gar nicht vorhanden sind.
Wie können Hochschulen in Zeiten knapper Mittel qualitativ hochwertige eLearning-Szenarien und –Inhalte entwickeln ohne eine zentrale Einrichtung als Nadelöhr zu erleben? Dieser Beitrag behandelt Ansätze zur Qualitätssicherung im eLearning und stellt ein Beispiel vor, wie durch die Vermittlung entsprechender Kompetenzen und prozessbegleitender Beratung und Unterstützung Qaulitätssicherung im eLearning betrieben werden kann und zugleich eine breite Verankerung des Einsatzes Neuer Medien erreicht wird.
Virtuelle Konferenzen
(2002)
Mit dem Projekt megadigitale setzt die Goethe-Universität Frankfurt/M. ihre eLearning-Strategie studiumdigitale um. Ziel des Prozesses ist, eLearning in allen Fachbereichen der Hochschule nachhaltig zu verankern und dabei fachspezifische Mediennutzungspotentiale zur Verbesserung der Lehre zu realisieren. In einem Verbund von Topdown- und Bottomup-Initiativen, wie fachbereichsspezifischen eLearning-Konzepten und zentralen Qualifizierungs, Beratungs- Betreuungs- und Infrastrukturangeboten setzt sich das gesamte Programm in einem Mix aus Anreiz- und Förderinstrumenten zusammen. Der Beitrag beschreibt die wesentlichen Initiativen dieses Vorhabens und fasst erste Erfahrungen zusammen.
Wikis im eLearning
(2006)
Dieser Beitrag verdeutlicht, dass durch den Einsatz von Wikis in der Lehre methodisch neue Formen der Hochschuldidaktik möglich sind. Einleitend zu den beiden anderen Beiträgen zum Thema "Wikis in der Lehre" des Workshops auf der Delfi-Tagung 2006 übernimmt er die Rolle, allgemein die Einsatzszenarien für Wikis im eLearning zu beschreiben und gibt konkrete Gestaltungshinweise für deren Nutzung in Lehrveranstaltungen. Abschließend wird ein Ausblick auf anstehende Forschungsfragen und technische Entwicklungen von Wikis gegeben.
The University library in Frankfurt/Main owns the largest collection of literature on Judaism and Israel in Germany and one of the major collections in the world. Its task is to document the history of the Jewish people and to serve as a resource for study and research in Germany. The Jewish Division is therefore collecting all relevant national and international publications covering all aspects of post-biblical Judaism and Jewish culture in a most comprehensive manner, as well as all publications on the modern State of Israel. Two databases offer access to the large collections of the Judaica-Division. Yiddish Literature is the database that offers online access to the page images of the outstanding historical Yiddish collection, containing about 800 extremely rare and precious Yiddish and German-Jewish books printed in Hebrew letters from the 16th century onwards. Compact memory is a gateway to more than 100 Jewish periodicals in the German language area published in the 19th and 20th century, providing partly images, partly full-text-search and a bibliographic database of articles. The implementation of a third, new digital project, the »Virtual Judaica-collection« has just started - the digitization and online-presentation of the historical Judaica resources. Formed by his curator Prof. Aron Freimann, it was the largest and most significant Judaica collection on the European continent before the war. The goal is to offer free access to about 18.000 books with 2 Mill. pages over the web. In light of these developments, the presentation will evaluate the current possibilities of German-North-American cooperation in the area of digital projects.
A number of pressures on academic libraries imperil the long-term survivability of printed knowledge and heritage materials. Ever-growing volumes of materials, costs of preserving and delivering paper-based research resources, and researchers’ growing demand for source materials in electronic formats all produce strain on our institutions. ...
Man muss kein Marxist sein, um anzuerkennen, dass Unternehmer in kapitalistischen Industriegesellschaften ein gesellschaftlich außerordentlich mächtiges Interesse verkörpern. Angesichts der gegenwärtig zu beobachtenden politischen Kräfteverhältnisse erscheint diese Machtposition so gefestigt wie lange nicht mehr. Die vorgeblichen Zwänge der Globalisierung und ein politisch hegemonialer Marktradikalismus haben die Durchsetzungsfähigkeit politischer Unternehmerstrategien weiter gestärkt. Im Rahmen der voranschreitenden Ökonomisierung des Politischen werden die Verwertungsbedingungen zum zentralen Maßstab politischer „Reformprojekte“, wie dies in der gegenwärtigen Arbeitsmarkt- und Sozialpolitik der Bundesregierung deutlich zu erkennen ist. Da es sich dabei jedoch nicht um einen automatischen Prozess handelt, sondern um politische Auseinandersetzungen, deren Ausgang prinzipiell ungewiss ist, bleibt erklärungsbedürftig, wie sich das Verhältnis von Unternehmern und Politik im Einzelnen gestaltet. Die grundlegende Frage lautet, wie sich in einem parlamentarisch-demokratischen System, in dem formal alle gesellschaftlichen Gruppen den gleichen Zugang zu politischen Entscheidungsprozessen besitzen, ökonomische in politische Macht „übersetzt“. Im Folgenden sollen einige Facetten dieser Frage diskutiert werden. Dabei wird erstens die Quantität der „sozialen Gruppe“ der Unternehmer in der Bundesrepublik Deutschland umrissen, zweitens wird ihre politische Durchsetzungsfähigkeit im System kollektiven Interessenhandelns erörtert und drittens wird, anhand einiger klassentheoretischer Überlegungen, das Verhältnis von Homogenität und Fragmentierung unternehmerischer Interessen thematisiert.
Die UB Frankfurt/M. als Sondersammelgebietsbibliothek für "Germanistik, Deutsche Sprache und Literatur" ist federführend beim Aufbau der "Virtuellen Fachbibliothek Germanistik - Germanistik im Netz (GiN)" (http://www.germanistik-im-netz.de). Ziel ist es, einen zentralen Einstiegspunkt für die Recherche nach germanistischen Medien und Fachinformationen anzubieten. Unter einer Oberfläche recherchierbar bereits die Frankfurter Kataloge (darunter ein Fach-OPAC mit ausschließlich germanistikrelevanten Titeln), das Katalogsystem des Deutschen Literaturarchivs in Marbach sowie mit BDSL Online die wichtigste Bibliographie des Faches. Angeboten werden dem Nutzer auch fachbezogene monatliche Neuerwerbungslisten sowie - im wöchentlichen Rhythmus - thematisch strukturierte Neuerscheinungslisten via Deutsche Nationalbibliothek. Was elektronische Zeitschriften und Fachdatenbanken betrifft, kooperiert Germanistik im Netz mit den einschlägigen Angeboten der UB Regensburg (Elektronische Zeitschriftenbibliothek, EZB und Datenbankeninformationssystem, DBIS) und bietet eine dem GiN-Sammlungsprofil entsprechende Zusammenstellung an. "Germanistik im Netz" versammelt nicht nur bereits bestehende zentrale Nachweisinstrumente unter einer Oberfläche, sondern produziert seinerseits Inhalte: Der Webkatalog mit Namen "GiNFix" präsentiert eine Auswahl fachrelevanter und inhaltlich erschlossener Internetressourcen zur deutschen Sprache und Literatur, darunter Autoren-Websites, Primärtexte, bibliographische Hilfsmittel, Nachschlagewerke u.v.m. Ein zweiter Webkatalog (Titel: "Wer-Was-Wo") listet ausgewählte Informationsangebote (u.a. Tagungen, Call for Papers, offene Stellen), vornehmlich für die Scientific Community auf. Als DFG-Projekt ist "Germanistik im Netz" darauf hin angelegt, sich binnen des Förderzeitraums auf eine kooperativ zu pflegende Basis zu stellen. Ob die Integration neuerer Digitalisierungsvorhaben gelingt, hängt zudem von erfolgreichem Projektmanagement an anderer Stelle ab.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We analyzed two possible signing approaches (server based and client based signatures) and conclude that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. We also present some of the constraints that still have to be addressed before qualified mobile signatures are possible.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. This infrastructure could be used to enable secure mobile brokerage services that can ommit the necessity of TAN lists and therefore allow a better integration of information and transaction services.
Bei der Entwicklung und vor allem bei der institutions- und projektübergreifenden Nutzung von eLearning Modulen oder Lernobjekten spielen Standards und Spezifikationen zu deren Beschreibung und Verwaltung eine immer wichtigere Rolle. Nur auf deren Basis können sich langfristig Verwaltungs- und Verwertungsmodelle entwickeln, die eine breite Nutzung von eLearning Modulen bis hin zur Entwicklung eines entsprechenden Marktes ermöglichen. Aufgrund allgemeingültiger Spezifikation für die Beschreibung von Lernobjekten bis hin zu standardisierten Angaben für komplette online Kurse werden Anbieter und Nachfrager in Tauschbörsen, institutionsübergreifenden Kooperationen, fachspezifischen Datenbanken und Bildungsservern eLearning Ressourcen anbieten und nutzen. Projekte und Initiativen stehen jetzt vor der Aufgabe, sich einen Überblick über vorhandene Standards und Spezifikationen zu verschaffen, um für sich selbst die geeigneten auswählen und anwenden zu können. Oft werden aufgrund der projektspezifischen Anforderungen zudem eigene Beschreibungen entwickelt. Dadurch entsteht eine Vielzahl von Beschreibungen, die den Austausch und das Auffinden von Modulen über die Projektgrenzen hinaus schwierig wenn nicht unmöglich machen. Der in diesem Band dokumentierte Workshop "Standardisierung im eLearning" hat das Ziel, die aktuelle Diskussion um die Entwicklung und Anwendung von Standards aufzugreifen, transparent zu machen und fortzuführen. Veranstalter des Workshops sind das Kompetenzzentrum für Neue Medien in der Lehre der Johann Wolfgang Goethe-Universität Frankfurt/Main und der Projektträger Neue Medien in der Bildung + Fachinformation. Die Veranstaltung setzt die Reihe von themenspezifischen Begleitworkshops im Rahmen des Förderprogramms Neue Medien in der Bildung fort. Eine Übersicht zu bereits durchgeführten und in Planung befindlichen Begleitveranstaltungen finden Sie auf dem Internet-Portal des Projektträgers (http://www.medien-bildung.net).
Seit 2005 ist die Bibliothek des Südasien-Instituts in Kooperation mit der UB Heidelberg Trägerin des DFG-geförderten Sondersammelgebiets Südasien. Damit hat sie von der UB Tübingen ein traditionsreiches Sondersammelgebiet übernommen, dessen Geschichte bis ins Jahr 1949 zurückreicht. Der Vortrag wird zum Einen einen kurzen Überblick über den historischen Kontext des SSG Südasien geben und zum Anderen über Neuentwicklungen, wie z.B. die Virtuelle Fachbibliothek Südasien, die in den letzten zwei Jahren an der Bibliothek des Südasien-Instituts aufgebaut wurde. Vor diesem Hintergrund soll vor allem das Kooperationspotential im Bereich digitaler Informationsressourcen beleuchtet werden.
Wie wird man Formal- bzw. Sacherschließer?
Was macht ein Formal- bzw. Sacherschließer?
Unterschiedliche Traditionen. Ausblick in die Zukunft
Unterschiede in der derzeitigen Erschließungspraxis
Kooperative Erschließungsprogramme
Herkunft bibliografischer Datensätze: Wo kommen sie her?
Herausforderungen der Zukunft
The paper will provide a brief background to the history of the organization and cooperative efforts of African studies librarians in the United States including their efforts at international cooperation. Particular emphasis will be placed on the current opportunities for improved cooperation as digitization activities increase. Examples will include the DISA and Aluka initiatives and well as the Timbuktu manuscript digitization project at the Center for Research Libraries. Particular emphasis will placed on the possibilities for German-North American cooperation in the area of digital projects of historical photographs given the extensive collections held at Northwestern and Frankfurt.
... This year's Scientific Symposium of the University Library is already number six in the row. It was again prepared and organised like some of the previous conferences together with our North American partners. This means that a continuous specialists’ discussion and a professional partnership have been already installed. All librarians and information managers are invited to learn more about the results of this cooperation every year when it's time for the next Symposium during Frankfurt Book Fair. ...
Large American research libraries have been acquiring - by purchase and by lease - huge multi-disciplinary electronic collections of primary and secondary source materials. For example, the Digital Evans and Canadian Poetry easily make available to scholars primary materials that once were scattered in libraries across North America and Europe. The American State Papers, 1789 – 1838 collection allows easier searching of fragile rare materials. Collections made by libraries digitizing their own holdings, such the Archive of Early American Images from the John Carter Brown Library at Brown University, make research materials more discoverable and usable. Yet recent scholarship in American Studies by American and European scholars makes relatively little use of these new materials. Both disparities and congruities in what scholars use and what research libraries collect are apparent. Some simple reasons explain the dissonance. Furthermore, conversations with scholars suggest that materials and collections alone will not suffice to support research. Librarians’ skills and actions will increase the value of the new research materials.
The paper presents an overview about some of the international relevant projects of digital resources in Germany. Online presentations of primary sources, e.g. photographic material, and bibliographic tools supporting research, such as cross searching, will be presented as potential partners of resource sharing with North America. Not only the possibility of cooperation will be sketched, but also necessary preliminary work and some obstacles will be outlined. This report is accompanied by a short characterization of African studies in Germany and the status quo of Open Access-initiatives.
Ziel des Seminars war es, für die "Volkskrankheit Rückenschmerz" vom sportorthopädisch-traumatologisch-sportmedizinischen, vom internistischen, vom schmerztherapeutisch-neurochirurgischen und vom physiotherapeutischen Standpunkt aus neue, auf physiologisch-pathophysiologischen Kenntnissen basierende Sichtweisen mit Relevanz für Prävention und Therapie des verbreiteten Problems Rückenschmerz zu präsentieren.
Der Rückenschmerz als Folge der biomechanischen Besonderheit des "Zweibeiners" im Zeitalter der Hypomobilisation und Hyperalimentation - Lendenwirbelsäulen- und Halswirbelsäulen-Beschwerden (Dr. med. Udo Schreiber, Frankfurt am Main): Der Rückenschmerz - besonders der tiefe Rückenschmerz - des Menschen ist wahrscheinlich meist durch eine Fehlstatik verursacht. In Deutschland beträgt die Inzidenz von Rückenschmerzen während des Lebens fast 80%. Dr. Schreiber legte dar, dass die anatomische Längendifferenz der Beine zu verschiedenen Pathologien im Halte- und Bewegungsapparat führt. Die pathologischen Veränderungen - z.B. transversaler Schub auf das Ileosakralgelenk - treten meistens auf der längeren Beinseite mit einer Skoliose der Wirbelsäule mit erhöhten Druckbelastungen auf der Konkavseite der Skoliose in den Bandscheiben und mit typischen Blockaden in den verschiedenen Wirbelsäulensegmenten auf. Sinnvolle Diagnostik beinhaltet Anamnese und umfangreiche klinische Untersuchung zum Erkennen von Funktionsdefiziten anstelle von nur bildgebender Diagnostik. Sinnvolle Therapien sind - neben analgetischen Therapien, wie manueller Therapie, Matrix-Rhythmus-Therapie, wassergefiltertem Infrarot A (wIRA), Ohrakupunktur, Magnetfeldresonanztherapie, Mikrostromtherapie, Injektionstherapie - vor allem die therapeutisch-präventiven Maßnahmen Dehnen verkürzter Muskulatur und partieller Ausgleich von Beinlängendifferenzen. Wirtschaftlich gesehen verursacht die Fehlstatik immense indirekte und direkte Krankheitskosten, wobei die aufgezeigten sinnvollen Therapien zielführend und zugleich kostengünstig sind.
Ein ganzheitliches Therapiekonzept mit Matrix-Rhythmus-Therapie, Hyperthermie, Sauerstoff und Entsäuerung - Therapie von muskulo-skelettalen Beschwerden (Dr. med. Bernhard Dickreiter, Nordrach): Die Kosten zur Behandlung von Rückenschmerzen belasten in den vergangenen Jahren zunehmend die Krankenkassen durch Diagnose- und Therapiekosten sowie die Betriebe durch Ausfallzeiten. Rückenschulkonzepte der vergangenen Jahre zeigen aus Sicht von Dr. Dickreiter nicht den gewünschten Effekt. Vielversprechende neue Sichtweisen für den Umgang mit diesem Krankheitsbild ergeben sich aus den aktuellen Ergebnissen der zellbiologischen Grundlagenforschungen und dem daraus resultierenden neuen "Matrix-Therapie-Konzept": Die Ursache der muskulo-skelettalen Beschwerden im Sinne eines myofaszialen, myo-ischämisch-azidotischen und myotendinitischen Schmerzsyndroms wird in der Verspannung der Muskulatur mit einer Energiekrise auf zellulärer Ebene gesehen. Beim neuen Therapiekonzept steht nicht eine Therapiefülle wie bisher im Vordergrund, sondern ein auf Effektivität ausgerichtetes modulares Konzept, welches die zellbiologischen Prozesse auf extrazellulärer Matrixebene gezielt beeinflusst. Wesentliche Bestandteile des Konzepts sind die Matrix-Rhythmus-Therapie als tiefenwirksame Mikroextensionstechnik, die lokale Wärme mit wassergefiltertem Infrarot A (wIRA) bzw. die Infrarot-Ganzkörperhyperthermie, die körperliche Bewegung zur lokalen Verbesserung der Sauerstoffversorgung, die Sauerstofftherapie einschließlich Hyperbarer Oxygenation (HBO) und die orthomolekulare Substitution und "gesunde" Ernährung.
Konservative, interventionelle und operative Verfahren aus der Sicht des Schmerztherapeuten und Neurochirurgen: Stellenwert im Hinblick auf ein integriertes Behandlungskonzept (Dr. med. Volker Ritzel, Offenbach am Main): Mit einem interdisziplinären Therapiekonzept (Hausarzt; Orthopädie, Neurochirurgie, Schmerztherapie, Krankengymnastik/Physiotherapie, Psychotherapie) multimodal mit Nutzung konservativer, interventioneller und operativer Verfahren können heute Rückenschmerzen erfolgreich behandelt werden. Dabei ist besonders auf eine rechtzeitige suffiziente Therapie Wert zu legen (u.a. protektive, antizipierende Analgesie), um die Ausbildung eines Schmerzgedächtnisses mit Chronifizierung und Verselbstständigung des Schmerzes zu vermeiden. Zu den konservativen Therapiemöglichkeiten gehören neben einer medikamentösen Schmerztherapie nach dem WHO-Stufenschema die Transkutane elektrische Nervenstimulation (TENS), Physiotherapie, Psychotherapie, übende Verfahren (Progressive Muskelentspannung nach Jakobsen, Autogenes Training, Göttinger Rücken-Aktiv-Programm GRAP), Ergotherapie, Akupunktur und Balneotherapie. Weitere schmerztherapeutisch-neurochirurgische Verfahren sind die therapeutische Lokalanästhesie, CT-gesteuerte Verfahren, die perkutane Laser-Diskus-Dekompression, denervierende Verfahren, die endoskopische Sequestrektomie, die Vertebroplastie, offen-operative Verfahren, die mikrochirurgische Dekompression sowie Implantatverfahren wie die minimal-invasive zervikale und lumbale Spondylodese. Ambulante/Praxisklinische Operationen können heute in einer neurochirurgischen Praxisklinik im Rahmen des modernen Konzepts der Integrationsversorgung erfolgen.
Rückenschule zur primären, sekundären und tertiären Prävention - Lebensstiländerung, Krankengymnastik/Physiotherapie - im Zeitalter integrierter ambulanter Versorgung (Monika Kremer, Frankfurt am Main): Moderne Therapiestrategien bevorzugen - soweit möglich - ein konservatives gegenüber einem operativen Vorgehen, ein aktives gegenüber einem passiven, ein multimodales gegenüber einem monotherapeutischen Vorgehen. Bewegungs- und trainingstherapeutische Maßnahmen (z.B. Erweiterte Ambulante Physiotherapie EAP als Komplextherapie mit den Bestandteilen Krankengymnastik/Physiotherapie, Physikalische Therapie und Medizinische Trainingstherapie MTT) sind wichtige Bestandteile moderner Rückenkonzepte. Die Arbeitsplatzsituation wird besonders berücksichtigt mit zunehmender Integration von Ergonomie-Trainingsprogrammen. Der Begriff "Präventive Rückenschule" umfasst die Vermittlung und Anwendung wirkungsvoller Alltagsstrategien zur Vermeidung hoher Rückenbelastungen, um der Entwicklung funktioneller und degenerativer Krankheiten vornehmlich im Bereich der Wirbelsäule einschließlich muskulärer Dysbalancen vorzubeugen. Hierzu gehört ein rückengerechtes Alltagsverhalten (z.B. richtiges körpernahes Heben und Tragen). Besonders effektiv sind aktive Trainingsformen zum Muskelaufbau und zur Verbesserung der Ausdauer in Kombination mit verhaltensorientierten Trainingsprogrammen mit dem Ziel der Steigerung von Wohlbefinden und Lebensqualität. Erläutert werden das Konzept des Forschungs- und Präventionszentrums Köln (FPZ), das Kieser-Training, das Baunataler Rücken-Konzept (BRK) und das tergumed®-Rückenkonzept. Häufig können Rückenschmerzen durch rückengerechte Verhaltensweisen sowie präventives und rehabilitatives Rückentraining vermieden werden oder es kann nach ihrem Auftreten rehabilitativ wieder ein schmerzfreier stabiler Gesundheitszustand erreicht werden.
Die in den beiden letzten Jahren abgeschlossenen Nationallizenzen haben Tatsachen geschaffen, die den Start zu einer Umstrukturierung der überregionalen Informationsversorgung erleichtern: - Versorgungslücken wurden geschlossen. - Die Durchdringung der Hochschulen und Forschungseinrichtungen mit elektronischer Fachinformation wurde vergleichbaren Ländern angeglichen. - Wissenschaftler, Studierende und wissenschaftlich interessierte Privatpersonen haben deutschlandweit kostenlosen Zugang zu einem fachlich breit gestreuten Angebot an retrospektiven Datenbanken, digitalen Textsammlungen und elektronischen Zeitschriften.
Retiming is a widely investigated technique for performance optimization. It performs powerful modifications on a circuit netlist. However, often it is not clear, whether the predicted performance improvement will still be valid after placement has been performed. This paper presents a new retiming algorithm using a highly accurate timing model taking into account the effect of retiming on capacitive loads of single wires as well as fanout systems. We propose the integration of retiming into a timing-driven standard cell placement environment based on simulated annealing. Retiming is used as an optimization technique throughout the whole placement process. The experimental results show the benefit of the proposed approach. In comparison with the conventional design flow based on standard FEAS our approach achieved an improvement in cycle time of up to 34% and 17% on the average.
Retiming is a widely investigated technique for performance optimization. In general, it performs extensive modifications on a circuit netlist, leaving it unclear, whether the achieved performance improvement will still be valid after placement has been performed. This paper presents an approach for integrating retiming into a timing-driven placement environment. The experimental results show the benefit of the proposed approach on circuit performance in comparison with design flows using retiming only as a pre- or postplacement optimization method.
This paper presents a new timing driven approach for cell replication tailored to the practical needs of standard cell layout design. Cell replication methods have been studied extensively in the context of generic partitioning problems. However, until now it has remained unclear what practical benefit can be obtained from this concept in a realistic environment for timing driven layout synthesis. Therefore, this paper presents a timing driven cell replication procedure, demonstrates its incorporation into a standard cell placement and routing tool and examines its benefit on the final circuit performance in comparison with conventional gate or transistor sizing techniques. Furthermore, we demonstrate that cell replication can deteriorate the stuck-at fault testability of circuits and show that stuck-at redundancy elimination must be integrated into the placement procedure. Experimental results demonstrate the usefulness of the proposed methodology and suggest that cell replication should be an integral part of the physical design flow complementing traditional gate sizing techniques.
We present new concepts to integrate logic synthesis and physical design. Our methodology uses general Boolean transformations as known from technology-independent synthesis, and a recursive bi-partitioning placement algorithm. In each partitioning step, the precision of the layout data increases. This allows effective guidance of the logic synthesis operations for cycle time optimization. An additional advantage of our approach is that no complicated layout corrections are needed when the netlist is changed.
The languages of the world differ with respect to argument extraction possibilities. In languages such as English, wh-movement is possible from Spec IP and from the complement position, whereas in languages such as Malagasy only extraction from Spec IP is possible. This difference correlates with the fact that these language types obey different island constraints and behave differently with respect to wh-in situ and superiority effects. The goal of this paper is to outline an analysis for these differences. The basic idea is that in contrast to languages such as English, in Malagasy-type languages every argument can be merged in the complement position of the selecting head.
Expletives as features
(2000)
Expletives have always been a central topic of theoretical debate and subject to different analyses within the different stages of the Principles and Parameter theory (see Chomsky 1981, 1986, 1995; Lasnik 1992, 1995; Frampton and Gutman 1997; among others). However, most analyses center on the question how to explain the behavior of expletives in A-chains (such as there in English or Þad in Icelandic). No account relates wh-expletives (as one finds them in so-called partial wh-movement constructions in languages such as Hungarian, Romani, and German) to expletives in Achains. In this paper, I argue that the framework of the Minimalist Program opens up the possibility of accounting for expletive-associate relations in A-/A'-chains in a unified manner. The main idea of the unitary analysis is that an expletive is an overtly realized feature bundle that is (sub)extracted from its associate DP. There in an expletive-associate chain is a moved D-feature which orginates inside the associate DP. Similarily, in A'-chains, the whexpletive originates as a focus-/wh-feature in the wh-phrase with which it is associated. This analysis provides evidence for the feature-checking theory in Chomsky (1995). The paper is organized as follows. Section 2 contains the discussion of expletive there. In section 3 I suggest an analysis for whexpletives, and I also explore whether this analysis can be extended to relations between X°-categories such as auxiliary and participle complexes.
In this paper I show that Clitic Climbing (CC) in Spanish and Long Scrambling (LS) in German (and Polish) are (im-)possible out of the same environments. For an explanation of this fact I propose a feature-oriented analysis of incorporation phenomena. The idea is that restructuring is a phenomenon of syntactic incorporation. In German and Polish, Agro incorporates covertly into the matrix clause and licenses LS out of the infinitival into the matrix clause. Similarily the clitic in Spanish, which is analysed as an Agro-head, incorporates into the matrix clause. I argue that this movement is necessary for reasons of feature-checking, i. e. for checking of an [+R]- or Restructuring-feature. In section 2 I discuss several differences between CC and LS. For example, the proposed analysis correctly predicts that clitics in contrast to scrambled phrases are subject to several serialization restrictions. Throughout the paper I use the term restructuring only in a descriptive sense, in order to describe the phenomenon in question.
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
Flight paths of homing pigeons were measured with a newly developed recorder based on GPS. The device consists of a GPS receiver board, a logging facility, an antenna, a power supply, a DCDC converter and a casing. It has a weight of 33g and works reliably with a sampling rate of 1/s with an operation time of about 3 h, providing timeindexed data on geographic positions, ground speed and altitude. The data are downloaded when the bird is recaptured. The devices are fixed to the birds with a harness. The measured complete flight paths show many details: e.g. initial loops flown immediately after release and large detours flown by some pigeons. We are here presenting 3 examples of flight paths from a release site 17.3 km Northeast of the home loft in Frankfurt. Mean speed in flight, duration of breaks and length of the flight path were calculated. The pigeons chose different routes and have different individual tendencies to fly loops over the village close to the release site.
This paper describes a first version of the GPS flight recorder for homing pigeons. The GPS recorder consists of a hybrid GPS board, a patch antenna 19*19 mm, a 3 V Lithium battery as power supply, a DCDC converter, a logging facility and an additional microprocessor. It has a weight of 33g. Prototypes were tested and worked reliably with a sampling rate of 1/sec and with an operation time of about 3 h. In first tests on homing pigeons 9 flight paths were recorded, showing details like loops flown immediately after the release, complete routes over 30 km including detours, rest periods and speed.
Location-based services (LBS) are services that position your mobile phone to provide some context-based service for you. Some of these services – called ‘location tracking’ applications - need frequent updates of the current position to decide whether a service should be initiated. Thus, internet-based systems will continuously collect and process the location in relationship to a personal context of an identified customer. This paper will present the concept of location as part of a person’s identity. I will conceptualize location in information systems and relate it to concepts like privacy, geographical information systems and surveillance. The talk will present how the knowledge of a person's private life and identity can be enhanced with data mining technologies on location profiles and movement patterns. Finally, some first concepts about protecting location information.
Mobile telephony and mobile internet are driving a new application paradigm: location-based services (LBS). Based on a person’s location and context, personalized applications can be deployed. Thus, internet-based systems will continuously collect and process the location in relationship to a personal context of an identified customer. One of the challenges in designing LBS infrastructures is the concurrent design for economic infrastructures and the preservation of privacy of the subjects whose location is tracked. This presentation will explain typical LBS scenarios, the resulting new privacy challenges and user requirements and raises economic questions about privacy-design. The topics will be connected to “mobile identity” to derive what particular identity management issues can be found in LBS.
Information literacy is a mosaic of attitudes, understandings, capabilities and knowledge about which there are three myths. The first myth is that it is about the ability to use ICTs to access a wealth of information. The second is that students entering higher education are information literate because student centred, resource based, and ICT focused learning are now pervasive in secondary education. The third myth is that information literacy development can be addressed by library-centric generic approaches. This paper addresses those myths and emphasises the need for information literacy to be recognised as the critical whole of education and societal issue, fundamental to an information-enabled and better world. In formal education, information literacy can only be developed by infusion into curriculum design, pedagogies, and assessment.
Navigating information, facilitating knowledge: the library, the academy, and student learning
(2004)
Understanding the nature and complementarity of the phenomena of information and knowledge lend not only epistemological clarity to their relationship, but also reaffirms the place of the library in the academic mission of knowledge transfer, acquisition, interpretation, and creation. These in turn reassert the legitimacy of the academic library as necessary participant in the teaching enterprise of colleges and universities. Such legitimacy induces an obligation to teach, and that obligation needs to be explored and implemented with adequate vigor and reach. Librarians and the academy must, however, concede that the scope of the task calls for a solution that goes beyond shared responsibilities. Academic libraries should assume a full teaching function even as they continue their exploration and design of activities and programs aimed at reinforcing information literacy in the various disciplines on campus. All must concede that need for collaboration cannot provide grounds for questioning the desirability of autonomous teaching status for the academic library in information literacy education
Damping cells for the higher order modes are necessary for the S-band linear collider to minimize BBU (Beam-Break-Up). The construction of the damper cells has to take into account the different field geometries of the higher order modes. So two different types of dampers have been designed: a wall slotted an an iris slotted cell. In order to optimize the two types of damping cells with respect to damping strength, impedance matching between coupling system and waveguide dampers and between damping cell and undamped cells and the tuning system, damping cells of both types have been built and examinated.
To reach high luminosities in future linear colliders short range wakes havea to be controlled in the range of X-band frequencies or higher. Rectangular irises can be used to introduce strong focusing quadrupole-like rf-fields. Even circular irises in iris-loaded accelarator structures have the capability of focusing if the particle velocity differs from phase velocity. Theoretical investigations concerning the focusing strength to be expected are presented. Their applicability for linear colliders is discussed.
A new method of measuring quality factors in cavities is presented. This method is well suited to measure quality factors in undamped cavities as well as in heavily damped cavities, and in addition this method provides a possibility of separating modes and measuring quality factors especially in cases of overlapping modes. Measurements have been carried out on HOM-damped cavities for the DESY/THD linear collider project. Results are presented.
Due to the additional need of very short bunches for the FEL operation with the TESLA-machine strong wakefield effects are expected. One third of the total wakefield energy per bunch is radiated into the frequency region above the energy gap of Cooper pairs in superconducting niobium. The energy of the cooper pairs in superconducting niobium at 2 K corresponds to a frequency of 700 GHz. An analytical and experimental estimation for the overall energy loss of the FEL bunch above energy gap is presented. The analytical method is based on a study from R. B. Palmer [1]. The results of the wakefield estimations are used to calculate possible quality factor reduction of the TESLA cavities during FEL operation. Results are presented.
While science claims to be universal, the notion of universality actually covers two very different facets: on the one hand, it refers to the universal value of the epistemological claims of science while, on the other hand, it addresses the issue of how fully the process of scientific communication is presently globalized. How the issue of open access crosses that of the globalization of scientific communication will be the theme of this presentation. The conclusion will be that, without open access, the globalization of scientific communication will lead to increased knowledge and digital divisions.
In this increasingly complex world of learned information delivery and discovery - is it possible that the "free lunch" the Publishing world worries about could come true? Although Open Access and Institutional Repositories have not (yet) created the "scorched earth" effect many were predicting, they are slowly and inevitably gaining momentum. Broader access to top-level information via Google (and others) does indeed appear to be "good enough" for many in their search for content. But you rarely get food for free in a good quality restaurant. You pay for the selection, preparation, speed and expertise of the delivery. At the soup kitchen the food can often be filling - but the queue will be long, the wait even longer and there is no chance of silver service or à la carte. If you are unfortunate enough to have little choice then this may be a great solution. Others will be willing to pay for a more satisfactory meal. As in all aspects of life, diversification and specialisation are fundamental forces. The publishing community in the years to come will continue to develop its offerings for a variety of needs that require more than just broth. To stretch the analogy, the ongoing presence of tap water in our lives has done little to halt the extraordinary rise of bottled water as part of our staple diet. Business reality will continue to settle these types of debate; my bet is that the commercial publishers see a role as providing information that commands an intrinsic value proposition to enough customers to remain economically viable for some time to come. Inspired by the comments and ideas expounded by Dr. James O'Donnell of Georgetown University on the liblicense listserv on 20th July this year, this paper will look to expand on the analogy and identify the good, the bad - but importantly the difference in information quality and access that will result in the radically changed (but still co-existent) information landscape of tomorrow.
The economical and organizational debates about open access have mostly been concerned with journals. This is not surprising since the open access movement can be seen largely as a response to the serials crisis. Recently the open access debate has been extended to include access to government produced data in different forms. In this presentation I'll critically look at some economic and organizational issues pertaining to the open access provision of bibliographical data.
In keeping with the views of its guru, Stephen Harnard, the open access movement is only prepared to discuss the two models of the "green road" and the "golden road" as sole alternatives for the future of scientific publishing. The "golden road" is put forward as the royal road for solving the journals crisis. However, no one has drawn attention to the fact that the golden road represents a purely socialist solution to a free-market problem and thus continues the "samizdat" tradition of underground literature in the former Eastern bloc. The present paper reveals the alarmingly low level at which the open access movement intends to publish top-class results from science and research, and the low degree of professionalism with which they are satisfied.
Der Vortrag wurde am 5th Frankfurt Scientific Symposium gehalten (22-23 Oktober 2005). Die Betrachtung des Videos ist (leider) nur mit den Browsern Internet Explorer ab 5.0, Netscape Navigator ab 7.0 oder Internet Explorer ab 5.2.2 für MaC möglich (s. Dokument 1.html). Die gesamten Tagungsbeiträge sind unter http://publikationen.ub.uni-frankfurt.de/volltexte/2005/1992/ abrufbar.
Course management software : supporting the university’s teaching with technology initiatives
(2004)
An increasingly important element of the teaching with technology activities at Northwestern University is the course management system, a web-based class communication and administration environment. The usage growth of the system is substantial and amplifies the need for integration with other web services and resources. Integration is particularly material in area of library services. This presentation contains a case study of Northwestern University's implementation of its course management system software and highlights examples of how the system is being used to enhance the teaching and learning. A description of the integration efforts with library resources is provided. The goal of the presentation is to equip librarians with the basic knowledge required to engage with their colleagues in conversations surrounding the nature of integration of these systems within the teaching and learning landscapes of their home institutions.
The key hypothesis is that the IT industry lure us into the IT world with a promise to solve our information problems. Do we sign the contract, we will recognise that the IT industry can´t keep the promise. One reason: they themselves lost sight over there own game. Therefore they have to invent new tools continiously. LIS professionals should not leave the field IT professionals. LIS professional should rather put stress on to reveal the difference in the value chain between data – information – knowledge. Information and knowledge is brainware and not produced by hard and software in the sense of IT philosophy. Against the background of the language game of Jean-François Lyotard, the author explains the information and knowledge society as language game invented by the IT industry. Furthermore his beliefs of postmodernen LIS professionals and the consequences involved for LIS traning will be presented.
US investors hold much less foreign stocks than mean/variance analysis applied to historical data predicts. In this article, we investigate whether this home bias can be explained by Bayesian approaches to international asset allocation. In contrast to mean/variance analysis, Bayesian approaches employ different techniques for obtaining the set of expected returns. They shrink sample means towards a reference point that is inferred from economic theory. We also show that one of the Bayesian approaches leads to the same implications for asset allocation as mean-variance/tracking error criterion. In both cases, the optimal portfolio is a combination the market portfolio and the mean/variance efficient portfolio with the highest Sharpe ratio.
Applying the Bayesian approaches to the subject of international diversification, we find that substantial home bias can be explained when a US investor has a strong belief in the global mean/variance efficiency of the US market portfolio and when he has a high regret aversion falling behind the US market portfolio. We also find that the current level of home bias can justified whenever regret aversion is significantly higher than risk aversion.
Finally, we compare the Bayesian approaches to mean/variance analysis in an empirical out-ofsample study. The Bayesian approaches prove to be superior to mean/variance optimized portfolios in terms of higher risk-adjusted performance and lower turnover. However, they not systematically outperform the US market portfolio or the minimum-variance portfolio.
In the current globalization debate the law appears to be entangled in economic and political developments which move into a new dimension of depoliticization, de-centralization and de-individualization. For all the correct observations in detail, though, this debate is bringing about a drastic (polit)economic reduction of the role of law in the globalization process that I wish to challenge in this paper. Here one has to take on Wallerstein’s misconception of “worldwide economies” according to which the formation of the global society is seen as a basically economic process. Autonomous globalization processes in other social spheres running parallel to economic globalization need to be taken seriously. In protest against such (polit)economic reductionism several strands of the debate, among them the neo-institutionalist theory of “global culture”, post-modern concepts of global legal pluralism, systems theory studies of differentiated global society and various versions of “global civil society” have shaped a concept of a polycentric globalization. From these angles the remarkable multiplicity of the world society, in which tendencies to re-politicization, re-regionalization and re-individualization are becoming visible at the same time, becomes evident. I shall contrast two current theses on the globalization of law with two less current counter-theses: First thesis: globalization is relevant for law because the emergence of global markets undermines the control potential of national policy, and therefore also the chances of legal regulation. First counter-thesis: globalization produces a set of problems intrinsic to law itself, consisting in a change to the dominant lawmaking processes. Second thesis: globalization means that the law institutionalizes the worldwide shift in power from governmental actors to economic actors. Second counter-thesis: globalization means that the law has a chance of contributing to a dual constitution of autonomous sectors of world society.
The hadronic final state of central Pb+Pb collisions at 20, 30, 40, 80, and 158 AGeV has been measured by the CERN NA49 collaboration. The mean transverse mass of pions and kaons at midrapidity stays nearly constant in this energy range, whereas at lower energies, at the AGS, a steep increase with beam energy was measured. Compared to p+p collisions as well as to model calculations, anomalies in the energy dependence of pion and kaon production at lower SPS energies are observed. These findings can be explained, assuming that the energy density reached in central A+A collisions at lower SPS energies is sufficient to transform the hot and dense nuclear matter into a deconfined phase.
Vor gut einem Jahr ist im Archiv für die civilistische Praxis ein Aufsatz erschienen, in welchem ich mich mit den Perspektiven des Verbrauchervertragsrechts nach der Schuldrechtsreform auseinandergesetzt habe. Der leicht provozierende Unterton der dort vorgetragenen Kritik hat nun nicht nur – wie beabsichtigt – den einen oder anderen Leser zum Lachen verführt, sondern offensichtlich auch Irritationen bezüglich der Richtung hervorgerufen, in die der Verbraucherschutzzug in Zukunft fahren soll: zurück in die Siebziger Jahre und – nach erneutem Schlagen vergangener Schlachten – ins bürgerliche Formalrecht des 19. Jahrhundert? Oder was soll mit dem Stichwort "Prozedurales Verbrauchervertragsrecht" gemeint sein? Ich möchte an dieser Stelle einen Präzisierungsversuch unternehmen.
We present a detailed study of chemical freeze-out in nucleus-nucleus collisions at beam energies of 11.6, 30, 40, 80 and 158A GeV. By analyzing hadronic multiplicities within the statistical hadronization approach, we have studied the chemical equilibration of the system as a function of center of mass energy and of the parameters of the source. Additionally, we have tested and compared different versions of the statistical model, with special emphasis on possible explanations of the observed strangeness hadronic phase space under-saturation.
Fluctuations and NA49
(2005)
The knowledge of the build up time of space charge compensation (SCC) and the investigation of the compensation process is of main interest for low energy beam transport of pulsed high perveance ion beams under space charge compensated conditions. To investigate experimentally the rise of compensation an LEBT system consisting of a pulsed ion source, two solenoids and a drift tube as diagnostic section has been set up. The beam potential has been measured time resolved by a residual gas ion energy analyser (RGA). A numerical simulation for the calculation of self-consistent equilibrium states of the beam plasma has been developed to determine plasma parameters which are difficult measure directly. The results of the simulation has been compared with the measured data to investigate the behavior of the compensation electrons as a function of time. The acquired data shows that the theoretical rise time of space charge compensation is by a factor of two shorter than the build up time determined experimentally. In view of description the process of SCC an interpretation of the gained results is given.
High perveance negative ion beams with low emittance are essential for several next generation particle accelerators (i. g. spallation sources like ESS [1] and SNS [2]). The extraction and transport of these beams have intrinsic difficulties different from positive ion beams. Limitation of beam current and emittance growth have to be avoided. To fulfill the requirements of those projects a detailed knowledge of the physics of beam formation the interaction of the H- with the residual gas and transport is substantial. A compact cesium free H- volume source delivering a low energy high perveance beam (6.5 keV, 2.3 mA, perveance K= 0.0034) has been built to study the fundamental physics of beam transport and will be integrated into the existing LEBT section in the near future. First measurements of the interaction between the ion beam and the residual gas will be presented together with the experimental set up and preliminary results.
Low energy beam transport (LEBT) for a future heavy ion driven inertial fusion (HIDIF [1]) facility is a crucial point using a Bi+ beam of 40 mA at 156 keV. High space charge forces (generalised perveance K=3.6*10-3) restrict the use of electrostatic focussing systems. On the other hand magnetic lenses using space charge compensation suffer from the low particle velocity. Additionally the emittance requirements are very high in order to avoid particle losses in the linac and at ring injection [2]. urthermore source noise and rise time of space charge compensation [3] might enhance particle losses and emittance. Gabor lenses [4] using a continuous space charge cloud for focussing could be a serious alternative to conventional LEBT systems. They combine strong cylinder symmetric focussing with partly space charge compensation and low emittance growth due to lower non linear fields. A high tolerance against source noise and current fluctuations and reduced investment costs are other possible advantages. The proof of principle has already been shown [5, 6]. To broaden the experiences an experimental program was started. Therefrom the first experimental results using a double Gabor lens (DGPL, see fig. 1 ) LEBT system for transporting an high perveance Xe+ beam will be presented and the results of numerical simulations will be shown.
The determination of the beam emittance using conventional destructive methods suffers from two main disadvantages. The interaction between the ion beam and the measurement device produces a high amount of secondary particles. Those particles interact with the beam and can change the transport properties of the accelerator. Particularly in the low energy section of high current accelerators like proposed for IFMIF, heavy ion inertial fusion devices (HIDIF) and spallation sources (ESS, SNS) the power deposited on the emittance measurement device can lead to extensive heat on the detector itself and can destruct or at least dejust the device (slit or grit for example). CCD camera measurements of the incident light emitted from interaction of beam ions with residual gas are commonly used for determination of the beam emittance. Fast data acquisition and high time resolution are additional features of such a method. Therefore a matrix formalism is used to derive the emittance from the measured profile of the beam [1,2] which does not take space charge effects and emittance growth into account. A new method to derive the phase space distribution of the beam from a single CCD camera image using statistical numerical methods will be presented together with measurements. The results will be compared with measurements gained from a conventional Allison type (slit-slit) emittance measurement device.
Vortrag gehalten an der Tagung "The XVI International Conference on Ultrarelativistic Nucleus-Nucleus Collisions, organized by SUBATECH Laboratory", in Nantes, France, 18-24 Juli 2002.
The experiment NA49 at the CERN SPS is a large acceptance detector for charmed hadrons. The identification of neutral strange hadrons Lambda and AntiLambda is based on the measurement of their charged decay particles and the reconstruciton of the decay vertex. The charged particles were measured with the 4 time projection chambers (TPC), two of them are situated inside 2 large dipole magnets, the two others are downstream of the magnet. Lambda and AntiLambda baryons have been measured in central Pb+Pb collisions at 40, 80 and 160 GeV/nucleon over a wide range in rapidity (1 - 5) and transverse momentum (0 - 3 GeV/c). Particle yields and spectra will be shown for the different energies. The results will be put into the existing systematics of Lambda-production as a function of beam energy.
Tagungsvorträge werden als MP3-Files zum Anhören angeboten. Das Motiv: 2003 stand der 100. Geburtstag Theodor W. Adornos auf der Tagesordnung des kulturellen und akademischen Geschehens. Adorno war sicherlich einer der wirkungsmächtigsten Philosophen und Theoretiker der Gesellschaft des 20. Jahrhunderts. Seine Schriften sind weltweit verbreitet und haben unzählige Wissenschaftler aus den verschiedensten Disziplinen anhaltend inspiriert. Wo immer man in der Welt als Frankfurter Hochschullehrer auf geistig tätige Menschen trifft, man wird auf Adorno angesprochen. Zum Schicksal eines jeden Klassikers gehört es, dass es einen Streit um das Erbe gibt und sich folglich verschiedene Strömungen auf das Vorbild beziehen. Zugleich provoziert das die unausgesetzte Debatte darum, ob das Werk nicht bereits historisch geworden sei und uns für unsere Zeit also nicht mehr viel zu sagen habe. Oder ob es klassisch: unvergänglich vergangen sei, und damit ein starker Anstoß zum Weiterdenken geblieben sei. Hinter dieser, in vielen Buchpublikationen und Feuilletons (insbesondere in der Frankfurt Allgemeinen Zeitung) geführten Debatte um die Aktualität der kritischen Theorie und des Denkens Adornos verschwindet leicht die aufmerksame Beobachtung, was denn nach Adornos Tod 1969 von seinen direkten oder mittelbaren Schülern in den Feldern geleistet worden ist, auf die insgesamt sich das Genie Adornos beziehen konnte. Es stand zu befürchten, dass das Jubiläum als Geburtstagsfeier einer Geistesgröße mit einer Fülle von Erinnerungen und Würdigungen vollzogen wird, ohne dass der doch ungleich interessanteren Frage nachgegangen würde, in welcher Hinsicht das Werk Adornos in den produktiven Arbeiten heutiger Wissenschaftler lebendig geblieben ist. Inhaltliche Akzente: Lebendigkeit bedeutet keineswegs die Fortsetzung eines orthodox verwalteten Erbes, sondern verweist notwendig auf oft eigensinnige Versuche, die Denkmittel Adornos im Sinne seiner Kritik an der Gesellschaft zu nutzen. Lebendigkeit konkretisiert sich also nicht als Traditionspflege oder als wohlfeile Revision von Positionen, über die die Zeit hinweggegangen sein soll, sondern im sachhaltigen Aufweis ihrer Aktualität durch Arbeiten, mit denen aus unterschiedlicher fachlicher Sicht kritische Theorie als fortgesetztes Arbeitsprogramm deutlich wird. Insofern diente der Kongress der systematischen Überprüfung und Dokumentation der in produktiver Forschung sich ausdrückenden Lebendigkeit der Ansätze Adornos sowie der Ausarbeitung der Aufgaben für die nähere Zukunft. Zugleich wird damit nicht weniger beansprucht als einen repräsentativen Überblick zu geben, wie es heute mit der Aufklärung selbst bestellt ist. Auf der Tagung sprachen Wissenschaftler sprechen, die in den vergangenen Jahrzehnten bewiesen haben, dass sie mit ihrem Forschungsprogramm die Diagnose der Gesellschaft, inspiriert durch jene Denkmittel, insbesondere auf unbearbeitetem Terrain fortgeführt haben und die zugleich für die Zukunft die Untersuchung von Fragen versprechen, die auf der Tagesordnung der Aufklärung stehen. Jeder Vortragende wird seine Arbeiten in den Kontext auch derjenigen stellen, die innerhalb seines Faches ebenfalls von Kritischer Theorie beeinflusst wurden. Im Vordergrund der Darstellung soll aber die eigene bislang geleistete Arbeit unter der Fragestellung der Tagung rekapituliert werden und schlaglichtartig erkennbar gemacht werden, in welchem Sinne Fragen der gegenwärtigsten Gegenwart mit den theoretischen Figuren Adornos kommunizieren.
We introduce a new method for representing and solving a general class of non-preemptive resource-constrained project scheduling problems. The new approach is to represent scheduling problems as de- scriptions (activity terms) in a language called RSV, which allows nested expressions using pll, seq, and xor. The activity-terms of RSV are similar to concepts in a description logic. The language RSV generalizes previous approaches to scheduling with variants insofar as it permits xor's not only of atomic activities but also of arbitrary activity terms. A specific semantics that assigns their set of active schedules to activity terms shows correctness of a calculus normalizing activity terms RSV similar to propositional DNF-computation. Based on RSV, this paper describes a diagram-based algorithm for the RSV-problem which uses a scan-line principle. The scan-line principle is used for determining and resolving the occurring resource conflicts and leads to a nonredundant generation of all active schedules and thus to a computation of the optimal schedule.
In the last decade, much effort went into the design of robust third-person pronominal anaphor resolution algorithms. Typical approaches are reported to achieve an accuracy of 60-85%. Recent research addresses the question of how to deal with the remaining difficult-toresolve anaphors. Lappin (2004) proposes a sequenced model of anaphor resolution according to which a cascade of processing modules employing knowledge and inferencing techniques of increasing complexity should be applied. The individual modules should only deal with and, hence, recognize the subset of anaphors for which they are competent. It will be shown that the problem of focusing on the competence cases is equivalent to the problem of giving precision precedence over recall. Three systems for high precision robust knowledge-poor anaphor resolution will be designed and compared: a ruleset-based approach, a salience threshold approach, and a machine-learning-based approach. According to corpus-based evaluation, there is no unique best approach. Which approach scores highest depends upon type of pronominal anaphor as well as upon text genre.