Refine
Year of publication
Document Type
- Conference Proceeding (1283) (remove)
Language
Is part of the Bibliography
- no (1283) (remove)
Keywords
- Germanistik (54)
- Bologna-Prozess (32)
- Exzellenzinitiative (32)
- Theorie (32)
- Zukunft (32)
- Deutsch (24)
- Computerlinguistik (23)
- Kongress (23)
- Virtuelle Hochschule (23)
- Informationsstruktur (19)
Institute
- Physik (248)
- Medizin (189)
- Rechtswissenschaft (119)
- Universitätsbibliothek (96)
- Extern (69)
- Informatik (41)
- Geschichtswissenschaften (31)
- Gesellschaftswissenschaften (30)
- Frankfurt Institute for Advanced Studies (FIAS) (27)
- Erziehungswissenschaften (25)
Fragestellung: Die meniscofemoralen Ligamente (MFL) ant. (Humphry) und post. (Wrisberg) begleiten inkonstant das hintere Kreuzband vom lateralen Meniskus zur medialen Femurkondyle, sie üben eine Außenmeniskusstellfunktion aus. Bisherige Literatur gibt eine stark variierende Inzidenzrate der MFL an, die durch eine hohe Fallzahl von untersuchten Kniegelenken in dieser Arbeit verifiziert werden soll.
Methoden: 122 frische, unversehrte Kniegelenke von 31 männlichen und 30 weiblichen Leichen des Sektionsgutes der Rechtsmedizin Frankfurt, wurden auf Inzidenz und Morpholgie von ant. und post. MFL untersucht, ein ventraler (n.Souryal) und dorsaler Nochweitenindex (NWI) erstellt sowie eine morphologische Typisierung der vorhandenen ant. und post. MFL vorgenommen
Ergebnisse: 96% der Kniegelenke zeigten ein oder beide MFL, davon post. MFL in 82% und ant. MFL in 58%. Beide Ligamente in beiden Knien einer Leiche kamen zu 33% vor. Statistisch wurde keine Korrelation zwischen Alter, Geschlecht, Seite und der Inzidenz der Ligamente gefunden. vNWI: w 0,22; m 0,24. dorsaler NWI: w 0,26; m 0,28. Einteilung des post. MFL (Wrisberg): Typ I Strang, Typ II Fächer, Typ III kein meniskaler Ansatz.
Schlussfolgerungen: Die Inzidenz und damit auch klinische Relevanz beider MFL liegt höher als bisher angenommen, z.B. in der Beurteilung von Knie-MRTs als falschpos. Rupturen oder in der klinischen Untersuchung als Abschwächung einer hinteren Schublade. Die Typisierung zeigt einen Zusammenhang des post. MFL mit einem dritten Kreuzband auf: nach Evolution des aufrechten Ganges und damit weniger Rotation im Kniegelenk bildet es sich zurück.
Poster Einleitung Im Rahmen effizienzsteigernder Maßnahmen sind klinische Behandlungspfade unter DRG- Bedingungen und im Rahmen der Qualitätssicherung wichtige Instrumente. Material und Methoden Aus der Analyse zweier erfahrungsbasierter klinischer Behandlungspfade in Frankfurt/D und Newcastle/GB wurde ein halbstandardisierter clinical pathway Carotisstenose entwickelt, der der heterogenen Befundkonstellation bei Aufnahme, den unterschiedlichen klinischen Stadien der Erkrankung und den individuellen Patientenbedürfnissen Rechnung trägt. Es wurden dazu zwei Gruppen mit je 25 konsekutiv in Frankfurt/D ( Gruppe FrankfurtI) und New Castle/GB ( Gruppe New Castle )operierten Patienten retrospektiv analysiert.Aus den retrospektiv erhobenen Daten wurde ein stadienbezogener und der Zuweisersituation gerecht werdender klinischer Behandlungspfad erstellt, der anhand von 20 konsekutiv operierten Patienten, davon 60 % im Stadium IV der Erkrankung, ( Gruppe FrankfurtII ) analysiert wurde. Ergebnisse In Frankfurt 1 wurde 21 mal eine Eversions-TEA und 4 mal eine TEA/ Patchplastik angewendet, 62 % der Patienten befanden sich im Stadium 1 der Erkrankung, ,65 % erhielten präoperativ eine i.a.DSA der supraaortalen Äste ,100% eine Duplexsonografie und eine CCT; postoperativ fielen insgesamt 12 Intensiv- Pflegetage an sowie eine Revision aufgrund einer Nachblutung. In der Gruppe New Castle befanden sich 68% der Patienten in einem klinischen Stadium 2,es wurde 25 mal offen thrombendarteriektomiert, davon 21 mal mit Direktnaht verschlossen und 4 mal mit Patchplastik, alle Patienten erhielten präoperativ eine CT- Angiografie und eine Duplexsonografie; postoperativ fiel 1 Intensivpflegetag an und eine Revision wegen Nachblutung. Die Morbiditäts-/ Mortalitätsrate betrug in beiden Gruppen 0%. Betriebswirtschaftlich wurden bei einer Liegedauer von durchschnittlich 10 Tagen in Frankfurt 1 tatsächliche Kosten von 2768.96€ pro Patient ermittelt, in New Castle,bei einer Liegedauer von durchschnittlich 5 Tagen und einer differenten Kostenstruktur von 2510.56 €. In der Gruppe Frankfurt 2 wurde 11mal eine TEA mit Patchplastik und 9 mal eine Eversions-TEA durchgeführt, alle Patienten erhielten präoperativ eine Duplexsonografie und eine CCT , postoperativ fielen insgesamt 6 Intensivtage an, es wurde nicht revidiert, die Morbiditäts-/Mortalitätsrate lag ebenfalls bei 0%. Durch Einführung eines klinischen Behandlungspfades wurde also die Liegedauer in Frankfurt um 40 % reduziert sowie die tatsächlichen Kosten auf 2384.41€ pro Fall und damit im Mittel um 14 % gemindert. Schlussfolgerung Unter DRG-Bedingungen trägt daher die Anwendung eines klinischen Behandlungspfades in der Carotischirurgie zu einer Verbesserung der Erlössituation ohne Qualitätseinbuße bei.
Background The detection of the new Coranavirus (CoV) causing agent of the severe acute respiratory syndrome (SARS) for diagnostic purposes is still a critical step in prevention of secondary hospital infections. In this respect the PCR for SARS diagnostic is the fastest and most sensitive method and was published very early after the description of the new pathogen by different groups. To evaluate the quality and sensitivity of the SARS PCR performed in diagnostic laboratories all over the world an external quality assurance (EQA) for SARS PCR was initiated by the WHO, the European Network for Diagnostics of "Imported" Viral Diseases (ENIVD) and the Robert Koch-Institut. Methods Therefore 10 samples of inactivated SARS CoV strains isolated in Frankfurt and Hong Kong in different dilutions and negative controls were prepared. The freeze dried samples were send by mail to 62 different laboratories, in 37 countries in Europe and Israel (35), Asia (11), The Americas (11), Australia and New Zealand (4) and Africa (1). The results were returned by email or fax 1 week (13), 2 weeks (14), 3 weeks (6) and later (29) after receiving the material which does not mimic at all the possible speed of this fast method. But this was not considered in the evaluation of these first SARS EQA. Results 44 laboratories showed good or excellent results (26 = 100%, 18 = 90%) and even the 14 laboratories which archived only 80% (10) or 70% (4) correct results are mostly lacking sensitivity. The results of the other 4 laboratories show basic problems in regard to sensitivity, specificity and consistency of results and must be overcome as soon as possible. 4 laboratories seem to have problems with the specificity finding a positive signal in negative samples. The different methods used for preparation of the SARS CoV genome and diagnostic PCR test procedure used by the participating laboratories will be discussed in more detail in the presentation. Conclusion However, in contrast to previous EQAs for Ebola, Lassa and Orthopoxviruses the quality of PCR results was rather good which might be caused by the early publication and distribution of well developed PCR methods. An EQA for evaluation of SARS specific serology is still ongoing, first results will be available beginning of April 2004.
Ausbildung in Evidenzbasierter Medizin am Universitätsklinikum Frankfurt am Main : meeting abstract
(2005)
Einführung: Obwohl international die Integration der Evidenzbasierten Medizin (EbM) in die klinische Medizin und in die Ausbildung voranschreitet, ist die Verbreitung im deutschen Klinikalltag eine fortbestehende Herausforderung. Vor allem ist die Vernetzung der theoretischen Lerninhalte mit den klinisch-praktischen Fertigkeiten eine weit verbreitete Schwierigkeit. Die neue Ärzteapprobationsordnung bietet Möglichkeiten für innovative Konzepte im medizinischen Curriculum. Sowohl die systematische Informationssuche als auch die kritische Bewertung und Anwendung medizinischer Informationen sind wichtige Kernkompetenzen der ärztlichen Tätigkeit. Zum Wintersemester 03/04 wurde in Frankfurt das erste curriculare Seminar EbM als Teilfach des Querschnittsbereiches I (Epidemiologie, Med. Biometrie und Med. Informatik) auf der Basis des peer-teaching eingeführt und wissenschaftlich begleitet.
Methoden: Für alle Studierenden des 2. klinischen Semesters wird in Kleingruppenseminaren an 4 Terminen ein Basiskurs EbM nach den Kriterien des Deutschen Netzwerkes für Evidenzbasierte Medizin e.V. durchgeführt. Dabei werden die Module Vierteilige Frage, Internetrecherche, Diagnose und Therapie erarbeitet. Ein individuelles Fallbeispiel (klinische Fragestellung) wird von jedem Studierenden selbständig mit allen Schritten der EbM bearbeitet. Jede Seminararbeit wird im Rahmen eines journal clubs von dem Studierenden vorgestellt und in der Kleingruppe diskutiert. Während des ersten unterrichteten Semesters erhielt jeder Seminarteilnehmer zu Seminarbeginn und zum Seminarende einen Testfragebogen mit 20 Fragen, sowie zum Ende einen anonymisierten Fragebogen mit der Bitte um Einschätzung. Die anonymisierten Fragebogen werden seitdem weiter in jedem Semester eingesetzt.
Ergebnisse: Es wurden im Durchschnitt nach dem Seminar 7,48 (99% KI 6.61-8.36) Fragen mehr als vor dem Seminar richtig beantwortet. Der Kurs wurde im Median mit der Note gut eingeschätzt (Weberschock et al 2005, im Druck). Die Auswertungen der Einschätzungen der nachfolgenden Semester zeigten noch bessere Ergebnisse.
Schlussfolgerung: EbM ist in der medizinischen Ausbildung sehr gut durchführbar und wird mit den richtigen didaktischen Konzepten auch voll akzeptiert. Vor allem die Fähigkeit, medizinische Informationen korrekt zu bewerten und sie klinisch fachgerecht anzuwenden ist eine essentielle Kompetenz für die ärztliche Tätigkeit und bedarf den sichern Umgang mit den Methoden und Medien.
Ausblick: Die Vernetzung der theoretischen Aspekte bei der medizinischen Informationsverarbeitung mit der klinischen Anwendung der gewonnenen Erkenntnisse ist für die Ausbildung in EbM ein essentieller Bestandteil. Um die Lehrenden auf diese Aufgabe adäquat vorbereiten zu können, werden in naher Zukunft in Zusammenarbeit mit dem Deutschen Netzwerk Evidenzbasierte Medizin (DNEbM), der Arbeitsgemeinschaft der wissenschaftlich medizinischen Fachgesellschaften (AWMF) und der Gesellschaft für medizinische Ausbildung (GMA) Train-the Teacher-Seminare veranstaltet. Diese Seminare sollen einerseits die didaktischen Methoden und Fertigkeiten der EbM-Lehrenden weiter ausbauen und andererseits eine Brücke zwischen theoretischen Lerninhalten und klinischen Bezügen schlagen.
Einleitung: Die Behandlung stumpfer abdomineller Verletzungen hat sich innerhalb der letzten Jahre zugunsten der konservativen Therapie gewandelt. Die Untersuchung beschäftigt sich mit der Frage, ob nichtoperatives Management von Abdominalverletzungen eine sichere und in der Routine praktikable therapeutische Option darstellt und wie häufig eine Konversion von primär konservativen zu operativen Management durchgeführt werden muß. Methodik: In einem Zeitraum von 3 Jahren (September 2002 bis August 2005) wurden 1214 Patienten über den Schockraum der Uniklinik Frankfurt aufgenommen. Die Datenerhebung und der Behandlungsverlauf erfolgte prospektiv on-line über den gesamten Behandlungsverlauf mittels des on-line Dokumentationsprogrammes Traumawatch´. Ergebnisse: Der durchschnittliche ISS aller Patienten lag bei 15. Eine relevante abdominelle Beteiligung (AIS >3) bestand in 12,4% der Fälle (151 Patienten) mit einem mittleren ISS von 33. Es wurden 60 Leberverletzungen (39,7%), 50 Milzverletzungen (33,1%), Verletzungen des Darms und Mesenterium in 19 Fällen (12,6%), 15 Verletzungen der Niere und der Harnwege(9,9 %) und Verletzungen Bauchdecke bei 28 Patienten (18,5 %) festgestellt. Das Pankreas war bei 3 Patienten (2,0%) und das Zwerchfell bei 8 Patienten (5,3%) betroffen. In 77 Fällen (51%) wurden die Patienten mit Abdominaltrauma primär konservativ, in 74 Fällen (49%) operativ versorgt, 10 Patienten (7%) wurden laparoskopiert. Nur bei 2 Patienten (1,3%) musste eine Konversion von der primär konservativen Therapie in eine operative erfolgen. Es handelte sich hierbei um eine sekundäre Darmperforation und eine zweizeitige Milzruptur. Patienten mit einer Leberverletzung konnten in 65% der Fälle konservativ versorgt werden, Patienten mit Milzverletzung hingegen nur in 50% der Fälle. 32% der operierten Patienten wurden splenektomiert. 4 Patienten, alle mit einem AIS-Abdomen größer oder gleich 4, verstarben im Schockraum noch vor operativer Interventionsmöglichkeit. Schlussfolgerung: Nichtoperatives Vorgehen beim Polytrauma mit abdomineller Beteiligung ist bei hämodynamisch stabilem Patienten weitgehend sicher möglich. Insbesondere für Leberverletzungen bis einem Schweregrad Moore V stellt das primär konservatives Vorgehen eine geeignete therapeutische Option dar.
Poster Einleitung: OSCEs werden immer häufiger in der Ausbildung von Studierenden eingesetzt. Die Einführung eines OSCEs im fach Chirurgie ist in Planung. Durch die große Anzahl von Studierenden pro Semester oder Studienjahr (400 Studierende in Frankfurt) ist die Durchführung einer OSCE Prüfung mit großem personellen Aufwand verbunden. Vor allem während der Prüfung müssen eine Vielzahl von Chirurgen simultan zu Prüfungszwecken zur Verfügung stehen. Ziel der Studie war es, zu überprüfen, ob eine video-basierte Bewertung einer „Nahtstation“ zu einem späteren Zeitpunkt zu gleichen Ergebnissen in der Bewertung der Leistung der Studierenden führt. Methode: 33 Studierende führten unter standardisierten Bedingungen eine Hautnaht an einem Modell durchzuführen. Die Studierenden wurden während der Prozedur von zwei prüfenden Chirurgen und zwei Studierenden im PJ (praktischen Jahr) beobachtet und anhand einer objektiv strukturierten Checkliste bewertet (Prozessevaluation). Die Prozedur wurde gleichzeitig auf Video aufgezeichnet und zu einem späteren Zeitpunkt zwei weiteren Chirurgen und zwei weiteren Studierenden im PJ zur Bewertung gezeigt. Ergebnisse: Der Vergleich zwischen "live“-prüfenden und "video“-prüfenden Chirurgen zeigt eine signifikant hohe Korrelation (r=0,87; p<0,01) und eine hohe Übereinstimmung (88,2%) in der Bewertung. Ebenso zeigen die prüfenden PJler eine signifikant hohe Korrelation (r=0,84; p<0,01). Die Übereinstimmung ist bei den PJlern mit (82.4%) etwas niedriger als bei den beteiligten Chirurgen. Zusammenfassung: Mit dieser Studie konnte zeigt werden, daß es bei der Beurteilung der Performance von Studierenden bei einer Hautnaht am Modell unter Anwendung von objektiv strukturierten Checklisten möglich ist, eine direkte Beobachtung der Studierenden durch eine video-basierte Beobachtung zu ersetzen. Eine "Nahtstation“ in einem OSCE kann somit während der Prüfungszeit ohne Prüfer auskommen und im Anschluß bewertet werden.
Als Konsequenz der Änderung des Hochschulrahmengesetzes können deutsche Hochschulen einen Großteil Ihrer zur Verfügung stehenden Studienplätze in den Numerus-Clausus Fächern nach eigenen Kriterien vergeben. Die Identifizierung von Merkmalen, die im Zusammenhang mit dem Studienerfolg stehen, stellt daher ein aktuelles Forschungsthema dar. Ein längsschnittlich angelegtes Forschungsprojekt der Universität Frankfurt am Main soll prüfen, inwieweit kognitive und nicht-kognitive Merkmale wie gewichtete Einzelfachnoten, das Ergebnis eines fachbezogenen Kenntnistests oder bildungsbiographische Daten neben der Abiturdurchschnittsnote einen bedeutsamen Beitrag zur Prognose des Studienerfolges in den Anfangssemestern des Studiengangs Medizin leisten können. Im Wintersemester 05/06 wurde Studierenden des ersten Fachsemesters ein Test zur Erfassung naturwissenschaftlicher Vorkenntnisse (Nawik) der Bereiche Mathematik, Physik, Chemie und Biologie vorgelegt sowie die Abiturdurchschnittsnote erhoben. Als Indikator für den Studienerfolg im ersten Fachsemester wurde die Punktzahl in der Anatomieklausur heran gezogen. Die ersten Ergebnisse einer Stichprobe von N=140 Studierenden lassen substanzielle Korrelationen der Leistungen im Nawik sowie der Abiturdurchschnittsnote mit der Klausurleistung erkennen (r= 0,45, p< 0,01 bzw. r= -0,24, p<0,01). Eine schrittweise Regression weist insbesondere die Leistung im Test naturwissenschaftlicher Vorkenntnisse als vorhersagestarken Prädiktor aus. Die vorläufigen Ergebnisse werden anhand einer größeren Stichprobe geprüft. Weitere Auswertungen zur Bedeutsamkeit von Einzelfachnoten und bildungsbiographischen Daten (wie das Ausmaß an Vorerfahrung in medizinischen Bereichen) für den Studienerfolg laufen derzeit.
Deutsche medizinische Fachbereiche und Fakultäten sollen ihre Studienanfänger nach eigenen Kriterien aussuchen. Da bis zu 40 000 Bewerbungen pro Jahr erwartet werden können, ist eine Vorauswahl erforderlich, bevor arbeitsintensivere Auswahlmechanismen eingesetzt werden können. Wir haben einen Fragebogen konzipiert für den Versuch, zusätzlich zu schulischen Leistungen weitere Bewerbercharakteristika zu erfassen wie vorbestehendes medizinisch relevantes Wissen, musische, soziale, sportliche und berufliche Aktivitäten. Alle Studienanfänger des Wintersemesters 2005/2006 (860 Studierende) der Medizinischen Fachbereiche/Fakultäten an der Johann Wolfgang Goethe-Universität Frankfurt (FFM) und der Medizinischen Universität Innsbruck (MUI) wurden gebeten, diesen Fragebogen auszufüllen. Zum Wintersemester 2005/2006 wurde in FFM ausschließlich nach Abiturnote zugelassen, während die Zulassung an der MUI nach dem Posteingang der Bewerbung erfolgte, ohne Berücksichtigung von Schulnoten. Beide Gruppen (FFM 431 Studierende, MUI 429 Studierende) gaben vergleichbare nichtschulische Aktivitäten mit fast identischer Häufigkeit an, mit der Ausnahme der Ableistung eines Krankenhauspraktikums. Ein Pflegepraktikum wird von der deutschen Approbationsordnung verlangt, kann aber vor Studienbeginn absolviert werden, so dass deutsche Studienbeginner (sowohl Zulassung in FFM - 53%; deutsche Studienanfänger an der MUI - 67%) überwiegend ein Praktikum absolviert hatten, während österreichische Studienanfänger ein Praktikum wesentlich seltener abgeleistet hatten (14%). Derzeit sollten die erfassten nichtschulischen Leistungen als Zulassungskriterium für das Medizinstudium nur nach vorheriger Überprüfung der Eignung verwendet werden.
Poster Während des klinischen Studienabschnittes bildet sich der Eindruck, dass Studierende entweder stärker an eher theoretischen Gebieten wie Innere Medizin, Pharmakologie oder Klinischer Chemie interessiert sind, oder an praktisch orientierten, meist operativen Disziplinen. Wir haben diese Hypothese am Fachbereich Medizin der Johann Wolfgang Goethe-Universität Frankfurt getestet mit den Prüfungsergebnissen für die Noten in den klinischen Fächern. Die Klausuren werden mit einem vergleichbaren Format in allen Fächern abgehalten, praktische Fähigkeiten werden durch OSCE-Prüfungen gemessen. Die derzeitige Datenbasis umfasst 300 - 1000 Studierende pro Fach. Die derzeitigen Ergebnisse zeigen eine stärkere Korrelation der Prüfungsleistungen in verwandten Fächern; die Korrelationen zwischen theoretischen und praktischen Prüfungsleistungen sind entgegen den Erwartungen nicht stark ausgeprägt. Bei der Interpretation ist zu berücksichtigen, dass die individuellen Leistungen auch durch andere Faktoren beeinflusst werden, wie die Notwendigkeit des Arbeitens, Tätigkeiten im Rahmen einer Dissertation oder extracurriculare Aktivitäten, die die Prioritäten in Klausuren oder praktischen Prüfungen von einer guten Note zum Bestehen ändern können. Auch die derzeitige Unsicherheit über die Bedeutung der Fachnoten trägt dazu bei, nicht in jedem Fall gute Noten erreichen zu wollen. Die derzeitigen Daten zeigen keine ausgeprägte Clusterung studentischer Lernleistungen; typischerweise sind individuelle Studierende entweder in allen Fächern herausragend, oder in keinem Fach.
Langzeiterfahrungen mit der ipsilateralen Elektroakustischen Stimulation (EAS) : meeting abstract
(2006)
Hochgradig hörgeschädigten Patienten mit einem Tieftonrestgehör (Steilabfall im Audiogramm) können mittels ipsilateraler EAS versorgt werden. Dabei wird der völlig taube Hochfrequenzbereich des Innenohres mit einem Cochleaimplantat stimuliert, und die tieffrequente Restfunktion der Schnecke bleibt erhalten. Voraussetzung für eine derartige Versorgung ist ein Erhalt des tieffrequenten Restgehöres bei der Cochlea-Implant-Elektrodeneinführung. Im Rahmen einer klinischen Studie wurden seit 1999 in Frankfurt 25 Patienten mit EAS versorgt. Des Weiteren wurden 16 Patienten im Rahmen einer europäischen Multicenterstudie für EAS implantiert. Ein zumindest teilweiser Erhalt des Restgehöres war in über 90% der Fälle möglich. Es wird über die Langzeitergebnisse (6 bis 70 Monate) nach EAS-Implantation berichtet. In 70% der Fälle blieb das erhaltene Restgehör stabil. Die Patienten zeigten überdurchschnittlich gute Werte bei der Sprachdiskrimination mit ihren Cochleaimplantaten, die durch zusätzliche akustische Stimulation noch verbessert wurden. Besonders deutlich waren die Hörleistungen unter Störgeräuscheinfluss. Seit Kurzem steht auch ein kombinierter Sprachprozessor für die elektrische und akustische Stimulation zur Verfügung.
Hintergrund: Die studentische Ausbildung sollte sowohl inhaltlich als auch organisatorisch auf qualitativ hohem Niveau durchgeführt werden. Während die Evidenzbasierte Medizin (EbM) auf inhaltlicher Ebene die medizinische Ausbildung optimieren kann, vermag dies auf organisatorischer Ebene das Qualitätsmanagement (QM). Aus diesem Grund führte die Arbeitsgruppe EBM Frankfurt des Instituts für Allgemeinmedizin am Universitätsklinikum Frankfurt am Main ein umfassendes Qualitätsmanagementsystem (QMS) ein.
Methoden: Auf Eigeninitiative einiger Arbeitsgruppenmitglieder wurde mit Unterstützung der Stabsstelle Qualitätsmanagement des Uniklinikums Frankfurt ab Oktober 2002 ein alle Teilbereiche der Arbeitsgruppe umfassendes QMS eingeführt. Unter Führung des QM-Lenkungsteams der Arbeitsgruppe wurden für alle relevanten Prozesse des Lehrbetriebs Ablaufdiagramme, Checklisten, Prozessbeschreibungen und Mindeststandards definiert und eingeführt. Hierbei wurden alle Mitglieder aktiv und kontinuierlich in den Erstellungsprozeß eingebunden.
Ergebnisse: Durch die kontinuierliche Beteiligung aller Mitarbeiter konnte ein allgemein akzeptiertes, lebendiges, effektives und zertifizierbares Qualitätsmanagementsystem eingeführt und aufrechterhalten werden. Wichtiger als eine Zertifizierung erscheint jedoch die kontinuierliche Verbesserung des Lehrbetriebs, die sich in zunehmend besseren Benotungen des curricularen EbM-Seminars (WiSe 2003/04: 2,37 vs. SoSe 2006: 1,54) und effektiver Kursgestaltung bei geringer Personalkapazität wiederspiegelt.
Schlussfolgerung/Implikation: Die Implementierung eines QMS auf freiwilliger Basis ist in Bereichen akademischer Lehre unter Beachtung wichtiger Erfolgsfaktoren mit moderatem Personal- und Sachkostenaufwand möglich und ein effektives Instrument zur Verbesserung der von den Studierenden wahrgenommenen Dienstleistungsqualität.
Hintergrund: Die praktische Anwendung der EbM bedarf neben interner Evidenz auch einiger Basis-Fertigkeiten, die schon während der medizinischen Ausbildung trainiert werden sollten. Während die EbM seit über 3 Jahren fester Bestandteil des Ausbildungscurriculums der medizinischen Fakultät in Frankfurt/Main ist, findet sie an vielen anderen Fakultäten nur langsam Einzug.
Um diesen Prozess zu unterstützen und zu beschleunigen, wurde von der Arbeitsgruppe EBM Frankfurt das Ausbildungskonzept Train the Teacher ins Leben gerufen.
Methoden: Der Train the Teacher-Kurs besteht aus zwei Teilen und basiert auf den Erfahrungen von 20 Basiskursen und über 50 curricularen Seminaren an der Universität Frankfurt. Er setzt sich aus einem „EbM-Aufbaukurs“ und einem „Didaktik-Kurs“ zusammen. Ziel des Kurses ist die Befähigung der Teilnehmer zur Konzeption eines eigenen EbM-Lehrangebotes an der jeweiligen Ausbildungseinrichtung. Beide Ausbildungsteile werden sowohl subjektiv als auch objektiv evaluiert.
Ergebnisse: Es konnten im Rahmen des Lehrkonzepts Train the Teacher mittlerweile 25 Personen aus unterschiedlichsten Fachbereichen und Einrichtungen aus dem gesamten Bundesgebiet ausgebildet werden. Sowohl die subjektiven als auch objektiven Evaluationen fallen durchweg positiv aus. Die Vorevaluation ergab bei der subjektiven Bewertung einen Score von 8,27 (Skala von 1 bis maximal 10). Bei der objektiven Evaluation wurden im Mittel 84% der gestellten Fragen richtig beantwortet.
Schlussfolgerung/Implikation: Der Train the Teacher – Kurs ist für das angestrebte Ziel Erfolg versprechend. Einige Absolventen haben bereits begonnen, an verschiedenen Ausbildungsstandorten evidenzbasierte Lehrangebote zu implementieren. Das Konzept wird erweitert und fortgeführt.
Die medizinische Ausbildung wird gegenwärtig zunehmend mit E-Learning-Elementen angereichert. Die Orientierung in der in verschiedenste Netze zersplitterten Lernlandschaft erweist sich häufig als problematisch und zeitaufwändig, und dies bereits innerhalb einzelner Universitäten und Fachbereiche. "FAUST" - Frankfurter Ausbildungs - und Studienangebote der Medizin im virtuellen Raum (http://www.med.uni-frankfurt.de/faust/index.html) - löst dieses Problem. FAUST bietet einfache und schnelle Zugangsmöglichkeiten zu allen instituts- und klinikeigenen elektronischen Informationsquellen (z. B. Vorlesungsskripte) und E-learning Projekten (e!uro; fanatomic.de; HistoPathOnline, E-learning-Academy) sowie zu überregionalen medizinischen Lernplattformen (z. B. k-med, LaMedica), die in Frankfurt entwickelt bzw. mitentwickelt wurden und bereits curricular eingesetzt werden. Schneller Zugang wird auch zum Lernmanagementsystem WebCT vermittelt, das zunehmend zur Kommunikation, strukturierten Präsentation von E-Content sowie zur Durchführung elektronischer Klausuren eingesetzt wird. Das Portal wurde von einem im E-Learning erfahrenen Team (Kliniker, Vorkliniker, Designer, Informatiker) mit Mitteln des Lehr- und Studienausschusses entwickelt. Es ist seit dem Sommersemester 2005 freigeschaltet. FAUST versteht sich zudem als Anlaufstelle für Lehrende des Fachbereichs Medizin, die am E-Learning interessiert sind. Sie können Beratung bei didaktischen und technischen Fragen, sowie Unterstützung bei der Realisierung ihrer Projekte erhalten. FAUST möchte auf diesem Wege die Vernetzung der E-Learning-Akteure unterstützen.
Objective: Establishment of an immunocompetent mouse model representing the typical progressive stages observed in malignant human gliomas for the in vivo evaluation of novel target-specific regimens.
Methods: Isolated clones from tumours that arose spontaneously in GFAP-v-src transgenic mice were used to develop a transplantable brain tumour model in syngeneic B6C3F1 mice. STAT3 protein was knocked down by infection of tumour cells with replication-defective lentivirus encoding STAT3-siRNA. Apoptosis is designed to be induced by soluble recombinant TRAIL + chemical Bcl-2/Bcl-xL inhibitors.
Results: Striatal implantation of 105 mouse tumour cells resulted in the robust development of microscopically (2 – 3 mm) infiltrating malignant gliomas. Immunohistochemically, the gliomas displayed the astroglial marker GFAP and the oncogenic form of STAT3 (Tyr-705-phosphorylated) which is found in many malignancies including gliomas. Phosphorylated STAT3 was particularly prominent in the nucleus but was also found at the plasma membrane of peripherally infiltrating glioma cells. To evaluate the role of STAT3 in tumour progression, we stably expressed siRNA against STAT3 in several murine glioma cell lines. The effect of STAT3 depletion on proliferation, invasion and survival will be first assessed in vitro and subsequently after transplantation in vivo. Upstream and downstream components of the STAT3 signalling pathway as well as possible non-specific side effects of STAT3-siRNA expression after lentiviral infection will be examined, too.
Conclusions: Its high rate of engraftment, its similarity to the malignant glioma of origin, and its rapid locally invasive growth should make this murine model useful in testing novel therapies for malignant gliomas.
Survivin functions as an apoptosis inhibitor and a regulator of cell division during development and tumorigenesis. Since survivin is a highly relevant target for tumor therapy, we investigated whether interference with it’s dynamic cellular localization represents a novel strategy to inhibit survivin’s cancer promoting functions. We confirmed survivin overexpression in head and neck as well as in colorectal cancers and identified an evolutionary conserved Crm1-dependent nuclear export signal (NES) in survivin. Importantly, nuclear export was required for survivin mediated protection against chemo- and radiotherapy-induced apoptosis by securing efficient interference with cytoplasmic caspases. In dividing cells, the NES was required for tethering of survivin and of the survivin/Aurora-B kinase complex to the mitotic machinery, which was inevitable for proper cell division. The clinical relevance of our findings was supported by showing that preferential nuclear localization of survivin correlated with enhanced survival in a cohort of colorectal cancer patients. Targeting survivin’s nuclear export by the application of NES-specific antibodies promoted its nuclear accumulation and inhibited its cytoprotective function. We here show that nuclear export is essential for the tumor promoting activities of survivin and encourage the identification of chemical inhibitors to specifically interfere with survivin’s nuclear export as a novel class of anticancer therapeutics.
Hintergrund Die chronische Herzinsuffizienz erfordert als Systemerkrankung hausärztliche sowie spezialärztliche Versorgung. Die evidenzbasierte DEGAM-Leitlinie (LL) zur hausärztlichen Versorgung der Herzinsuffizienz wurde formal interdisziplinär konsentiert, nachdem der Entwurf ein mehrstufiges internes und externes Reviewverfahren durchlaufen hatte. Methode Wissenschaftliche Fachgesellschaften und Organisationen (FG/O) wurden zu einem Nominalen Gruppenprozeß (NGP) eingeladen und entsandten autorisierte Teilnehmer. Diese erhielten den LL-Entwurf inkl. Methodenreport sowie eine Liste zentraler LL-Empfehlungen für ein persönliches Ranking (44-Items; 6-stufige Likert-Skala). Beim Konsentierungstreffen wurden aus dem 1. Ranking Themen ohne deutliche Übereinstimmung (Likert =4) identifiziert, unter Hinzunahme weiterer Themenvorschläge in priorisierter Reihenfolge diskutiert und erneut abgestimmt. Der überarbeitete LL-Entwurf wurde in einem zweiten Ranking im Delphi-Verfahren konsentiert. Ergebnisse Im Abstimmungsprozess mit 10 Vertretern aus 11 FG/O wurden ~35 Themen diskutiert. Bei zwei Empfehlungen mit fehlender Evidenz wurde ein von internationalen LL abweichender Konsens getroffen (z.B. ß-Blocker bei asymptomatischen Patienten nur nach durchgemachtem Herzinfarkt). Vier Formulierungen bewertenden Charakters zur BNP-Bestimmung wurden zugunsten einer Negativempfehlung gestrichen, eine Empfehlung mit der STIKO harmonisiert (Pneumokokkenimpfung), bei weiteren wurden ergänzende Konditionen im Wortlaut eingefügt oder sprachliche Änderungen vorgenommen. Fünf Themen wurden neu erstellt (z.B. kontraindizierte Pharmaka). Bis auf drei (z.B. Flussdiagramme nicht vollständig konsensfähig: unangemessene Vereinfachung vs. fehlende Praktikabilität) wurden alle Empfehlungen der LL konsentiert. Schlussfolgerungen Der NGP ist für evidenzbasierte LL eine geeignete Vorgehensweise. Interdisziplinarität ist insbesondere bei Entscheidungsunsicherheit (fehlende oder inkonsistente Evidenz) und zur Schnittstellendefinition wertvoll.
Das Bibliothekssystem der Universität Frankfurt am Main ist seit dem Jahre 2005 in einer Phase des Umbruchs. Durch die Überleitung der ehemaligen Stadt- und Universitätsbibliothek in die Trägerschaft der Universität mit gleichzeitiger vollständiger Integration der Senckenbergischen Bibliothek zu einer neuen Institution mit Namen "Universitätsbibliothek Johann Christian Senckenberg" vollzieht sich auf allen Ebenen ein struktureller Wandel. Da per gesetzlicher Vorgabe und von der Universität erlassenen Bibliotheksordnung die funktionale Einschichtigkeit realisiert werden soll, werden nun auch die bisher autonomen dezentralen Bibliotheken sukzessive administrativ mit der UB zusammengeführt. Der Frage, wie dabei die zentralen und dezentralen Erwerbungsmittel zu einer sinnvollen Verteilung geführt werden können, wird derzeit am Standort diskutiert. Der Beitrag versucht, schlaglichtartig den augenblicklichen Stand zu beleuchten.
Germanistik im Netz - das Fachportal zur deutschen Sprach- und Literaturwissenschaft - ist seit Juni 2006 online. Germanistik im Netz richtet sich vorrangig an Germanistinnen und Germanisten in Forschung und Lehre und ermöglicht eine übergreifende Suche nach ausgewählten digitalen und konventionellen Medien sowie nach weiteren fachrelevanten Informationen. Beteiligt waren bei Projektstart Ende 2004 vier Partner: Die Universitätsbibliothek Frankfurt/Main (SSG-Bibliothek für Germanistik), das Deutsche Literaturarchiv Marbach, der Deutsche Germanistenverband sowie die Initiativgruppe Fachportal Germanistik, im Juni 2005 stieß die Mailingliste H-Germanistik hinzu, in Förderphase II verstärken u.a. die Anna Amalia Bibliothek Weimar und die Herzog August Bibliothek Wolfenbüttel das Projektkonsortium.
Symbolischer Konsens, regionale Kohäsion und das Versagen institutioneller Innovation in Donetsk
(2000)
Die Ukraine zeichnet sich durch erhebliche regionale Disparität aus, die sich in einander verstärkenden historischen, sprachlichen, kulturellen und wirtschaftlichen Unterschieden ausdrückt. Meine Betrachtung konzentriert sich auf den Oblast Donetsk in der Ost-Ukraine, der geprägt ist von sprachlicher und kultureller Russifizierung sowie dem Vorherrschen der Kohle- und Schwerindustrie. Die Region befindet sich in einer tiefen sozioökonomischen Krise, der wenig Innovation und Reform entgegengesetzt werden. Im folgenden möchte ich zwei Formen von Entwicklungsblockaden beschreiben. ...
This paper presents the design and implementation of a group oriented, decentralised, virtual learning settings where students meet in groups of 3 –5 people at different locations all over the world and communicate via the internet. After presenting the objective of such a didactical design the paper gives an insight into the technical implementation. It presents the advantages and disadvantages of several internet services in such a virtual setting and a way of combining these internet applications according to their special characteristics. While the role of teachers change to those of coordinators the communication process within and between the groups becomes more important – as discussed in the following chapter. The paper concludes with the presentation of two practical applications as offered by the Institute for Didactics and Economics at the Johann Wolfgang Goethe-University Frankfurt/Main (Germany) and some evaluating remarks.
Dieser Beitrag widmet sich in erster Linie der Analyse, unter welchen Voraussetzungen Telearbeit als neue Form der Arbeitsorganisation eingeführt wird und welche Formen dabei auftreten. Nach einer Einführung in die Thematik werden die verschiedenen Ausprägungen der Telearbeit (Kapitel 2) dargestellt, bevor die Voraussetzungen (Kapitel 3) im einzelnen diskutiert werden. Die genauen Kenntnisse dieser Bedingungen zur Einführung der Telearbeit erlauben einerseits Voraussagen für ihre zukünftige Umsetzung sowie die Ableitung politischer Empfehlungen - besonders im regionalpolitischen Bereich - für die gezielte Förderung der Telearbeit (Kapitel 4). Die Telearbeit erhält zur Zeit im öffentlichen Interesse wieder einen Aufschwung: ist doch die technische Entwicklung der Telekommunikation und Computervernetzung inzwischen genügend vorangeschritten und der Bekanntheitsgrad des Internets und der damit verbundenen möglichen Veränderungen im Berufs- wie auch im Privatleben dank der Medien entsprechend angestiegen, um die Diskussion um diese neue Arbeitsorganisation aufleben zu lassen. Während Arbeitgeber vor allem Kostenfaktoren und Wettbewerbsfähigkeit im Auge behalten, sind die Arbeitnehmer von neuen Arbeitsformen, flexibleren Arbeitszeiten und freier Ortswahl angetan. Trotz der Euphorie ist die tatsächliche Entwicklung der Telearbeit weltweit nur langsam voranschreitend. Vorreiter sind die USA, die aufgrund der Telekommunikationsentwicklung und dem Bedarf an verkehrsreduzierenden Arbeitsformen (vor allem Kalifornien) und auch aufgrund der kulturellen Aufgeschlossenheit gegenüber Innovationen zuerst diese Entwicklung aufgriff. In Europa sind vor allem die britischen Telearbeiter in der Anzahl führend, gefolgt von Frankreich, Deutschland, Spanien und Italien. Betrachtet man die unterschiedliche Entwicklung der Telearbeit in den Ländern, so läßt dies vermuten, daß bestimmte Faktoren zu deren Einführung beitragen, welche in einigen Ländern vorliegen und in anderen weniger oder gar nicht vorhanden sind.
Wie können Hochschulen in Zeiten knapper Mittel qualitativ hochwertige eLearning-Szenarien und –Inhalte entwickeln ohne eine zentrale Einrichtung als Nadelöhr zu erleben? Dieser Beitrag behandelt Ansätze zur Qualitätssicherung im eLearning und stellt ein Beispiel vor, wie durch die Vermittlung entsprechender Kompetenzen und prozessbegleitender Beratung und Unterstützung Qaulitätssicherung im eLearning betrieben werden kann und zugleich eine breite Verankerung des Einsatzes Neuer Medien erreicht wird.
Virtuelle Konferenzen
(2002)
Mit dem Projekt megadigitale setzt die Goethe-Universität Frankfurt/M. ihre eLearning-Strategie studiumdigitale um. Ziel des Prozesses ist, eLearning in allen Fachbereichen der Hochschule nachhaltig zu verankern und dabei fachspezifische Mediennutzungspotentiale zur Verbesserung der Lehre zu realisieren. In einem Verbund von Topdown- und Bottomup-Initiativen, wie fachbereichsspezifischen eLearning-Konzepten und zentralen Qualifizierungs, Beratungs- Betreuungs- und Infrastrukturangeboten setzt sich das gesamte Programm in einem Mix aus Anreiz- und Förderinstrumenten zusammen. Der Beitrag beschreibt die wesentlichen Initiativen dieses Vorhabens und fasst erste Erfahrungen zusammen.
Wikis im eLearning
(2006)
Dieser Beitrag verdeutlicht, dass durch den Einsatz von Wikis in der Lehre methodisch neue Formen der Hochschuldidaktik möglich sind. Einleitend zu den beiden anderen Beiträgen zum Thema "Wikis in der Lehre" des Workshops auf der Delfi-Tagung 2006 übernimmt er die Rolle, allgemein die Einsatzszenarien für Wikis im eLearning zu beschreiben und gibt konkrete Gestaltungshinweise für deren Nutzung in Lehrveranstaltungen. Abschließend wird ein Ausblick auf anstehende Forschungsfragen und technische Entwicklungen von Wikis gegeben.
The University library in Frankfurt/Main owns the largest collection of literature on Judaism and Israel in Germany and one of the major collections in the world. Its task is to document the history of the Jewish people and to serve as a resource for study and research in Germany. The Jewish Division is therefore collecting all relevant national and international publications covering all aspects of post-biblical Judaism and Jewish culture in a most comprehensive manner, as well as all publications on the modern State of Israel. Two databases offer access to the large collections of the Judaica-Division. Yiddish Literature is the database that offers online access to the page images of the outstanding historical Yiddish collection, containing about 800 extremely rare and precious Yiddish and German-Jewish books printed in Hebrew letters from the 16th century onwards. Compact memory is a gateway to more than 100 Jewish periodicals in the German language area published in the 19th and 20th century, providing partly images, partly full-text-search and a bibliographic database of articles. The implementation of a third, new digital project, the »Virtual Judaica-collection« has just started - the digitization and online-presentation of the historical Judaica resources. Formed by his curator Prof. Aron Freimann, it was the largest and most significant Judaica collection on the European continent before the war. The goal is to offer free access to about 18.000 books with 2 Mill. pages over the web. In light of these developments, the presentation will evaluate the current possibilities of German-North-American cooperation in the area of digital projects.
A number of pressures on academic libraries imperil the long-term survivability of printed knowledge and heritage materials. Ever-growing volumes of materials, costs of preserving and delivering paper-based research resources, and researchers’ growing demand for source materials in electronic formats all produce strain on our institutions. ...
Man muss kein Marxist sein, um anzuerkennen, dass Unternehmer in kapitalistischen Industriegesellschaften ein gesellschaftlich außerordentlich mächtiges Interesse verkörpern. Angesichts der gegenwärtig zu beobachtenden politischen Kräfteverhältnisse erscheint diese Machtposition so gefestigt wie lange nicht mehr. Die vorgeblichen Zwänge der Globalisierung und ein politisch hegemonialer Marktradikalismus haben die Durchsetzungsfähigkeit politischer Unternehmerstrategien weiter gestärkt. Im Rahmen der voranschreitenden Ökonomisierung des Politischen werden die Verwertungsbedingungen zum zentralen Maßstab politischer „Reformprojekte“, wie dies in der gegenwärtigen Arbeitsmarkt- und Sozialpolitik der Bundesregierung deutlich zu erkennen ist. Da es sich dabei jedoch nicht um einen automatischen Prozess handelt, sondern um politische Auseinandersetzungen, deren Ausgang prinzipiell ungewiss ist, bleibt erklärungsbedürftig, wie sich das Verhältnis von Unternehmern und Politik im Einzelnen gestaltet. Die grundlegende Frage lautet, wie sich in einem parlamentarisch-demokratischen System, in dem formal alle gesellschaftlichen Gruppen den gleichen Zugang zu politischen Entscheidungsprozessen besitzen, ökonomische in politische Macht „übersetzt“. Im Folgenden sollen einige Facetten dieser Frage diskutiert werden. Dabei wird erstens die Quantität der „sozialen Gruppe“ der Unternehmer in der Bundesrepublik Deutschland umrissen, zweitens wird ihre politische Durchsetzungsfähigkeit im System kollektiven Interessenhandelns erörtert und drittens wird, anhand einiger klassentheoretischer Überlegungen, das Verhältnis von Homogenität und Fragmentierung unternehmerischer Interessen thematisiert.
Die UB Frankfurt/M. als Sondersammelgebietsbibliothek für "Germanistik, Deutsche Sprache und Literatur" ist federführend beim Aufbau der "Virtuellen Fachbibliothek Germanistik - Germanistik im Netz (GiN)" (http://www.germanistik-im-netz.de). Ziel ist es, einen zentralen Einstiegspunkt für die Recherche nach germanistischen Medien und Fachinformationen anzubieten. Unter einer Oberfläche recherchierbar bereits die Frankfurter Kataloge (darunter ein Fach-OPAC mit ausschließlich germanistikrelevanten Titeln), das Katalogsystem des Deutschen Literaturarchivs in Marbach sowie mit BDSL Online die wichtigste Bibliographie des Faches. Angeboten werden dem Nutzer auch fachbezogene monatliche Neuerwerbungslisten sowie - im wöchentlichen Rhythmus - thematisch strukturierte Neuerscheinungslisten via Deutsche Nationalbibliothek. Was elektronische Zeitschriften und Fachdatenbanken betrifft, kooperiert Germanistik im Netz mit den einschlägigen Angeboten der UB Regensburg (Elektronische Zeitschriftenbibliothek, EZB und Datenbankeninformationssystem, DBIS) und bietet eine dem GiN-Sammlungsprofil entsprechende Zusammenstellung an. "Germanistik im Netz" versammelt nicht nur bereits bestehende zentrale Nachweisinstrumente unter einer Oberfläche, sondern produziert seinerseits Inhalte: Der Webkatalog mit Namen "GiNFix" präsentiert eine Auswahl fachrelevanter und inhaltlich erschlossener Internetressourcen zur deutschen Sprache und Literatur, darunter Autoren-Websites, Primärtexte, bibliographische Hilfsmittel, Nachschlagewerke u.v.m. Ein zweiter Webkatalog (Titel: "Wer-Was-Wo") listet ausgewählte Informationsangebote (u.a. Tagungen, Call for Papers, offene Stellen), vornehmlich für die Scientific Community auf. Als DFG-Projekt ist "Germanistik im Netz" darauf hin angelegt, sich binnen des Förderzeitraums auf eine kooperativ zu pflegende Basis zu stellen. Ob die Integration neuerer Digitalisierungsvorhaben gelingt, hängt zudem von erfolgreichem Projektmanagement an anderer Stelle ab.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We analyzed two possible signing approaches (server based and client based signatures) and conclude that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. We also present some of the constraints that still have to be addressed before qualified mobile signatures are possible.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. This infrastructure could be used to enable secure mobile brokerage services that can ommit the necessity of TAN lists and therefore allow a better integration of information and transaction services.
Bei der Entwicklung und vor allem bei der institutions- und projektübergreifenden Nutzung von eLearning Modulen oder Lernobjekten spielen Standards und Spezifikationen zu deren Beschreibung und Verwaltung eine immer wichtigere Rolle. Nur auf deren Basis können sich langfristig Verwaltungs- und Verwertungsmodelle entwickeln, die eine breite Nutzung von eLearning Modulen bis hin zur Entwicklung eines entsprechenden Marktes ermöglichen. Aufgrund allgemeingültiger Spezifikation für die Beschreibung von Lernobjekten bis hin zu standardisierten Angaben für komplette online Kurse werden Anbieter und Nachfrager in Tauschbörsen, institutionsübergreifenden Kooperationen, fachspezifischen Datenbanken und Bildungsservern eLearning Ressourcen anbieten und nutzen. Projekte und Initiativen stehen jetzt vor der Aufgabe, sich einen Überblick über vorhandene Standards und Spezifikationen zu verschaffen, um für sich selbst die geeigneten auswählen und anwenden zu können. Oft werden aufgrund der projektspezifischen Anforderungen zudem eigene Beschreibungen entwickelt. Dadurch entsteht eine Vielzahl von Beschreibungen, die den Austausch und das Auffinden von Modulen über die Projektgrenzen hinaus schwierig wenn nicht unmöglich machen. Der in diesem Band dokumentierte Workshop "Standardisierung im eLearning" hat das Ziel, die aktuelle Diskussion um die Entwicklung und Anwendung von Standards aufzugreifen, transparent zu machen und fortzuführen. Veranstalter des Workshops sind das Kompetenzzentrum für Neue Medien in der Lehre der Johann Wolfgang Goethe-Universität Frankfurt/Main und der Projektträger Neue Medien in der Bildung + Fachinformation. Die Veranstaltung setzt die Reihe von themenspezifischen Begleitworkshops im Rahmen des Förderprogramms Neue Medien in der Bildung fort. Eine Übersicht zu bereits durchgeführten und in Planung befindlichen Begleitveranstaltungen finden Sie auf dem Internet-Portal des Projektträgers (http://www.medien-bildung.net).
Seit 2005 ist die Bibliothek des Südasien-Instituts in Kooperation mit der UB Heidelberg Trägerin des DFG-geförderten Sondersammelgebiets Südasien. Damit hat sie von der UB Tübingen ein traditionsreiches Sondersammelgebiet übernommen, dessen Geschichte bis ins Jahr 1949 zurückreicht. Der Vortrag wird zum Einen einen kurzen Überblick über den historischen Kontext des SSG Südasien geben und zum Anderen über Neuentwicklungen, wie z.B. die Virtuelle Fachbibliothek Südasien, die in den letzten zwei Jahren an der Bibliothek des Südasien-Instituts aufgebaut wurde. Vor diesem Hintergrund soll vor allem das Kooperationspotential im Bereich digitaler Informationsressourcen beleuchtet werden.
Wie wird man Formal- bzw. Sacherschließer?
Was macht ein Formal- bzw. Sacherschließer?
Unterschiedliche Traditionen. Ausblick in die Zukunft
Unterschiede in der derzeitigen Erschließungspraxis
Kooperative Erschließungsprogramme
Herkunft bibliografischer Datensätze: Wo kommen sie her?
Herausforderungen der Zukunft
The paper will provide a brief background to the history of the organization and cooperative efforts of African studies librarians in the United States including their efforts at international cooperation. Particular emphasis will be placed on the current opportunities for improved cooperation as digitization activities increase. Examples will include the DISA and Aluka initiatives and well as the Timbuktu manuscript digitization project at the Center for Research Libraries. Particular emphasis will placed on the possibilities for German-North American cooperation in the area of digital projects of historical photographs given the extensive collections held at Northwestern and Frankfurt.
... This year's Scientific Symposium of the University Library is already number six in the row. It was again prepared and organised like some of the previous conferences together with our North American partners. This means that a continuous specialists’ discussion and a professional partnership have been already installed. All librarians and information managers are invited to learn more about the results of this cooperation every year when it's time for the next Symposium during Frankfurt Book Fair. ...
Large American research libraries have been acquiring - by purchase and by lease - huge multi-disciplinary electronic collections of primary and secondary source materials. For example, the Digital Evans and Canadian Poetry easily make available to scholars primary materials that once were scattered in libraries across North America and Europe. The American State Papers, 1789 – 1838 collection allows easier searching of fragile rare materials. Collections made by libraries digitizing their own holdings, such the Archive of Early American Images from the John Carter Brown Library at Brown University, make research materials more discoverable and usable. Yet recent scholarship in American Studies by American and European scholars makes relatively little use of these new materials. Both disparities and congruities in what scholars use and what research libraries collect are apparent. Some simple reasons explain the dissonance. Furthermore, conversations with scholars suggest that materials and collections alone will not suffice to support research. Librarians’ skills and actions will increase the value of the new research materials.
The paper presents an overview about some of the international relevant projects of digital resources in Germany. Online presentations of primary sources, e.g. photographic material, and bibliographic tools supporting research, such as cross searching, will be presented as potential partners of resource sharing with North America. Not only the possibility of cooperation will be sketched, but also necessary preliminary work and some obstacles will be outlined. This report is accompanied by a short characterization of African studies in Germany and the status quo of Open Access-initiatives.
Ziel des Seminars war es, für die "Volkskrankheit Rückenschmerz" vom sportorthopädisch-traumatologisch-sportmedizinischen, vom internistischen, vom schmerztherapeutisch-neurochirurgischen und vom physiotherapeutischen Standpunkt aus neue, auf physiologisch-pathophysiologischen Kenntnissen basierende Sichtweisen mit Relevanz für Prävention und Therapie des verbreiteten Problems Rückenschmerz zu präsentieren.
Der Rückenschmerz als Folge der biomechanischen Besonderheit des "Zweibeiners" im Zeitalter der Hypomobilisation und Hyperalimentation - Lendenwirbelsäulen- und Halswirbelsäulen-Beschwerden (Dr. med. Udo Schreiber, Frankfurt am Main): Der Rückenschmerz - besonders der tiefe Rückenschmerz - des Menschen ist wahrscheinlich meist durch eine Fehlstatik verursacht. In Deutschland beträgt die Inzidenz von Rückenschmerzen während des Lebens fast 80%. Dr. Schreiber legte dar, dass die anatomische Längendifferenz der Beine zu verschiedenen Pathologien im Halte- und Bewegungsapparat führt. Die pathologischen Veränderungen - z.B. transversaler Schub auf das Ileosakralgelenk - treten meistens auf der längeren Beinseite mit einer Skoliose der Wirbelsäule mit erhöhten Druckbelastungen auf der Konkavseite der Skoliose in den Bandscheiben und mit typischen Blockaden in den verschiedenen Wirbelsäulensegmenten auf. Sinnvolle Diagnostik beinhaltet Anamnese und umfangreiche klinische Untersuchung zum Erkennen von Funktionsdefiziten anstelle von nur bildgebender Diagnostik. Sinnvolle Therapien sind - neben analgetischen Therapien, wie manueller Therapie, Matrix-Rhythmus-Therapie, wassergefiltertem Infrarot A (wIRA), Ohrakupunktur, Magnetfeldresonanztherapie, Mikrostromtherapie, Injektionstherapie - vor allem die therapeutisch-präventiven Maßnahmen Dehnen verkürzter Muskulatur und partieller Ausgleich von Beinlängendifferenzen. Wirtschaftlich gesehen verursacht die Fehlstatik immense indirekte und direkte Krankheitskosten, wobei die aufgezeigten sinnvollen Therapien zielführend und zugleich kostengünstig sind.
Ein ganzheitliches Therapiekonzept mit Matrix-Rhythmus-Therapie, Hyperthermie, Sauerstoff und Entsäuerung - Therapie von muskulo-skelettalen Beschwerden (Dr. med. Bernhard Dickreiter, Nordrach): Die Kosten zur Behandlung von Rückenschmerzen belasten in den vergangenen Jahren zunehmend die Krankenkassen durch Diagnose- und Therapiekosten sowie die Betriebe durch Ausfallzeiten. Rückenschulkonzepte der vergangenen Jahre zeigen aus Sicht von Dr. Dickreiter nicht den gewünschten Effekt. Vielversprechende neue Sichtweisen für den Umgang mit diesem Krankheitsbild ergeben sich aus den aktuellen Ergebnissen der zellbiologischen Grundlagenforschungen und dem daraus resultierenden neuen "Matrix-Therapie-Konzept": Die Ursache der muskulo-skelettalen Beschwerden im Sinne eines myofaszialen, myo-ischämisch-azidotischen und myotendinitischen Schmerzsyndroms wird in der Verspannung der Muskulatur mit einer Energiekrise auf zellulärer Ebene gesehen. Beim neuen Therapiekonzept steht nicht eine Therapiefülle wie bisher im Vordergrund, sondern ein auf Effektivität ausgerichtetes modulares Konzept, welches die zellbiologischen Prozesse auf extrazellulärer Matrixebene gezielt beeinflusst. Wesentliche Bestandteile des Konzepts sind die Matrix-Rhythmus-Therapie als tiefenwirksame Mikroextensionstechnik, die lokale Wärme mit wassergefiltertem Infrarot A (wIRA) bzw. die Infrarot-Ganzkörperhyperthermie, die körperliche Bewegung zur lokalen Verbesserung der Sauerstoffversorgung, die Sauerstofftherapie einschließlich Hyperbarer Oxygenation (HBO) und die orthomolekulare Substitution und "gesunde" Ernährung.
Konservative, interventionelle und operative Verfahren aus der Sicht des Schmerztherapeuten und Neurochirurgen: Stellenwert im Hinblick auf ein integriertes Behandlungskonzept (Dr. med. Volker Ritzel, Offenbach am Main): Mit einem interdisziplinären Therapiekonzept (Hausarzt; Orthopädie, Neurochirurgie, Schmerztherapie, Krankengymnastik/Physiotherapie, Psychotherapie) multimodal mit Nutzung konservativer, interventioneller und operativer Verfahren können heute Rückenschmerzen erfolgreich behandelt werden. Dabei ist besonders auf eine rechtzeitige suffiziente Therapie Wert zu legen (u.a. protektive, antizipierende Analgesie), um die Ausbildung eines Schmerzgedächtnisses mit Chronifizierung und Verselbstständigung des Schmerzes zu vermeiden. Zu den konservativen Therapiemöglichkeiten gehören neben einer medikamentösen Schmerztherapie nach dem WHO-Stufenschema die Transkutane elektrische Nervenstimulation (TENS), Physiotherapie, Psychotherapie, übende Verfahren (Progressive Muskelentspannung nach Jakobsen, Autogenes Training, Göttinger Rücken-Aktiv-Programm GRAP), Ergotherapie, Akupunktur und Balneotherapie. Weitere schmerztherapeutisch-neurochirurgische Verfahren sind die therapeutische Lokalanästhesie, CT-gesteuerte Verfahren, die perkutane Laser-Diskus-Dekompression, denervierende Verfahren, die endoskopische Sequestrektomie, die Vertebroplastie, offen-operative Verfahren, die mikrochirurgische Dekompression sowie Implantatverfahren wie die minimal-invasive zervikale und lumbale Spondylodese. Ambulante/Praxisklinische Operationen können heute in einer neurochirurgischen Praxisklinik im Rahmen des modernen Konzepts der Integrationsversorgung erfolgen.
Rückenschule zur primären, sekundären und tertiären Prävention - Lebensstiländerung, Krankengymnastik/Physiotherapie - im Zeitalter integrierter ambulanter Versorgung (Monika Kremer, Frankfurt am Main): Moderne Therapiestrategien bevorzugen - soweit möglich - ein konservatives gegenüber einem operativen Vorgehen, ein aktives gegenüber einem passiven, ein multimodales gegenüber einem monotherapeutischen Vorgehen. Bewegungs- und trainingstherapeutische Maßnahmen (z.B. Erweiterte Ambulante Physiotherapie EAP als Komplextherapie mit den Bestandteilen Krankengymnastik/Physiotherapie, Physikalische Therapie und Medizinische Trainingstherapie MTT) sind wichtige Bestandteile moderner Rückenkonzepte. Die Arbeitsplatzsituation wird besonders berücksichtigt mit zunehmender Integration von Ergonomie-Trainingsprogrammen. Der Begriff "Präventive Rückenschule" umfasst die Vermittlung und Anwendung wirkungsvoller Alltagsstrategien zur Vermeidung hoher Rückenbelastungen, um der Entwicklung funktioneller und degenerativer Krankheiten vornehmlich im Bereich der Wirbelsäule einschließlich muskulärer Dysbalancen vorzubeugen. Hierzu gehört ein rückengerechtes Alltagsverhalten (z.B. richtiges körpernahes Heben und Tragen). Besonders effektiv sind aktive Trainingsformen zum Muskelaufbau und zur Verbesserung der Ausdauer in Kombination mit verhaltensorientierten Trainingsprogrammen mit dem Ziel der Steigerung von Wohlbefinden und Lebensqualität. Erläutert werden das Konzept des Forschungs- und Präventionszentrums Köln (FPZ), das Kieser-Training, das Baunataler Rücken-Konzept (BRK) und das tergumed®-Rückenkonzept. Häufig können Rückenschmerzen durch rückengerechte Verhaltensweisen sowie präventives und rehabilitatives Rückentraining vermieden werden oder es kann nach ihrem Auftreten rehabilitativ wieder ein schmerzfreier stabiler Gesundheitszustand erreicht werden.
Die in den beiden letzten Jahren abgeschlossenen Nationallizenzen haben Tatsachen geschaffen, die den Start zu einer Umstrukturierung der überregionalen Informationsversorgung erleichtern: - Versorgungslücken wurden geschlossen. - Die Durchdringung der Hochschulen und Forschungseinrichtungen mit elektronischer Fachinformation wurde vergleichbaren Ländern angeglichen. - Wissenschaftler, Studierende und wissenschaftlich interessierte Privatpersonen haben deutschlandweit kostenlosen Zugang zu einem fachlich breit gestreuten Angebot an retrospektiven Datenbanken, digitalen Textsammlungen und elektronischen Zeitschriften.
Retiming is a widely investigated technique for performance optimization. It performs powerful modifications on a circuit netlist. However, often it is not clear, whether the predicted performance improvement will still be valid after placement has been performed. This paper presents a new retiming algorithm using a highly accurate timing model taking into account the effect of retiming on capacitive loads of single wires as well as fanout systems. We propose the integration of retiming into a timing-driven standard cell placement environment based on simulated annealing. Retiming is used as an optimization technique throughout the whole placement process. The experimental results show the benefit of the proposed approach. In comparison with the conventional design flow based on standard FEAS our approach achieved an improvement in cycle time of up to 34% and 17% on the average.
Retiming is a widely investigated technique for performance optimization. In general, it performs extensive modifications on a circuit netlist, leaving it unclear, whether the achieved performance improvement will still be valid after placement has been performed. This paper presents an approach for integrating retiming into a timing-driven placement environment. The experimental results show the benefit of the proposed approach on circuit performance in comparison with design flows using retiming only as a pre- or postplacement optimization method.
This paper presents a new timing driven approach for cell replication tailored to the practical needs of standard cell layout design. Cell replication methods have been studied extensively in the context of generic partitioning problems. However, until now it has remained unclear what practical benefit can be obtained from this concept in a realistic environment for timing driven layout synthesis. Therefore, this paper presents a timing driven cell replication procedure, demonstrates its incorporation into a standard cell placement and routing tool and examines its benefit on the final circuit performance in comparison with conventional gate or transistor sizing techniques. Furthermore, we demonstrate that cell replication can deteriorate the stuck-at fault testability of circuits and show that stuck-at redundancy elimination must be integrated into the placement procedure. Experimental results demonstrate the usefulness of the proposed methodology and suggest that cell replication should be an integral part of the physical design flow complementing traditional gate sizing techniques.
We present new concepts to integrate logic synthesis and physical design. Our methodology uses general Boolean transformations as known from technology-independent synthesis, and a recursive bi-partitioning placement algorithm. In each partitioning step, the precision of the layout data increases. This allows effective guidance of the logic synthesis operations for cycle time optimization. An additional advantage of our approach is that no complicated layout corrections are needed when the netlist is changed.
The languages of the world differ with respect to argument extraction possibilities. In languages such as English, wh-movement is possible from Spec IP and from the complement position, whereas in languages such as Malagasy only extraction from Spec IP is possible. This difference correlates with the fact that these language types obey different island constraints and behave differently with respect to wh-in situ and superiority effects. The goal of this paper is to outline an analysis for these differences. The basic idea is that in contrast to languages such as English, in Malagasy-type languages every argument can be merged in the complement position of the selecting head.
Expletives as features
(2000)
Expletives have always been a central topic of theoretical debate and subject to different analyses within the different stages of the Principles and Parameter theory (see Chomsky 1981, 1986, 1995; Lasnik 1992, 1995; Frampton and Gutman 1997; among others). However, most analyses center on the question how to explain the behavior of expletives in A-chains (such as there in English or Þad in Icelandic). No account relates wh-expletives (as one finds them in so-called partial wh-movement constructions in languages such as Hungarian, Romani, and German) to expletives in Achains. In this paper, I argue that the framework of the Minimalist Program opens up the possibility of accounting for expletive-associate relations in A-/A'-chains in a unified manner. The main idea of the unitary analysis is that an expletive is an overtly realized feature bundle that is (sub)extracted from its associate DP. There in an expletive-associate chain is a moved D-feature which orginates inside the associate DP. Similarily, in A'-chains, the whexpletive originates as a focus-/wh-feature in the wh-phrase with which it is associated. This analysis provides evidence for the feature-checking theory in Chomsky (1995). The paper is organized as follows. Section 2 contains the discussion of expletive there. In section 3 I suggest an analysis for whexpletives, and I also explore whether this analysis can be extended to relations between X°-categories such as auxiliary and participle complexes.
In this paper I show that Clitic Climbing (CC) in Spanish and Long Scrambling (LS) in German (and Polish) are (im-)possible out of the same environments. For an explanation of this fact I propose a feature-oriented analysis of incorporation phenomena. The idea is that restructuring is a phenomenon of syntactic incorporation. In German and Polish, Agro incorporates covertly into the matrix clause and licenses LS out of the infinitival into the matrix clause. Similarily the clitic in Spanish, which is analysed as an Agro-head, incorporates into the matrix clause. I argue that this movement is necessary for reasons of feature-checking, i. e. for checking of an [+R]- or Restructuring-feature. In section 2 I discuss several differences between CC and LS. For example, the proposed analysis correctly predicts that clitics in contrast to scrambled phrases are subject to several serialization restrictions. Throughout the paper I use the term restructuring only in a descriptive sense, in order to describe the phenomenon in question.
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
Flight paths of homing pigeons were measured with a newly developed recorder based on GPS. The device consists of a GPS receiver board, a logging facility, an antenna, a power supply, a DCDC converter and a casing. It has a weight of 33g and works reliably with a sampling rate of 1/s with an operation time of about 3 h, providing timeindexed data on geographic positions, ground speed and altitude. The data are downloaded when the bird is recaptured. The devices are fixed to the birds with a harness. The measured complete flight paths show many details: e.g. initial loops flown immediately after release and large detours flown by some pigeons. We are here presenting 3 examples of flight paths from a release site 17.3 km Northeast of the home loft in Frankfurt. Mean speed in flight, duration of breaks and length of the flight path were calculated. The pigeons chose different routes and have different individual tendencies to fly loops over the village close to the release site.
This paper describes a first version of the GPS flight recorder for homing pigeons. The GPS recorder consists of a hybrid GPS board, a patch antenna 19*19 mm, a 3 V Lithium battery as power supply, a DCDC converter, a logging facility and an additional microprocessor. It has a weight of 33g. Prototypes were tested and worked reliably with a sampling rate of 1/sec and with an operation time of about 3 h. In first tests on homing pigeons 9 flight paths were recorded, showing details like loops flown immediately after the release, complete routes over 30 km including detours, rest periods and speed.
Location-based services (LBS) are services that position your mobile phone to provide some context-based service for you. Some of these services – called ‘location tracking’ applications - need frequent updates of the current position to decide whether a service should be initiated. Thus, internet-based systems will continuously collect and process the location in relationship to a personal context of an identified customer. This paper will present the concept of location as part of a person’s identity. I will conceptualize location in information systems and relate it to concepts like privacy, geographical information systems and surveillance. The talk will present how the knowledge of a person's private life and identity can be enhanced with data mining technologies on location profiles and movement patterns. Finally, some first concepts about protecting location information.
Mobile telephony and mobile internet are driving a new application paradigm: location-based services (LBS). Based on a person’s location and context, personalized applications can be deployed. Thus, internet-based systems will continuously collect and process the location in relationship to a personal context of an identified customer. One of the challenges in designing LBS infrastructures is the concurrent design for economic infrastructures and the preservation of privacy of the subjects whose location is tracked. This presentation will explain typical LBS scenarios, the resulting new privacy challenges and user requirements and raises economic questions about privacy-design. The topics will be connected to “mobile identity” to derive what particular identity management issues can be found in LBS.
Information literacy is a mosaic of attitudes, understandings, capabilities and knowledge about which there are three myths. The first myth is that it is about the ability to use ICTs to access a wealth of information. The second is that students entering higher education are information literate because student centred, resource based, and ICT focused learning are now pervasive in secondary education. The third myth is that information literacy development can be addressed by library-centric generic approaches. This paper addresses those myths and emphasises the need for information literacy to be recognised as the critical whole of education and societal issue, fundamental to an information-enabled and better world. In formal education, information literacy can only be developed by infusion into curriculum design, pedagogies, and assessment.
Navigating information, facilitating knowledge: the library, the academy, and student learning
(2004)
Understanding the nature and complementarity of the phenomena of information and knowledge lend not only epistemological clarity to their relationship, but also reaffirms the place of the library in the academic mission of knowledge transfer, acquisition, interpretation, and creation. These in turn reassert the legitimacy of the academic library as necessary participant in the teaching enterprise of colleges and universities. Such legitimacy induces an obligation to teach, and that obligation needs to be explored and implemented with adequate vigor and reach. Librarians and the academy must, however, concede that the scope of the task calls for a solution that goes beyond shared responsibilities. Academic libraries should assume a full teaching function even as they continue their exploration and design of activities and programs aimed at reinforcing information literacy in the various disciplines on campus. All must concede that need for collaboration cannot provide grounds for questioning the desirability of autonomous teaching status for the academic library in information literacy education
Damping cells for the higher order modes are necessary for the S-band linear collider to minimize BBU (Beam-Break-Up). The construction of the damper cells has to take into account the different field geometries of the higher order modes. So two different types of dampers have been designed: a wall slotted an an iris slotted cell. In order to optimize the two types of damping cells with respect to damping strength, impedance matching between coupling system and waveguide dampers and between damping cell and undamped cells and the tuning system, damping cells of both types have been built and examinated.
To reach high luminosities in future linear colliders short range wakes havea to be controlled in the range of X-band frequencies or higher. Rectangular irises can be used to introduce strong focusing quadrupole-like rf-fields. Even circular irises in iris-loaded accelarator structures have the capability of focusing if the particle velocity differs from phase velocity. Theoretical investigations concerning the focusing strength to be expected are presented. Their applicability for linear colliders is discussed.
A new method of measuring quality factors in cavities is presented. This method is well suited to measure quality factors in undamped cavities as well as in heavily damped cavities, and in addition this method provides a possibility of separating modes and measuring quality factors especially in cases of overlapping modes. Measurements have been carried out on HOM-damped cavities for the DESY/THD linear collider project. Results are presented.
Due to the additional need of very short bunches for the FEL operation with the TESLA-machine strong wakefield effects are expected. One third of the total wakefield energy per bunch is radiated into the frequency region above the energy gap of Cooper pairs in superconducting niobium. The energy of the cooper pairs in superconducting niobium at 2 K corresponds to a frequency of 700 GHz. An analytical and experimental estimation for the overall energy loss of the FEL bunch above energy gap is presented. The analytical method is based on a study from R. B. Palmer [1]. The results of the wakefield estimations are used to calculate possible quality factor reduction of the TESLA cavities during FEL operation. Results are presented.
While science claims to be universal, the notion of universality actually covers two very different facets: on the one hand, it refers to the universal value of the epistemological claims of science while, on the other hand, it addresses the issue of how fully the process of scientific communication is presently globalized. How the issue of open access crosses that of the globalization of scientific communication will be the theme of this presentation. The conclusion will be that, without open access, the globalization of scientific communication will lead to increased knowledge and digital divisions.
In this increasingly complex world of learned information delivery and discovery - is it possible that the "free lunch" the Publishing world worries about could come true? Although Open Access and Institutional Repositories have not (yet) created the "scorched earth" effect many were predicting, they are slowly and inevitably gaining momentum. Broader access to top-level information via Google (and others) does indeed appear to be "good enough" for many in their search for content. But you rarely get food for free in a good quality restaurant. You pay for the selection, preparation, speed and expertise of the delivery. At the soup kitchen the food can often be filling - but the queue will be long, the wait even longer and there is no chance of silver service or à la carte. If you are unfortunate enough to have little choice then this may be a great solution. Others will be willing to pay for a more satisfactory meal. As in all aspects of life, diversification and specialisation are fundamental forces. The publishing community in the years to come will continue to develop its offerings for a variety of needs that require more than just broth. To stretch the analogy, the ongoing presence of tap water in our lives has done little to halt the extraordinary rise of bottled water as part of our staple diet. Business reality will continue to settle these types of debate; my bet is that the commercial publishers see a role as providing information that commands an intrinsic value proposition to enough customers to remain economically viable for some time to come. Inspired by the comments and ideas expounded by Dr. James O'Donnell of Georgetown University on the liblicense listserv on 20th July this year, this paper will look to expand on the analogy and identify the good, the bad - but importantly the difference in information quality and access that will result in the radically changed (but still co-existent) information landscape of tomorrow.
The economical and organizational debates about open access have mostly been concerned with journals. This is not surprising since the open access movement can be seen largely as a response to the serials crisis. Recently the open access debate has been extended to include access to government produced data in different forms. In this presentation I'll critically look at some economic and organizational issues pertaining to the open access provision of bibliographical data.
In keeping with the views of its guru, Stephen Harnard, the open access movement is only prepared to discuss the two models of the "green road" and the "golden road" as sole alternatives for the future of scientific publishing. The "golden road" is put forward as the royal road for solving the journals crisis. However, no one has drawn attention to the fact that the golden road represents a purely socialist solution to a free-market problem and thus continues the "samizdat" tradition of underground literature in the former Eastern bloc. The present paper reveals the alarmingly low level at which the open access movement intends to publish top-class results from science and research, and the low degree of professionalism with which they are satisfied.
Der Vortrag wurde am 5th Frankfurt Scientific Symposium gehalten (22-23 Oktober 2005). Die Betrachtung des Videos ist (leider) nur mit den Browsern Internet Explorer ab 5.0, Netscape Navigator ab 7.0 oder Internet Explorer ab 5.2.2 für MaC möglich (s. Dokument 1.html). Die gesamten Tagungsbeiträge sind unter http://publikationen.ub.uni-frankfurt.de/volltexte/2005/1992/ abrufbar.
Course management software : supporting the university’s teaching with technology initiatives
(2004)
An increasingly important element of the teaching with technology activities at Northwestern University is the course management system, a web-based class communication and administration environment. The usage growth of the system is substantial and amplifies the need for integration with other web services and resources. Integration is particularly material in area of library services. This presentation contains a case study of Northwestern University's implementation of its course management system software and highlights examples of how the system is being used to enhance the teaching and learning. A description of the integration efforts with library resources is provided. The goal of the presentation is to equip librarians with the basic knowledge required to engage with their colleagues in conversations surrounding the nature of integration of these systems within the teaching and learning landscapes of their home institutions.
The key hypothesis is that the IT industry lure us into the IT world with a promise to solve our information problems. Do we sign the contract, we will recognise that the IT industry can´t keep the promise. One reason: they themselves lost sight over there own game. Therefore they have to invent new tools continiously. LIS professionals should not leave the field IT professionals. LIS professional should rather put stress on to reveal the difference in the value chain between data – information – knowledge. Information and knowledge is brainware and not produced by hard and software in the sense of IT philosophy. Against the background of the language game of Jean-François Lyotard, the author explains the information and knowledge society as language game invented by the IT industry. Furthermore his beliefs of postmodernen LIS professionals and the consequences involved for LIS traning will be presented.
US investors hold much less foreign stocks than mean/variance analysis applied to historical data predicts. In this article, we investigate whether this home bias can be explained by Bayesian approaches to international asset allocation. In contrast to mean/variance analysis, Bayesian approaches employ different techniques for obtaining the set of expected returns. They shrink sample means towards a reference point that is inferred from economic theory. We also show that one of the Bayesian approaches leads to the same implications for asset allocation as mean-variance/tracking error criterion. In both cases, the optimal portfolio is a combination the market portfolio and the mean/variance efficient portfolio with the highest Sharpe ratio.
Applying the Bayesian approaches to the subject of international diversification, we find that substantial home bias can be explained when a US investor has a strong belief in the global mean/variance efficiency of the US market portfolio and when he has a high regret aversion falling behind the US market portfolio. We also find that the current level of home bias can justified whenever regret aversion is significantly higher than risk aversion.
Finally, we compare the Bayesian approaches to mean/variance analysis in an empirical out-ofsample study. The Bayesian approaches prove to be superior to mean/variance optimized portfolios in terms of higher risk-adjusted performance and lower turnover. However, they not systematically outperform the US market portfolio or the minimum-variance portfolio.
In the current globalization debate the law appears to be entangled in economic and political developments which move into a new dimension of depoliticization, de-centralization and de-individualization. For all the correct observations in detail, though, this debate is bringing about a drastic (polit)economic reduction of the role of law in the globalization process that I wish to challenge in this paper. Here one has to take on Wallerstein’s misconception of “worldwide economies” according to which the formation of the global society is seen as a basically economic process. Autonomous globalization processes in other social spheres running parallel to economic globalization need to be taken seriously. In protest against such (polit)economic reductionism several strands of the debate, among them the neo-institutionalist theory of “global culture”, post-modern concepts of global legal pluralism, systems theory studies of differentiated global society and various versions of “global civil society” have shaped a concept of a polycentric globalization. From these angles the remarkable multiplicity of the world society, in which tendencies to re-politicization, re-regionalization and re-individualization are becoming visible at the same time, becomes evident. I shall contrast two current theses on the globalization of law with two less current counter-theses: First thesis: globalization is relevant for law because the emergence of global markets undermines the control potential of national policy, and therefore also the chances of legal regulation. First counter-thesis: globalization produces a set of problems intrinsic to law itself, consisting in a change to the dominant lawmaking processes. Second thesis: globalization means that the law institutionalizes the worldwide shift in power from governmental actors to economic actors. Second counter-thesis: globalization means that the law has a chance of contributing to a dual constitution of autonomous sectors of world society.
The hadronic final state of central Pb+Pb collisions at 20, 30, 40, 80, and 158 AGeV has been measured by the CERN NA49 collaboration. The mean transverse mass of pions and kaons at midrapidity stays nearly constant in this energy range, whereas at lower energies, at the AGS, a steep increase with beam energy was measured. Compared to p+p collisions as well as to model calculations, anomalies in the energy dependence of pion and kaon production at lower SPS energies are observed. These findings can be explained, assuming that the energy density reached in central A+A collisions at lower SPS energies is sufficient to transform the hot and dense nuclear matter into a deconfined phase.
Vor gut einem Jahr ist im Archiv für die civilistische Praxis ein Aufsatz erschienen, in welchem ich mich mit den Perspektiven des Verbrauchervertragsrechts nach der Schuldrechtsreform auseinandergesetzt habe. Der leicht provozierende Unterton der dort vorgetragenen Kritik hat nun nicht nur – wie beabsichtigt – den einen oder anderen Leser zum Lachen verführt, sondern offensichtlich auch Irritationen bezüglich der Richtung hervorgerufen, in die der Verbraucherschutzzug in Zukunft fahren soll: zurück in die Siebziger Jahre und – nach erneutem Schlagen vergangener Schlachten – ins bürgerliche Formalrecht des 19. Jahrhundert? Oder was soll mit dem Stichwort "Prozedurales Verbrauchervertragsrecht" gemeint sein? Ich möchte an dieser Stelle einen Präzisierungsversuch unternehmen.
We present a detailed study of chemical freeze-out in nucleus-nucleus collisions at beam energies of 11.6, 30, 40, 80 and 158A GeV. By analyzing hadronic multiplicities within the statistical hadronization approach, we have studied the chemical equilibration of the system as a function of center of mass energy and of the parameters of the source. Additionally, we have tested and compared different versions of the statistical model, with special emphasis on possible explanations of the observed strangeness hadronic phase space under-saturation.
Fluctuations and NA49
(2005)