Refine
Year of publication
Document Type
- Conference Proceeding (515) (remove)
Language
- German (515) (remove)
Has Fulltext
- yes (515)
Is part of the Bibliography
- no (515) (remove)
Keywords
- Germanistik (52)
- Bologna-Prozess (32)
- Exzellenzinitiative (32)
- Theorie (32)
- Zukunft (32)
- Virtuelle Hochschule (23)
- Kongress (20)
- Literaturwissenschaft (17)
- Deutsch (15)
- Literatur (10)
Institute
- Medizin (112)
- Extern (32)
- Geschichtswissenschaften (30)
- Universitätsbibliothek (26)
- Gesellschaftswissenschaften (25)
- Erziehungswissenschaften (24)
- Rechtswissenschaft (18)
- Zentrum für Weiterbildung (14)
- Kulturwissenschaften (9)
- Mathematik (9)
Die Rassenmischung bekam in der Entwicklung der Sozialwissenschaften in Brasilien immer wieder neue Bedeutungen, um sich an jeden politischen Zusammenhang anzupassen. Sie wurde von den Männern des Wissens als Problem und später als Lösung angesehen – nämlich durch die Aufhellung – gemäß der evolutionären Rassentheorien Ende des 19. Jahrhunderts. Aber vor allem in den 1930er Jahren betrachteten einige Intellektuelle Brasiliens, wie Gilberto Freyre, die Mischung der drei Rassen, die das Volk Brasiliens bilden, als Bestandteil der Nation. Eine solche Vorstellung brachte juristische und politische, manchmal unmerkliche Folgen für den Platz des Mischlings innerhalb der brasilianischen Gesellschaft. Dieser wird als Notausstieg Mulatte nach Carl Degler oder als epistemologisches Hindernis nach Eduardo de Oliveira e Oliveira verstanden. Der Zweck dieser Arbeit besteht darin, aufzuzeigen, inwiefern jene Tradition eine tiefe Auseinandersetzung verbirgt und wie sie juristische Auswirkungen in der Gegenwart hervorruft, z.B. in Bezug auf die Debatte über Rassenquoten an öffentlichen Universitäten.
Die Tagung rief dazu auf, die Verbindlichkeit von Versprechen als allgemeines Phänomen zu untersuchen, also zu ergründen, inwiefern man unabhängig von ihrer Ausgestaltung in konkreten Rechtsordnungen oder anderen Normensystemen von einer "vor-rechtlichen" Verbindlichkeit sprechen kann. Literarische Texte aller Zeiten bis hin zu den Mythen bezeugen die Bindung an das Wort als Urerfahrung, die von jeder gesellschaftlichen Konvention unabhängig erscheint. Ebenso kennen sie aber Verrat und offenen oder verdeckten Wortbruch, deren Folgen sie thematisieren. Strukturelle Verwandtschaften einerseits und gegenseitige Beeinflussung andererseits der literarischen und der rechtlichen Auseinandersetzung mit dem Versprechen sollten untersucht werden.
Ich stelle fest – und mich zumindest erstaunte das –, dass es zwischen Literaturwissenschaft und Biotechnologie in einem wirklich zentralen Bereich interdisziplinäre Berührungspunkte gibt. Dass auch die Frage nach dem gelingende oder scheiternde Symbolgebrauch hier hinzugehört, werde ich im Folgenden zu zeigen versuchen. Ich befasse mich zu diesem Zweck mit der Schaffung von künstlichen Menschen in der fiktionalen Literatur und frage, welche Rolle der Symbolgebrauch und die Erzeugung semantischer Information in diesem Vorgang jeweils spielt. Im Speziellen wird es gehen um die Entzifferung von Lebensschrift bei GOETHE, ARNIM und MEYRINK.
Ausgangsfragen: Bologna: Segen und/oder Fluch? Bedeuten Modularisierung und Ausrichtung auf Kompetenzen das Ende der Humboldt'schen Bildungsidee? Und wenn: Ist das ein Verlust oder ein Gewinn? Wie ist die Modularisierung der Studienordnung mit Blick auf praktische Erfahrungen zu bewerten? Hat sie zu einer Verbesserung des Studienverlaufs geführt? Welches Curriculum müsste die Germanistik der Zukunft haben? Welche 'Schlüsselqualifikationen' sollte sie vermitteln? Sollte das Studium (noch) stärker berufsorientiert strukturiert sein? Sind auch hier Anpassungen an das medientechnische Umfeld erforderlich? Wie steht es generell um die Berufsaussichten von Germanisten? Kommt den Fächern bzw. den Universitäten selbst eine höhere Verantwortung für die Vermittlung in Berufe zu ('employability')?
Vom 25. bis 26. September 2015 fand die von Christoph Cornelißen (Frankfurt am Main), Martin Pekár (Košice) sowie Miloš Řezník (Warschau) organisierte Jahrestagung der Deutsch-Tschechischen und Deutsch-Slowakischen Historikerkommission in Košice (Slowakei) zu Krieg und Stadt im 20. Jahrhundert statt. Sie stand unter der Schirmherrschaft des Ministerpräsidenten der Slowakischen Republik Robert Fico.
Zu Beginn führte CHRISTOPH CORNELISSEN (Frankfurt am Main) mit einigen Vorbemerkungen zu "Krieg und Stadt im 20. Jahrhundert" in das Thema der Tagung ein. ...
Die Tagung "Die Rückkehr der deutschen Geschichtswissenschaft in die 'Ökumene der Historiker' nach 1945 – Ein wissenschaftsgeschichtlicher Ansatz" fand am 5./6. Juli 2007 in den Räumen des Deutsches Historischen Instituts Paris statt. In drei Sektionen diskutierten die Teilnehmer Fragen nach der Beharrung und Wandlung in der deutschen Geschichtswissenschaft nach 1945 (I.), der Reinstitutionalisierung und Neuorientierung der bundesdeutschen Geschichtswissenschaft (II.) und dem Historiker als transnationaler Akteur (III.). Zu analysieren galt es, welche inhaltlichen, personellen, methodologischen und epistemologischen Brüche und Kontinuitäten sich bei der Rückkehr der deutschen Geschichtswissenschaft in die Ökumene der Historiker feststellen lassen.
Nach der Begrüßung durch den Direktor des Instituts, Herrn Werner Paravicini, begann die Tagung mit zwei einführenden Vorträgen. Zunächst gab Christoph CORNELISSEN (Kiel) einen Überblick über die deutsche Geschichtswissenschaft nach 1945. ...
Unsere Vorlesung [...] möchte eine Reihe exemplarischer und zeitlich und geographisch möglichst breit gestreuter Beispiele präsentieren. Vor allem aber werden wir die unterschiedlichen Grundlagen, Voraussetzungen und Praktiken der Zensur im Lauf der Zeit und in verschiedenen Ländern vergleichend nebeneinander stellen. Vorweg sind einige Bemerkungen zu den verschiedenen theoretischen Begründungen der Zensur sowie zu Definition und Abgrenzung des Gegenstands nötig, denn der Begriff Zensur wird für eine Reihe verwandter, aber doch unterschiedlicher Phänomene verwendet.
Der etwas pompöse Begriff "Wiener Moderne" könnte ohne weiteres durch den etwas bescheideneren Begriff "Junges Wien" ersetzt werden. Um diese relativ homogene, Anfang der neunziger Jahre formierte Gruppe, ihre Werke und im Besonderen um ihr Verhältnis zu französischen Vorbildern wird es hier in erster Linie gehen. Dabei wird die Aufmerksamkeit anfänglich auf Hermann Bahr als zentraler Vermittlerfigur französischer Literatur gerichtet sein, dann werden einige Werke von Hofmannsthal, Schnitzler, Dörmann, Andrian, Altenberg und Beer-Hofmann in Beziehung zur französischen Literatur gesetzt.
In unserem Lesealltag stoßen wir auf Schritt und Tritt auf Übersetzungen. Ca. 15 % aller auf dem deutschen Buchmarkt produzierten Titel sind Übersetzungen, wobei - wenig überraschend - zwei Drittel aus dem Englischen stammen. Wir haben uns derartig daran gewöhnt, Übersetzungen zu benützen, dass wir sie kaum noch als besondere, höchst problematische Textsorte wahrnehmen. Auch Literaturwissenschaftler sind nicht dagegen gefeit, beim Lesen zu "vergessen", dass sie eine Übersetzung vor sich haben. Nicht oft genug kann man daher darauf hinweisen, dass Übersetzungen oft erheblich von ihren Vorlagen abweichen und dass bei der Entstehung von Übersetzungen nicht nur Kalkül, sondern auch der Zufall eine große Rolle spielt.
Das Prager Deutsch wurde schon oft erwähnt, aber wenig beschrieben. In diesem Aufsatz wird die letzte Form dieses Deutschen dargestellt, wie sie in den 30er und 40er Jahren des 20. Jahrhunderts gesprochen wurde, als deutsche Standardsprache der Länder der böhmischen Krone. Die Unterschiede zum neutralen Standarddeutschen sind sehr gering. Es gibt wenige tschechische Einflüsse, kaum Übereinstimmungen mit dem süddeutschen und österreichischen Substandard, aber Parallelen zum nördlichen Standarddeutschen. Heute ist das Prager Deutsch fast ausgestorben, da es nach 1945 nicht mehr weitergegeben wurde.
Einleitung Für die Versorgung großer Narbenhernien der Bauchwand sind immer wieder neue Operationstechniken entwickelt worden. Die häufig verwendeten Alloplastiken können zwar einen statischen, jedoch keinen funktionell-muskulären Ersatz leisten und sind darüber hinaus mit einer hohen Komplikationsrate belastet. Material und Methoden In einer retrospektiven, monozentrischen Studie haben wir die Ergebnisse einer neuen Operationstechnik untersucht, die das Prinzip der intraoperativen Expansion für die funktionelle Reparatur der Bauchwand mit innervierter Rectus-abdominis-Muskulatur nutzt. Die Adaptation der originären Bauchwandmuskulatur in der Mittellinie wird dabei durch intermittierenden Zug mit 3mm breitem Vicrylband erreicht.Das Patientenkollektiv umfaßt 39 Patienten im Alter von 33 - 88 Jahren, die von 1993 bis 2002 in unserer Klinik versorgt wurde . Die Größe der Narbenhernien maß bis zu 26 x 20 cm. Alle Patienten waren bereits mehrfach voroperiert. Die Beurteilung der OP-Ergebnisse erfolgte sowohl mit der funktionellen Myosonografie als auch mit konventionellen Funktionsanalysen (Janda und Lacôte) . Ergebnisse Von den 39 untersuchten Patienten verstarben 2 Patienten, 4 Patienten (10,2 %) erlitten ein Rezidiv. Die rezidivfreie Zeit reichte von 5 - 95 Monaten. Die Myosonografie zeigte eine erhaltene Funktion der Rektusmuskulatur postoperativ mit entsprechender Dickenzunahme um 1.9 mm im Mittel und Veränderung der Muskelbreite um 4.4 mm bei willkürlicher Kontraktion. In der Funktionsanalyse erreichten die operierten Patienten auf der Skala nach Janda und Lacôte mindestens den Wert von 3, im Mittel 4 Punkte. Schlussfolgerung Die mechanischen Eigenschaften des 3mm-Vicrylbandes erlauben die intraoperative Gewebedehnung der verbliebenen Rektusmuskulatur. Im Gegensatz zu den verwendeten Alloplastiken sind durch den Einsatz resorbierbaren Nahtmaterials weniger Komplikationen zu erwarten. Die niedrige Rezidivrate und die deutliche Verbesserung der Lebensqualität der mehrfach voroperierten Patienten wird von uns auf die funktionelle Rekonstruktion der Rektusmuskulatur zurückgeführt, die durch alloplastische Verfahren bisher nicht erreicht wurde.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Ein wesentliches Ziel der modernen Perforatorlappen vom Unterbauch (DIEP-flap) für die Brustrekonstruktion nach Mammaamputation ist die Schonung der Rektusmuskulatur. Der Funktionserhalt der Muskulatur ist abhängig von der Präparationstechnik. In unserer Studie wird die Interaktion zwischen der Muskel- und Nervendurchtrennung und der postoperativen Muskelfunktion untersucht. Material und Methoden: Unser Patientenkollektiv umfasst 42 Patienten. Im Zeitraum von 6/04 bis 06/07 wurden 44 DIEP-Lappen an unserer Klink nach dem gleichen operativen Standard von unterschiedlichen Operateuren zur Brustrekonstruktion transferiert. Die Standards beinhalten die beidseitige Präparation der Perforatorgefäße des Unterbauches, der SIEA-Gefäße, die Auswahl der 2–4 kräftigsten Perforatoren einer Seite und die schonende Präparation der Rektusmuskulatur und der motorischen Nervenäste.In einer prospektiven monozentrischen Studie haben wir die Rektusmuskulatur präoperativ und 6 Monate postoperativ untersucht. Für die Funktionsanalyse wurde sowohl die Myosonografie der Rektusmuskulatur als auch eine klinischen Untersuchung angewandt. Intraoperativ wurde die Anzahl und Lokalisation der Perforatoren, die Länge der gespreizten Muskulatur, die Länge der durchtrennten Muskulatur und die Anzahl und Lokalisation der durchtrennten intramuskulären Nerven in einer Skizze eingetragen. Die Relation zwischen der intraoperativen Muskel- und Nervenschädigung und der postoperativen Funktion wurde analysiert. Ergebnisse: Bei der Hebung des DIEP – flaps wurden im Durchschnitt 10,8 cm Muskulatur gespreizt, 8,2 cm Muskulatur getunnelt und 2,5 cm Muskulatur durchtrennt. In 41% (18 Pat) wurde 1 motorischer Nervenast durchtrennt, in 27,3% (12 Pat) waren es 2 und in 13,6% (6 Pat) 3 Nervenäste. Bei der klinischen Untersuchung 6 Monate postoperativ hatten 8 Patientinnen noch funktionelle Störungen beim Heben schwerer Gegenstände. Myosonografisch fand sich bei 3 Patientinnen eine Funktionsminderung: 1 vollständiger Funktionsverlust der Muskulatur mit Relaxatio, 2 relevante Minderungen der Kontraktilität Bei keiner Patientin fand sich eine Bauchwandhernie. Bei allen Patientinnen mit einer Beeinträchtigung der Muskulatur waren mind. 2 motorische Nervenäste durchtrennt worden. Schlussfolgerung: Die klinische und myosonografische Funktionsanalyse der Bauchwand ermöglicht die Erstellung von Standards zur verbesserten Operationstechnik. Unsere Ergebnisse zeigen, dass die Durchtrennung von 2 oder mehr motorischen Nervenästen vermieden werden muß. Die Länge der durchtrennten und gespreizten Muskulatur ist dagegen von geringerer Bedeutung.
Das unter ästhetischen Gesichtspunkten nach wie vor als kulturelle Abstrusität rubrizierte Bemühen der Meistersinger, literarische Leistung zu quantifizieren, erscheint in worthistorischer Perspektive und dabei insbesondere im Hinblick auf die Tabulaturen des späten 15. und frühen 16. Jahrhunderts als ein durchaus fortschrittliches Phänomen. Obschon die Texte sowohl pragmatisch - durch die Bindung an den Vortrag vor Anwesenden - als auch ihrem Selbstverständnis nach an mittelalterliche Literaturtraditionen gebunden bleiben, verfügen die Meistersinger im Kontext ihrer Aufführung doch nun über einen umfangreichen Katalog poetologischer Begriffe, die in diskursiver Form verschriftlich vorliegen.
Es wird eine Verbindung zwischen dem von Antiphon entwickelten infinitesimalen Berechnungsverfahren, der Theorie Verteilungsgerechtigkeit von Aristoteles, des Hebelgesetzes, der eben radialen Figuren und der Verteilung hergestellt.
Die Problemstellung stellt sich wie folgt dar: dem Kennenlernen der Gründe, die Antiphon mutmaßen ließ, die Exhaustionsmethode als ein Mittel der Bildung des Quadratur des Kreises anzusehen, Beziehungen von grundsätzlicher und historischer Art zwischen der Verteilungsgerechtigkeit und den Hebelgesetz herzustellen, ein Model der Verteilungsgerechtigkeit, basierend auf der modernen Mathematik der Verteilung, von multipler Partizipierung zu konstruieren.
Die Zielsetzungen sind:
Die These zu erstellen, dass die Exhaustionsmethode aus der Gerichtspraxis stammt; dass das Hebelgesetz und die Theorie der Proportionen von Eudoxos Modelle der Verteilungsgerechtigkeit von Aristoteles sind; weiter soll gezeigt werden, dass die ebene Verteilung der materiellen Partikel auch ein Modell der Verteilungsgerechtigkeit ist.
Das Modell der Mehrteiligkeit der Verteilung, das vorgestellt wurde, enthält zwei Arten von Freiheitsgraden, einen für den Wert der zu verteilenden Güter an jeweils einen der Beteiligten und einen zweiter Freiheitsgrad für die verschieden Ebene zwischen den Beteiligten im Falle der Ungleichheit.
Keywords: Exhaustionsmethode, Hebelgesetz, Verteilungsgerechtigkeit, Verteilung.
Typologisches Denken gerät im 17. Jahrhundert in Unordnung, wenn die Figuren des Barock, wie der Simplicissimus, nicht (länger) das erfüllen, was sie versprechen und zugleich andere Aspekte des Figurenbegriffs an Bedeutung gewinnen. An diesem Punkt setzte die Tagung „Barocke Figuren. Zeit – Gestalt – Medien“ (27.-29. Oktober 2010, Universität Konstanz) an. Sie untersuchte eben jene (atypischen) Figuren, die sich gegen eine strenge Typologisierung sperren, deren Umwege, Metamorphosen, Begegnungen und Konflikte es aber erlauben, die Frage, was im Barock eine Figur ausmacht, in begrifflich-analytischer Perspektive neu zu stellen.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Nach der Theorie – ist vor der Theorie?" in der Sektion "Nach der Theorie – Methoden und Modelle".
Der Beitrag plädiert dafür, den 'digital turn', der weite Teile der germanistischen Lehre spätestens im 'digitalen' Sommersemester 2020 erreicht hat, als Chance zu verstehen, das Fach in der Verbindung von Forschung und Lehre unter den Bedingungen des Digitalen neu zu denken und zukunftsorientiert zu profilieren. Digitalisierung formatiert (auch) in der Germanistik sowohl Forschungsgegenstände und Methoden als auch die Möglichkeiten ihrer Vermittlung in der Hochschullehre als einem Teil der Wissenschaftskommunikation. Doch Digitalisierung bewirkt weniger eine technische Ausstattung als vielmehr eine Kultur der Digitalität.
Virtuelle statt realer Präsenz : Begriffe und Konzepte für die digitale Lehre in der Germanistik
(2021)
Angesichts der Neuheit und Vielfalt digitaler Lehr-Lernformate im Sommersemester 2020, dem sog. Corona-Semester, zielt der Beitrag auf einen Überblick über Begriffe, Konzepte und Formate von digitaler Lehre, der sowohl aktuelle Erfahrungen als auch frühere Entwicklungen des E-Learnings berücksichtigt und abschließend digitale Gestaltungsoptionen für virtuelle Präsenzphasen empfiehlt.
Ausbildung in Evidenzbasierter Medizin am Universitätsklinikum Frankfurt am Main : meeting abstract
(2005)
Einführung: Obwohl international die Integration der Evidenzbasierten Medizin (EbM) in die klinische Medizin und in die Ausbildung voranschreitet, ist die Verbreitung im deutschen Klinikalltag eine fortbestehende Herausforderung. Vor allem ist die Vernetzung der theoretischen Lerninhalte mit den klinisch-praktischen Fertigkeiten eine weit verbreitete Schwierigkeit. Die neue Ärzteapprobationsordnung bietet Möglichkeiten für innovative Konzepte im medizinischen Curriculum. Sowohl die systematische Informationssuche als auch die kritische Bewertung und Anwendung medizinischer Informationen sind wichtige Kernkompetenzen der ärztlichen Tätigkeit. Zum Wintersemester 03/04 wurde in Frankfurt das erste curriculare Seminar EbM als Teilfach des Querschnittsbereiches I (Epidemiologie, Med. Biometrie und Med. Informatik) auf der Basis des peer-teaching eingeführt und wissenschaftlich begleitet.
Methoden: Für alle Studierenden des 2. klinischen Semesters wird in Kleingruppenseminaren an 4 Terminen ein Basiskurs EbM nach den Kriterien des Deutschen Netzwerkes für Evidenzbasierte Medizin e.V. durchgeführt. Dabei werden die Module Vierteilige Frage, Internetrecherche, Diagnose und Therapie erarbeitet. Ein individuelles Fallbeispiel (klinische Fragestellung) wird von jedem Studierenden selbständig mit allen Schritten der EbM bearbeitet. Jede Seminararbeit wird im Rahmen eines journal clubs von dem Studierenden vorgestellt und in der Kleingruppe diskutiert. Während des ersten unterrichteten Semesters erhielt jeder Seminarteilnehmer zu Seminarbeginn und zum Seminarende einen Testfragebogen mit 20 Fragen, sowie zum Ende einen anonymisierten Fragebogen mit der Bitte um Einschätzung. Die anonymisierten Fragebogen werden seitdem weiter in jedem Semester eingesetzt.
Ergebnisse: Es wurden im Durchschnitt nach dem Seminar 7,48 (99% KI 6.61-8.36) Fragen mehr als vor dem Seminar richtig beantwortet. Der Kurs wurde im Median mit der Note gut eingeschätzt (Weberschock et al 2005, im Druck). Die Auswertungen der Einschätzungen der nachfolgenden Semester zeigten noch bessere Ergebnisse.
Schlussfolgerung: EbM ist in der medizinischen Ausbildung sehr gut durchführbar und wird mit den richtigen didaktischen Konzepten auch voll akzeptiert. Vor allem die Fähigkeit, medizinische Informationen korrekt zu bewerten und sie klinisch fachgerecht anzuwenden ist eine essentielle Kompetenz für die ärztliche Tätigkeit und bedarf den sichern Umgang mit den Methoden und Medien.
Ausblick: Die Vernetzung der theoretischen Aspekte bei der medizinischen Informationsverarbeitung mit der klinischen Anwendung der gewonnenen Erkenntnisse ist für die Ausbildung in EbM ein essentieller Bestandteil. Um die Lehrenden auf diese Aufgabe adäquat vorbereiten zu können, werden in naher Zukunft in Zusammenarbeit mit dem Deutschen Netzwerk Evidenzbasierte Medizin (DNEbM), der Arbeitsgemeinschaft der wissenschaftlich medizinischen Fachgesellschaften (AWMF) und der Gesellschaft für medizinische Ausbildung (GMA) Train-the Teacher-Seminare veranstaltet. Diese Seminare sollen einerseits die didaktischen Methoden und Fertigkeiten der EbM-Lehrenden weiter ausbauen und andererseits eine Brücke zwischen theoretischen Lerninhalten und klinischen Bezügen schlagen.
Hintergrund: Die Notwendigkeit der Etablierung der Anwendung von Evidenzbasierter Medizin (EbM) in den klinischen Alltag sowie die Sicherung der europaweiten Qualifikation in EbM ist seit geraumer Zeit vielfältig diskutiert worden. Gefördert durch das "Leonardo da Vinci"- Berufsbildungsprogramm der Europäischen Union hat das euebm-Projekt zum Ziel, durch ein europaweit einheitliches integriertes Basiscurriculum für evidenzbasierte Medizin eine bessere Verzahnung zwischen dem Erlernen der EbM-Techniken und der eigenen Patientenversorgung zu erreichen. An der Universitätsklinik Frankfurt am Main wird ab dem 01.01.2009 das euebm-Projekt in den klinischen Alltag integriert werden. Die Zielgruppe dieses Projektes bilden alle Assistenzärzte jeglicher Fachrichtungen im 1. Weiterbildungsjahr. Durch einen online-basierten Kurs wird den Interessenten die Möglichkeit geboten, an den einzelnen Lehrmodulen teilzunehmen.
Methoden: Es werden alle Assistenzärzte im 1. Weiterbildungsjahr in einem individualisierten Schreiben zur Teilnahme an dem Projekt aufgefordert. Nach der elektronischen Anmeldung werden die Teilnehmer prätest-Evaluationsbogen mit inhaltlichen EbM-Fragen beantworten. Danach durchlaufen die Teilnehmer ein EbM-Lernprogramm, bestehend aus 5 Modulen. Jedes Modul wird durch eine Lernerfolgskontrolle abgeschlossen. Abschließend wird eine Gesamtlernkontrolle von jedem Teilnehmer abverlangt. Am Ende des online-Kurses werden die Teilnehmer ebenfalls einen mehrteiligen subjektiven Evaluationsbogen beantworten. Um einen längerfristigen Lerneffekt messen zu können, werden 6 Monate bzw. 1 Jahr nach dem erfolgreichen Abschluss die Teilnehmer erneut einen objektiven inhaltlichen Evaluationsbogen bearbeiten.
Ergebnisse: Im Rahmen der 10. Jahrestagung des DNEbM im März 2009 können voraussichtlich Zwischenergebnisse der objektiven (präinterventionell vs. postinterventionell) und subjektiven Evaluationen veröffentlicht werden. Zudem wird derzeit die Erstellung einer statistischen Auswertung der Zugriffszahlen auf die verschiedenen medizinischen Online-Datenbanken und Suchmaschinen (prä- und postinterventionell) aufgebaut.
Schlussfolgerung/Implikation: Mit Hilfe der curricular vermittelten Lehrinhalte und Techniken sollen Ärzte in die Lage versetzt werden, EbM praxisnah für und mit ihren Patienten umzusetzen. In der konkreten Anwendung von EbM an ihren individuellen Patienten können Ärzte möglicherweise erfahren, dass die Integration von EbM in den klinischen Alltag ihr Spektrum an Beratungs- und Behandlungsmöglichkeiten erweitert.
Ausgangsfragen: Wie steht es um den akademischen Nachwuchs? Dient die verstärkte Betreuung – Stichwort "Verschulung" – von Doktoranden der Qualitätssicherung? Ist sie ein Erfolgsmodell? Oder produziert sie im Gegenteil prospektiv arbeitslose Dr. phil.s en masse? Welche curricularen Erfordernisse ergeben sich für die strukturierte Ausbildung des Nachwuchses? Wie ist die Situation der 'Post-Docs'? Wie hat sich insgesamt das institutionelle Umfeld für germanistische bzw. geisteswissenschaftliche Forschung verändert? Ist das Junktim von 'Forschung und Lehre' auch weiterhin ein notwendiges Leitbild oder nurmehr ein obsoletes Paradigma? In welchem Verhältnis stehen universitär verankerte Lehrbetriebsgermanistik und außeruniversitär betriebene Großforschungsgermanistik zueinander? Welche Rolle spielen einzelne Institutionen (DFG, Volkswagen, Thyssen), und welche Veränderungen sind in der grundlegenden geisteswissenschaftlichen Infrastruktur zu erwarten? Welche Forschungsmodelle sind denkbar und wünschenswert?
In seinem Praxisbericht zeigt Sebastian Bernhardt in einem ersten Schritt, welche Konsequenzen die pandemiebedingten Veränderungen kurzfristig auf seine akademische Lehre hatten. Die Erfahrungen in der notgedrungen rein digitalen Lehre münden aber in einem zweiten Schritt in nachhaltige Perspektiven für die akademische Lehre, die sich nicht auf das Gegensatzpaar digital vs. präsent reduzieren lassen. Zentral ist, dass die Erfahrungen mit digitalen Flipped Classroom-Modellen sich auch in die Zeit nach Corona übertragen lassen, sofern digitale und präsente Vermittlungsanteilen langfristig und kompetenzorientiert miteinander verknüpft werden. Dabei soll weder das eine gegen das andere ausgespielt werden noch eine Digitalisierung um ihrer selbst willen, sondern eine Passung von Vermittlungsziel und Medium, hergestellt werden. Wie er im Folgenden zeigt, konnte er aus der Not der Situation geboren Erfahrungen sammeln, bei denen deutlich wurde, dass einige digitale und asynchron angelegte Flipped Classroom-Formate in Kombination mit synchronen Zoom-Sitzungen, die langfristig durch Präsenzphasen ersetzt werden, einen nachhaltigen Kompetenzerwerb erzielten und zu einer Individualisierung von Lernwegen bei den Studierenden führten.
Veranstalter: Bernadette Biedermann, Universitätsmuseum, Universität Graz; Judith Blume, Universitätsbibliothek J.C. Senckenberg, Goethe-Universität Frankfurt am Main; Franziska Hormuth, Projekt „Digitales Netzwerk Sammlungen“, Berlin University Alliance / Humboldt-Universität zu Berlin
Datum, Ort: 22.04.2021–23.04.2021, digital
Metaphern bestimmen nicht nur unser alltägliches Leben, etwa wenn wir vom Rad der Geschichte oder der Bühne des Lebens sprechen, sie geben auch nützliche Orientierung in vielen Bereichen der Wissenschaft, von den schwarzen Löchern der Physiker bis zur Computermetapher des Gehirns in der Kognitionswissenschaft. Eine solche Metapher ist auch die Deutung der Sprache als Werkzeug.
Fragestellung Intoleranzreaktionen auf nicht-steroidale Antiphlogistika sind häufig und basieren auf der Hemmung des Enzyms Cyclooxygenase-1 (COX-1), wohingegen deren therapeutische Effekte auf einer COX-2 Hemmung beruhen. In dieser Studie wurde die Verträglichkeit des selektiven COX-2 Inhibitors Celecoxib bei Patienten mit Intoleranzreaktionen auf nicht-steroidale Antiphlogistika untersucht. Methodik Bei 77 Patienten (24 Männer, 53 Frauen) mit Intoleranzreaktionen auf nicht-steroidale Antiphlogistika wurden standardisierte Hauttestungen (Prick, Scratch, Epikutantestung) sowie anschließend orale fraktionierte Placebo-kontrollierte einfach blinde Expositionstestungen unter Einschluß von Celecoxib (maximale Einzeldosis 200mg, kumukative Tagesdosis 350mg) durchgeführt. Ergebnisse 21 Patienten wiesen anamnestisch lediglich Hautsymptome (Urtikaria) auf, 25 Patienten nur eine Atemwegssymptomatik (Asthma), bei 18 Patienten traten Haut- und Atemwegssymptome auf, und bei 13 Patienten war es zu einem anaphylaktischen Schock gekommen. Azetylsalizylsäure war in 38 Fällen ein Auslöser der Beschwerden. In 46 Fällen verursachten mehrere nicht-steroidale Antiphlogistika chemisch unterschiedlicher Gruppen die Symptomatik. Die orale Expositionstestung mit Celecoxib verlief bei allen 77 Patienten unauffällig. Schlußfolgerung Vor dem Hintergrund der hohen Inzidenz von Intoleranzreaktionen gegen nicht-steroidale Antiphlogistika stellt der Einsatz selektiver COX-2 Inhibitoren eine therapeutische Alternative sowie eine geeignete Maßnahme zur Prävention entsprechender Reaktionen dar.
Wie kann eine E-Learning-Strategie in einer Hochschule durch einen geeigneten Maßnahmenkatalog in einem stufenweisen Organisationsentwicklungsprozess umgesetzt werden? Welche verschiedenen Entwicklungspfade für Fachbereichsstrategien sind dabei möglich? Wie gelingt es, eine Community aufzubauen, die sich dem Ziel verpflichtet, gemeinsam eine hohe Qualität im Bereich E-Learning zu erreichen? Diesen Fragen geht der vorliegende Beitrag nach, der die Umsetzung der E-Learning-Strategie der Goethe-Universität Frankfurt mit dem Projekt megadigitale vorstellt, das 2007 mit dem mediendidaktischen Hochschulpreis Medida-Prix prämiert wurde.
Die Goethe-Universität Frankfurt hat in den letzten Jahren mit dem Projekt megadigitale hochschulweit ihre eLearning-Strategie umgesetzt und alle Fachbereiche in das Vorhaben integriert, d.h. in allen 16 Fachbereichen den Einsatz neuer Medien in der Lehre befördert. Wichtiger Bestandteil dieses kombinierten TopDown-BottomUp-Konzeptes war seit 2005 die finanzielle Förderung von eLearning-Projekten von Lehrenden. Ab 2007 wurde mit Hilfe des MedidaPrix-Preisgeldes zudem die Förderung studentischer eLearning-Vorhaben umgesetzt. Ziel war, die Ideen und Visionen von Studierenden, welche Form von eLearning und des Medieneinsatzes sie an ihrer Hochschule präferieren, aufzugreifen. Dieser Beitrag stellt die einzelnen Förderansätze, ihre Ausrichtungen, Zielsetzungen und Wirksamkeit vor und beschreibt deren Zusammenspiel mit den anderen in megadigitale implementierten Maßnahmen zur hochschulweiten Umsetzung von eLearning.
Um die Nutzung von offenen Ressourcen und Web 2.0 Technologien einer breiten Masse von NutzerInnen zu ermöglichen, ist es auch wichtig, dass LehrerInnen und Lehrer die entsprechenden Kompetenzen erwerben, um diese medialen Angebote und einen sinnvollen Umgang damit ihren Schülerinnen und Schülern vermitteln zu und selbst Medienangebote im Unterricht einsetzen zu können. Die Universität Frankfurt stellt sich dieser Aufgabe und hat sich daher zum Ziel gesetzt, ihre Lehramtsstudierenden entsprechend zu qualifizieren und auch Angebote für Lehrerinnen und Lehrer bereitzustellen, um einen pädagogisch sinnvollen Einsatz von Open Ressources, Web 2.0 Technologien und anderen Medienangeboten zu befördern.
Neben einem Medienkompetenzzertifikat für Lehramtsstudierenden stellt die Hochschule entsprechende Fortbildungsangebote für Lehrerinnen und Lehrer bereit und erzeugt in dem vertikalen Integrationskonzept des Projektes Lehr@mt Medienprodukte mit Studierenden, die LehrerInnen und SchülerInnen über den hessischen Bildungsserver und andere Portale wiederum bereitstehen.
Um mit den wachsenden Anforderungen der Informations- und Kommunikationstechnologien in unserer Gesellschaft umzugehen, bedarf es der umfassenden Qualifizierung von Kindern und Jugendlichen im Umgang mit den neuen Medien. Das bedeutet, sie müssen befähigt werden, Medien bewusst und kritisch nutzen und kompetent bedienen zu können. Dies erfordert eine gezielte Vermittlung von Medienkompetenz, die neben der Nutzung der Medien auch deren kritische Beurteilung und die aktive Beteiligung an der Gestaltung und Verbreitung dieser Medien umfasst. Gesellschaftliches Ziel muss daher sein, Kinder und Jugendliche schon in der Schule mit den neuen Medien vertraut zu machen und ihnen dort einen pädagogisch geleiteten Umgang mit diesen zu ermöglichen. Dies kann nicht ohne die entsprechende Qualifizierung der Lehrerinnen und Lehrer erfolgen. Neben der Nutzung neuer Medien durch das Lehrpersonal selbst muss diese Zielgruppe auch befähigt werden, Medien zielgerichtet im Unterricht einzusetzen, entsprechende Unterrichtsszenarien zu entwickeln und zu betreuen.
Untersuchungen wie beispielsweise eine Studie unter Lehrkräften in Frankfurter Schulen haben jedoch gezeigt, dass die Ausstattung der Schulen mit modernen Medien zwar sehr zufriedenstellend ist, es den Lehrkräften jedoch an methodischen Qualifikationen mangelt, diese einzusetzen und „ein hoher Bedarf an weiterführenden Schulungen zum fachdidaktischen Einsatz“ artikuliert wurde (Wiedwald 2007, S. 4).
Während Lehrerfortbildungen an dieser Stelle ein Mittel zur Abhilfe darstellen, lösen sie das Problem jedoch nur punktuell. Die Universität Frankfurt hat sich daher mit der Einführung eines Medienkompetenzzertifikates für Lehramtsstudierende sowie der Umsetzung des Projektes Lehr@mt zum Ziel gesetzt, in allen drei Phasen der Lehrerbildung aktiv zu werden und schon ihre Lehramtsstudierenden entsprechend zu qualifizieren sowie auch Angebote für Lehrerinnen und Lehrer bereitzustellen, die einen pädagogisch sinnvollen Einsatz von neuen Medien in Schulen befördern.
Die Goethe-Universität hat im Rahmen ihres Projektes megadigitale, das die hochschulweite Umsetzung ihrer eLearning-Strategie verfolgte, ein Vorgehensmodell entwickelt, das entlang des kompletten Prozesses der Entwicklung und Umsetzung von eLearning-Ansätzen standardisierte Analyse-, Planungs-, Konzeptions-, Implementierungs- und Qualitätssicherungsinstrumente anwendet. Dabei spielen Verfahren zur Qualitätssicherung schon von dem ersten Schritt an, in der Analysephase eine Rolle, angepasst an die verschiedenen Ebenen der Umsetzung.
Wiki-Systeme gewinnen für das kollaborative Erstellen von Wissen zunehmend an Bedeutung, belegt durch den Erfolg großer Projekte wie Wikipedia. Dabei beschränkt sich der Einsatz dieser Systeme nicht auf Anwendungsbereiche wie Wörterbücher oder Glossare; auch Universitäten und Unternehmen nutzen Wikis inzwischen zunehmend zur Unterstützung der Lehre im eLearning, für Dokumentationszwecke, Projektmanagement-Aufgaben, usw.. In diesem Kontext ist die Frage nach dem didaktisch motivierten Einsatz von Wikis im eLearning bedeutsam: welche Erfahrungen haben Akteure dem Einsatz von Wikis in eLearning-Veranstaltung oder auch begleitend zu räsenzveranstaltungen gemacht? Lassen sich Empfehlungen für die Gestaltung der Interaktion und Kooperation in Wikis aus diesen Erfahrungen ableiten?
Open Online Courses als Kursformat? Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
2011 starteten studiumdigitale, die zentrale eLearning-Einrichtung der Universität Frankfurt/M, und der Weiterbildungsblogger Jochen Robes den ersten deutschsprachigen Open Online Course unter dem Titel „Die Zukunft des Lernens“1. In 14 Wochen wurden in wöchentlichem Rhythmus 14 Themen behandelt, die sich rund um den Einsatz verschiedener Technologien in Bildungsprozessen und auch das Kursformat selbst drehten. Dieser Beitrag stellt die Bezüge des Open Online Courses zu seiner Herkunft und den ersten Kursen dieser Art in Kanada und USA her, bezieht sich auf die theoretischen und konzeptionellen Fundierungen dieses Ansatzes und stellt die Ergebnisse aus dem Kursverlauf und der abschließenden Befragung der Teilnehmenden vor.
Open Online Course als Kursformat? : Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
Basierend auf dem Konzept des Connectivismus entwickelte sich in den letzten fünf bis sechs Jahren ein neues offenes Kursformat: die Open Online Courses, die als so genannte MOOCs (Massive Open Online Courses) teilweise bis über 100.000 Teilnehmende anzogen. In dem Beitrag wird mit Bezug auf die konzeptionellen Ursprünge im Connectivismus das Format der Open Online Courses erläutert und Erfahrungen aus dem ersten deutschsprachigen Kurs dieser Art beschrieben, dem Kurs „Zukunft des Lernens“, den im Sommer 2011 studiumdigitale, die zentrale E-Learning-Einrichtung der Universität Frankfurt, der Weiterbildungsblogger Jochen Robes in Kooperation mit der GMW und dem Zentrum für Lehrerbildung der Universität durchführten. Der Kurs zog ca. 900 Interessierte an, die sich in verschiedenen online Medien beteiligten. Der Beitrag beschreibt den Kursverlauf, gibt einen Überblick über technische Umsetzung und Betreuungsformen und stellt neben Betrachtungen zum Transfer die Ergebnisse aus der Teilnehmerbefragung vor.
Wikis im eLearning
(2006)
Dieser Beitrag verdeutlicht, dass durch den Einsatz von Wikis in der Lehre methodisch neue Formen der Hochschuldidaktik möglich sind. Einleitend zu den beiden anderen Beiträgen zum Thema "Wikis in der Lehre" des Workshops auf der Delfi-Tagung 2006 übernimmt er die Rolle, allgemein die Einsatzszenarien für Wikis im eLearning zu beschreiben und gibt konkrete Gestaltungshinweise für deren Nutzung in Lehrveranstaltungen. Abschließend wird ein Ausblick auf anstehende Forschungsfragen und technische Entwicklungen von Wikis gegeben.
Mit dem Projekt megadigitale setzt die Goethe-Universität Frankfurt/M. ihre eLearning-Strategie studiumdigitale um. Ziel des Prozesses ist, eLearning in allen Fachbereichen der Hochschule nachhaltig zu verankern und dabei fachspezifische Mediennutzungspotentiale zur Verbesserung der Lehre zu realisieren. In einem Verbund von Topdown- und Bottomup-Initiativen, wie fachbereichsspezifischen eLearning-Konzepten und zentralen Qualifizierungs, Beratungs- Betreuungs- und Infrastrukturangeboten setzt sich das gesamte Programm in einem Mix aus Anreiz- und Förderinstrumenten zusammen. Der Beitrag beschreibt die wesentlichen Initiativen dieses Vorhabens und fasst erste Erfahrungen zusammen.
Virtuelle Konferenzen
(2002)
Wie können Hochschulen in Zeiten knapper Mittel qualitativ hochwertige eLearning-Szenarien und –Inhalte entwickeln ohne eine zentrale Einrichtung als Nadelöhr zu erleben? Dieser Beitrag behandelt Ansätze zur Qualitätssicherung im eLearning und stellt ein Beispiel vor, wie durch die Vermittlung entsprechender Kompetenzen und prozessbegleitender Beratung und Unterstützung Qaulitätssicherung im eLearning betrieben werden kann und zugleich eine breite Verankerung des Einsatzes Neuer Medien erreicht wird.
Dieser Beitrag widmet sich in erster Linie der Analyse, unter welchen Voraussetzungen Telearbeit als neue Form der Arbeitsorganisation eingeführt wird und welche Formen dabei auftreten. Nach einer Einführung in die Thematik werden die verschiedenen Ausprägungen der Telearbeit (Kapitel 2) dargestellt, bevor die Voraussetzungen (Kapitel 3) im einzelnen diskutiert werden. Die genauen Kenntnisse dieser Bedingungen zur Einführung der Telearbeit erlauben einerseits Voraussagen für ihre zukünftige Umsetzung sowie die Ableitung politischer Empfehlungen - besonders im regionalpolitischen Bereich - für die gezielte Förderung der Telearbeit (Kapitel 4). Die Telearbeit erhält zur Zeit im öffentlichen Interesse wieder einen Aufschwung: ist doch die technische Entwicklung der Telekommunikation und Computervernetzung inzwischen genügend vorangeschritten und der Bekanntheitsgrad des Internets und der damit verbundenen möglichen Veränderungen im Berufs- wie auch im Privatleben dank der Medien entsprechend angestiegen, um die Diskussion um diese neue Arbeitsorganisation aufleben zu lassen. Während Arbeitgeber vor allem Kostenfaktoren und Wettbewerbsfähigkeit im Auge behalten, sind die Arbeitnehmer von neuen Arbeitsformen, flexibleren Arbeitszeiten und freier Ortswahl angetan. Trotz der Euphorie ist die tatsächliche Entwicklung der Telearbeit weltweit nur langsam voranschreitend. Vorreiter sind die USA, die aufgrund der Telekommunikationsentwicklung und dem Bedarf an verkehrsreduzierenden Arbeitsformen (vor allem Kalifornien) und auch aufgrund der kulturellen Aufgeschlossenheit gegenüber Innovationen zuerst diese Entwicklung aufgriff. In Europa sind vor allem die britischen Telearbeiter in der Anzahl führend, gefolgt von Frankreich, Deutschland, Spanien und Italien. Betrachtet man die unterschiedliche Entwicklung der Telearbeit in den Ländern, so läßt dies vermuten, daß bestimmte Faktoren zu deren Einführung beitragen, welche in einigen Ländern vorliegen und in anderen weniger oder gar nicht vorhanden sind.
Ziel des Beitrags ist, einen Überblick über aktuelle Entwicklungen und Ausprägungen von MOOCs sowie die Erfahrungen und Ergebnisse aus der Unter-suchung von zwei MOOCs vorzustellen, die 2011 und 2012 durchgeführt wurden. Besondere Schwerpunkte liegen dabei auf der Bedeutung und Ausprägung der Beteiligungsformen in den verschiedenen MOOC-Formaten, der Beteiligung in den beiden untersuchten MOOCs sowie auf deren Unterschiede auch aufgrund von Veränderungen des Kursdesigns.
Das Internationale Colloquium "Perspektiven der Germanistik im 21. Jahrhundert" fand vom 4. bis 6. April 2013 im SchlossHerrenhausen in Hannover statt.
Der Autor hat den Herausgebern den vorliegenden Text nach der Konferenz zur Verfügung gestellt. Er antwortet auf die Ausgangsfragen zum Diskussionsforum B.2 "Germanistik studieren – Perspektiven in Ausbildung und Beruf", die im Programm zur Veranstaltung formuliert worden waren.
Das "Carl- und Gerhart-Hauptmann-Haus" und das "Gerhart-Hauptmann-Haus / Haus Wiesenstein" sind zwei von vier Museen in Polen und Deutschland, die heute an Leben und Werk jenes Dichters erinnern, der als Enfant terrible des Kaiserreiches galt und laut einer Umfrage von 1906 der zweitbekannteste Deutsche nach dem Kaiser war. Auf der Ostsee-Insel Hiddensee entstand im "Haus Seedorn", dem ehemaligen Sommerhaus Hauptmanns und heutigen "Gerhart-Hauptmann-Haus", bereits 1956 eine Gedenkstätte, und in Erkner bei Berlin existierte 1957 im heutigen "Gerhart-Hauptmann-Museum Erkner", der so genannten "Villa Lassen", die Hauptmann von 1885 bis 1889 als junger Autor mit seiner Frau Marie bewohnte, ein erster bescheidener Gedenkraum. Jedes der vier – polnischen und deutschen – Museen repräsentiert eine je unterschiedliche Phase im Leben des Nobelpreisträgers, der bereits zu Lebzeiten in die Riege der Klassiker aufstieg und in der Weimarer Republik gar als Reichspräsidentschaftskandidat gehandelt wurde. 2003 vereinbarten die Museen eine verstärkte Zusammenarbeit und gründeten einen bislang einzigartigen grenzüberschreitenden Verbund, um mit vereinten Kräften für Gerhart Hauptmann und sein Werk werben zu können.
Im digitalen Sommersemester 2020 hat der Fachschaftsrat des Fachbereichs 02 der Universität Kassel zwei Umfragen unter den Studierenden des Fachbereichs durchgeführt. Während die erste Umfrage vor Beginn des eigentlichen Lehrbetriebs an die Studierenden herangetragen wurde und dabei das Ziel verfolgte, die Erwartungen, Lernvoraussetzungen und Bedenken dieser Gruppe zu erfassen, lag der Fokus der zweiten Befragung, die ca. fünf Wochen nach Semesterbeginn verschickt wurde, mehr auf der Evaluierung der Arbeitsbelastung und der Zufriedenheit mit den digitalen Lehrangeboten am Fachbereich. Aus dem Institut für Germanistik nahmen 318 Studierende an der Umfrage teil, diese bilden damit die größte Gruppe unter den insgesamt 521 Teilnehmer*innen.
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Akademischer Kapitalismus" in der Sektion "Am Ende der Exzellenz – Wissenschaftsbetrieb".
Vom 17. bis 19. Februar 2011 luden Jens Eder, Joseph Imorde und Maike Sarah Reinerth für die Filmwissenschaft / Mediendramaturgie der Universität Mainz und die Kunstgeschichte der Universität Siegen Forscher und Forscherinnen unterschiedlicher Disziplinen zu einem Workshop mit dem Thema "Medium Menschenbild" ein. Förderer waren der Forschungsschwerpunkt "Medienkonvergenz" der Johannes Gutenberg-Universität Mainz und das Labor Neue Kunst Siegen. Ziel der Tagung war, das grundsätzliche Verhältnis von Medialität und Menschenbild zu analysieren, die Spezifik medial vermittelter Menschenbilder im interdisziplinären Austausch zu diskutieren sowie auf die in ihnen implizit enthaltenen konzeptuellen Vorstellungen hinzuweisen. ...
Schließlich untersuchte die Kunsthistorikerin HELEN BARR (Frankfurt am Main) den "neuen Menschen" in Werbeanzeigen illustrierter Zeitschriften der 1920er-Jahre. Das breite Spektrum der Werbung für Pflegeprodukte und Genussmittel suggeriere Orientierungshilfe in der urbanisierten Welt und propagiere ideale Menschenbilder der Moderne. ...
Hintergrund: Die Unterschidung von Augen mit frühem Keratokonus (KC) von normalen Augen bereitet nach wie vor Schwierigkeiten. Die vorliegende Untersuchung vergleicht konventionelle keratometrie-basierte mit wellenfront-basierten Maßzahlen hinsichtlich ihrer Eignung, normale Augen von Augen mit sehr frühem Keratokonus zu unterscheiden.
Methoden: Es wurden 17 Augen von 17 Patienten mit frühem KC eingeschlossen. Bei diesen 17 Augen handelt es sich um klinisch unauffällige Partneraugen des stärker betroffenen Auges. 123 Normalaugen von 69 Patienten dienten als Negativkontrolle. Von den axialen Kurvaturdaten wurden folgende Maßzahlen berechnet: zentrale Keratometrie (cK), Astigmatismus (AST), inferior-superiore Brechwertdifferenz (I-S), Verkippung der radialen Achsen (SRAX), KISA% index (eine Maßzahl, die auf cK, AST, I-S und SRAX basiert) und corneale Zernike-Koeffizienten (1.–7. Ordnung, Pupillendurchmesser: 6 mm). Aus Zernike-Koeffizienten wurden Diskriminanzfunktionen konstruiert. Receiver-Operatiing-Charakteristik (ROC)-Kurven wurden erstellt, um die diagnostische Trennschärfe dieser Werte zur Unterscheidung von klinisch unauffälligen Partneraugen von Augen mit frühem Keratokonus und normalen Kontrollen zu evaluieren.
Ergebnisse: Der I-S-Wert (Korrektheit 92,1%, kritischer Wert 0,59 D) und die vertikale Coma (C3-1; 96,7%, –0,2 µm) waren die beiden Einzelwerte mit höchster Trennschärfe. Mit den ursprünglich publizierten kritischen Werten lag der Rabinowitz-McDonnell test (cK und I-S) bei 83,3% (Sensitivität 0%, Spezifität 100%) und der KISA% bei 70,8% (81,3%, 60,3%). In Verbindung mit Diskriminanzanalyse errichten Zernike-Koeffizienten eine Korrektheit von 96,7% (100%, 93,4%).
Schlussfolgerungen: Auf cornealen Zernike-Koeffizienten basierende Maßzahlen erreichte die höchste Trennschärfe bei der Unterscheidung von Augen mit subklinischem KC von Normalaugen. Dennoch konnten konventionelle KC-indices eine ähnlich hohe Trenschärfe wie die Zernike-Methode erreichen, wenn die kritischen Werte entsprechend angepasst werden.
Hintergrund: Im Rahmen der Erforschung von Mechanismen der Presbyopie-Entstehung hat das Interesse an Methoden zur Linsendensitometrie wieder zugenommen. Für spezielle Fragestellungen sind flexible Untersuchungsmethoden notwendig.
Methoden: Basierend auf Aufnahmen mit der Scheimpflug-Kamera Pentacam HR (Oculus, Wetzlar) wurde ein MATLAB-Programm (V7.0, The MathWorks) erstellt, um größere Datenmengen automatisiert auszuwerten. Die Erkennung der Pupillenmitte als Referenzpunkt erfolgt mittels eines Randerkennungsalgorithmus. Als Kennzahlen dienen klassische Parameter der beschreibenden Statistik (Mittel, Minimum, Maximum, Standardabweichung und Variationskoeffizient) für einen definierten rechteckigen Bereich und für die zentrale vertikale Achse.
Ergebnisse: In einer Präliminarserie von 18 Augen war eine automatisierte Messung mit korrekter Pupillenerkennung in 80% der Fälle möglich. Verglichen mit der hersteller-eigenen Software (Pentacam 6.03r11) besitzt das eigene Programm eine erweiterte Spannweite der Messwerte. Die Messwerte können automatisch nach Excel (Microsoft) exportiert werden. Ein modularer Aufbau ermöglicht eine flexible Erweiterung für weitere Fragestellungen (z.B. Quantifizierung von Kern- und Rindentrübungen).
Schlussfolgerungen: Mittels eines selbst programmierten MATLAB-basierten Programmes kann eine automatisierte Messung und Analyse von linsndensitometrischen Parametern durchgeführt werden.
Vor gut einem Jahr ist im Archiv für die civilistische Praxis ein Aufsatz erschienen, in welchem ich mich mit den Perspektiven des Verbrauchervertragsrechts nach der Schuldrechtsreform auseinandergesetzt habe. Der leicht provozierende Unterton der dort vorgetragenen Kritik hat nun nicht nur – wie beabsichtigt – den einen oder anderen Leser zum Lachen verführt, sondern offensichtlich auch Irritationen bezüglich der Richtung hervorgerufen, in die der Verbraucherschutzzug in Zukunft fahren soll: zurück in die Siebziger Jahre und – nach erneutem Schlagen vergangener Schlachten – ins bürgerliche Formalrecht des 19. Jahrhundert? Oder was soll mit dem Stichwort "Prozedurales Verbrauchervertragsrecht" gemeint sein? Ich möchte an dieser Stelle einen Präzisierungsversuch unternehmen.
Dass es "Generationen" gibt, glauben viele zu wissen. Aber was genau sie darunter verstehen, fällt ihnen schwer zu beschreiben. Trotzdem erfreut sich der Generationenbegriff heute einer geradezu ubiquitären Verwendung. Er wird genutzt als Identitäts- und Kollektivbezeichnung, aber auch als Erfahrungs- und Handlungsbegriff. Selbst die Werbesprache hat sich mittlerweile seiner bemächtigt. Und in den Feuilletons deutscher Zeitungen avancierte er zuletzt zu einer Passepartout-Formel, um sozialpolitische "Generationenkonflikte" auszudeuten. ...
Der wesentliche Grund, aus dem auch die neueren Theorien der Erzählanalyse, genauer: die Konzepte zu Perspektive oder 'Fokus', letztlich und d. h. insbesondere in ihrer Anwendung unbefriedigend bleiben, scheint mir darin zu liegen, dass sie immer noch dem Erzähler Prädikate statt dem Autor Strategien zuschreiben. Es ist hier nicht der Ort, mit einer akribischen Revision der Forschung zu beginnen, ich beschränke mich daher auf einige hoffentlich exemplarische Beobachtungen, um so mehr Zeit für meine eigentliche Aufgabe, nämlich die Präsentation meiner Vorstellungen, zu haben.
Vom 4. bis 6. April 2013 fand im Schloss Herrenhausen (Hannover) das Colloquium "Nach der Theorie, jenseits von Bologna, am Ende der Exzellenz? Perspektiven der Germanistik im 21. Jahrhundert" statt. Fünfundfünfzig geladene Teilnehmerinnen und Teilnehmer sowie rund sechzig Gäste diskutierten auf Podiumsdiskussionen und abseits davon streitbar und produktiv über die Entwicklungen und Perspektiven der Germanistik. Mit rund 80.000 Studierenden ist sie noch immer das größte geisteswissenschaftliche Fach an deutschen Universitäten. [...]
Auf dem Programm des Colloquiums standen sowohl Themen, die eine mehr innerdisziplinäre Bedeutung besitzen, wie auch Themen, die für die gegenwärtige Lage der Geisteswissenschaften insgesamt relevant sind. Die Sektion A "Nach der Theorie – Methoden und Modelle" nahm die theoretischen Debatten und Kontroversen der letzten Jahre zum Ausgangspunkt, um nach zukünftigen theoretischen und methodischen Ausrichtungen des Faches zu fragen. Sektion B "Jenseits von Bologna – Studium und Beruf" setzte bei der Bologna-Reform und der Kompetenzorientierung in Schule und Studium an. Sie thematisierte die gesellschaftlichen Aufgaben der Germanistik (insbesondere des Studiums), erstens die Lehrerausbildung, zweitens die Perspektiven von Germanistikstudierenden in Ausbildung und Beruf. In einer zusätzlichen, dritten Diskussionsrunde unter dem Titel "Germanistik und Karriere?" kamen individuelle Karrierewege außerhalb der Universität zur Sprache. Hier debattierten einige ehemalige Absolventinnen und Absolventen der Germanistik, die mittlerweile in leitenden Funktionen außerhalb der Universität tätig sind, über ihre Erfahrungen mit dem Fach Germanistik. Gegenstand von Sektion C "Am Ende der Exzellenz – Wissenschaftsbetrieb" schließlich waren die forschungsstrukturellen und wissenschaftspolitischen Veränderungen der Universitäten insgesamt im Zuge einer verstärkten wettbewerbsorientierten Finanzierung von Forschung.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. In ihrem Beitrag zu Spannungsliteratur und Lesepraxen um 1800 entwirft Ute Dettmar aus kultursoziologischer Perspektive ein Bild von der Vielfalt und Dynamik der kulturellen, literarischen und diskursiven Praxen des ausgehenden 18. Jahrhunderts. Die Gleichzeitigkeit von ästhetisch-normierender Auseinandersetzung um die Faszination des Schrecklichen, von aufgeklärter Lesekritik und einer unbefangenen bürgerlichen Lese- und Theaterpraxis, die sich nicht an das vorgegebene Maß und die Grenzen eines autonomieästhetisch konstituierten Kunstbegriffs hält, charakterisiert das spannungsreiche Mit- und Gegeneinander dieser Umbruchzeit. Anhand der Lektüre populärer Räuberromane erweist sich, dass Grenzziehungen zwischen hoch- und unterhaltungskulturellen Textverwendungsweisen weder in Hinblick auf Stoffe und Gattungen, noch in Hinblick auf die lesende Öffentlichkeit hier bereits rigide gezogen sind.
Es ist eine alte Debatte. Auf der einen Seite steht die althergebrachte Maxime, alles, was wert ist, gesagt zu werden, müsse in jeder Sprache gesagt werden können - umso mehr dann, wenn es sich um die Wissenschaft handelt, die den Anspruch erhebt, universelle Wahrheiten zu erfassen. Demgegenüber steht ein immer wieder anzutreffender Gedanke, dessen wohl inspirierteste Formulierung von Wilhelm von Humboldt stammt, nämlich, dass die Verschiedenheit der Sprachen nicht nur eine von „Schällen und Zeichen“, sondern eine der „Weltansichten selbst“ sei. Thema dieses Vortrags ist die Frage, wo die Wahrheit zwischen diesen scheinbaren Gegensätzen liegt.
L'auteur sénégalaise Ken Bugul focalise dans son oeuvre surtout des destins féminins. Dans le cas du roman La Folie et la Mort les mouvements des héroïnes se réalisent dans un paysage urbain et rural centralisé par le pouvoir d'un parti unique. En subissant constamment la violence, les deux femmes se métamorphosent. À travers leurs changements intérieurs et extérieurs le récit réalise la mise en scène d'une dictature qui ne laisse guère une lueur d'espoir. Cette conversation propose une lecture qui perçoit l'ouverture d'un discours critique par un tiers espace littéraire, voyant la métamorphose autant comme destruction que comme point de départ.
Der Terminus „Annotation“ gewinnt mit der fortschreitenden Verankerung der Digital Humanities innerhalb der akademischen Landschaft immer stärker an Bedeutung. Gleichzeitig steht er in den Geistes- und Informationswissenschaften für jeweils unterschiedliche Konzepte, welche zwar in Umfang, Einsatz und Zielausrichtung variieren, aber auch konzeptuelle Parallelen aufweisen. Vor dem Hintergrund der Zusammenarbeit der verschiedenen Wissenschaftsdisziplinen scheint es daher geboten, verschiedene Annotationspraxen und die mit ihnen verbundenen Konzepte von Annotationen zu reflektieren und diskutieren, ins Verhältnis zueinander zu setzen sowie Gemeinsamkeiten und Unterschiedlichkeiten zu systematisieren. Hierfür luden Julia Nantke und Frederik Schlupkothen (beide Bergische Universität Wuppertal) vom Graduiertenkolleg "Dokument – Text – Edition. Bedingungen und Formen ihrer Transformation und Modellierung in transdisziplinärer Perspektive" zur interdisziplinär angelegte Tagung "Annotationen in Edition und Forschung. Funktionsbestimmung, Differenzierung und Systematisierung" vom 20. bis zum 22. Februar 2019 an die Bergische Universität Wuppertal ein. Wissenschaftler*innen aus verschiedenen Ländern und Fachbereichen berichteten in fünf Sektionen über ihre Forschungsprojekte und –ergebnisse zu Annotationen, deren unterschiedlichen Erscheinungsformen und Funktionsweisen sowie zu verschiedenen terminologischen, methodischen und technischen Fragestellungen. Der Annotationsbegriff wurde hierbei bewusst weit gefasst und sowohl auf digitale und analoge sowie manuelle und automatisierte Annotationsprozesse in unterschiedlichen Medien bezogen.
Ich werde allerdings noch zur Diskussionskultur in den USA gegen Ende meines Vortrages zu sprechen kommen. Heute möchte ich über meine aktuelle Studie zum Münzhandel in Nordamerika referieren. Obwohl ich mein Hauptaugenmerk auf die Situation in den USA lenke, sind selbstverständlich viele Aspekte auf Europa übertragbar. Zuerst möchte ich den Handel mit Neufunden darlegen. Es ist wichtig darauf hinzuweisen, dass sich viele Händler und Sammler, besonders in den Vereinigten Staaten, darauf berufen, dass der Handel mit antiken Münzen in keinem Zusammenhang mit der Raubgräberei und dem Handel anderer antiker Objekte steht. Danach möchte ich den Umfang des Handels mit Neufunden besprechen und aufzeigen, wie Münzen aus Raubgrabungen über illegale Transaktionen und kriminelle Strukturen von der Ausgrabungsstätte über Schmuggler, Großhändler und spezialisierte Händler schließlich zu den Sammlern gelangen. Ich hoffe, wir stimmen alle dahingehend überein, dass die Probleme eines nicht-regulierten Handels sowohl für die Wissenschaft als auch für die Sammler verheerend sein können. Daher ist es im Interesse beider Seiten diesbezüglich zu kooperieren. Ich bin sehr zuversichtlich, dass das Verhältnis von Sammlern, Händlern und Archäologen in Deutschland ebenso wie im gesamten Europa größere Möglichkeiten für einen ehrlichen Dialoge und positive Änderungen zulassen als in den USA, worauf ich ebenfalls eingehen möchte. ...
Lebertransplantation
(1988)
Der Frankfurter Tag der Rechtspolitik inszeniert sich mittlerweile als traditionsreich. Seit dreiundzwanzig Jahren, weiß Rudolf Steinberg, ehemaliger Präsident der Universität Frankfurt und Redner an diesem Tage, ist die Veranstaltung in der Welt und nennt als maßgeblichen Geburtshelfer: sich selbst. Vanité oblige. Dabei vergisst er zu erwähnen, dass die Frankfurter Tage der Rechtspolitik nach und nach auf einen halben Arbeitstag zusammengeschrumpft sind und in der Vergangenheit nicht selten einen so trüben Eindruck machten, dass man dazu überging, über Prüfungsandrohung Druck auf Studierende auszuüben, die mittlerweile die Reihen füllen, was heißt: Komparsenrollen einnehmen. Es reden und diskutieren andere. ...
Die Arbeitsbedingungen und fachlichen Strukturen der Germanistiken jenseits von Deutschland, Österreich und der Schweiz sind anders - diese verschiedenen Voraussetzungen bringen sowohl andere Probleme als auch andere Potenziale mit sich. Mein Beitrag soll daher sowohl die Debatte über die digitale Lehre in der Germanistik in den DACH-Ländern um eine belgische sowie niederländische Außenperspektive befruchten als auch den Austausch mit anderen Germanistiken ermöglichen, die unter ähnlichen Bedingungen arbeiten. Vor diesen Hintergründen möchte der Beitrag zunächst darstellen, 1) wie sich die germanistische Lehre an der Universiteit van Amsterdam bereits vor der Covid-19-Pandemie gestaltete und inwiefern asynchrone und digitale Verfahren dabei eine wichtige Rolle spielten, sowie 2), welche positiven wie auch problematischen Effekte die spontan notwendige Umstellung vom Campus- auf den Online-Unterricht im März 2020 an der Universiteit Antwerpen mit sich brachte. Schließlich sollen daraus 3) Empfehlungen zu einem Blended Learning in der germanistischen Lehre nach der Covid-19-Pandemie sowie 4) Implikationen für die Bildungspolitik und für die Germanistik abgeleitet werden.
Zentrale Voraussetzung einer differenzierten Bewertung der germanistischen Online-Lehre wäre, zunächst die Rolle der Germanistik in der digitalen Gesellschaft sowie den Wert digitaler Bildung zu bestimmen. Dazu wiederum wäre es wichtig, das Wissen, die Methoden, die Begriffe und Fragestellungen der Germanistik in ein Verhältnis zu den Potenzialen und Problemen der digitalen Gesellschaft zu setzen. Zwar adressieren Arbeitsgruppen in den Fachverbänden diese Aufgabe, die germanistischen Teildisziplinen gehen damit aber unterschiedlich um. Als Teildisziplin hat somit auch eine medienkulturwissenschaftlich ausgerichtete (Gegenwarts-)Literaturwissenschaft die Pflicht, nach den Folgen des Medienwandels und der vernetzten Kommunikation im World Wide Web für die Literatur, ihren Betrieb und für die literaturwissenschaftliche Forschung und Lehre zu fragen. Auf einer Konferenz zum Thema "Während und nach Corona: Digitale Lehre in der Germanistik" erscheinen vor diesem Hintergrund zwei Fragen besonders relevant: 1. Welche digitalen Standards und Erkenntnisse müsste die Germanistik etablieren, um gelungene Lehre in der digitalen Kultur überhaupt bewerten zu können? 2. Wie wäre ein Teilbereich der germanistischen Literaturwissenschaft als Netzliteraturwissenschaft zu konzipieren, der das notwendige Wissen über die vernetzte Kommunikation in der digitalen Gesellschaft bereithält und zur Etablierung von Standards des digitalen germanistischen Lernens beitragen könnte?
Die interdisziplinär ausgerichtete Tagung widmete sich in vier Sektionen (1. Entwicklung und Ausdifferenzierung der Wissenschaften, 2. Verlage und Verleger als Wissenschaftsvermittler, 3. Wissenschaft und Öffentlichkeiten, 4. Wissenschaft und Spezialbetriebe) der Frage nach der Interdependenz von Wissenschaftsverlagen und dem Grad der Entwicklung und Etablierung der jeweiligen Disziplinen in den Kultur- und Naturwissenschaften im 19. und frühen 20. Jahrhundert. Der Grundtenor war die zunehmende Spezialisierung der Wissenschaftsdisziplinen, an deren Bedürfnissen nach Lehr- oder Handbüchern, Textausgaben, Zeitschriften oder Forschungsberichten sich die Verleger orientierten. Die unterschiedlichen Disziplinengeschichten bestimmtem die Handlungsmuster der Verleger, ihre Rolle in den jeweiligen Wissenschaftsorganisationen sowie ihre Filterfunktion im wissenschaftlichen Feld. Dabei stellte sich die Frage nach der Verortung des Verlegers im wissenschaftlichen Feld für die einzelnen Fächer immer neu. Der zweite Aspekt war der Adressatenkreis, der entweder selbstreferenziell nur aus dem Kreis der Wissenschaftler bestehen konnte oder aber eine größere Öffentlichkeit intendierte, da der rein wissenschaftliche Markt sehr begrenzt war. Dadurch öffnete sich die Schere zwischen der angestrebten Professionalisierung und der oft notwendigen Popularisierung. Es zeigte sich aber, dass die Bemühungen um Öffnung der wissenschaftlichen Zirkel meist nur das gebildete Bürgertum ereichten, nicht aber "das Volk" oder die sozialen Unterschichten. ...
Das persönliche Engagement des Verlegers betonte auch Frank Bernstein (Mainz) auch in dem er das Verhältnis von Hirzels Schwager, Karl Reimer, zu seinem Autor Theodor Mommsen darstellte, dessen "Römische Geschichte" (1854 bis 1856) Reimer verlegte. ...
[Poster-Abstract] Formel zur Beurteilung der Blut-Liquor-Schrankenfunktion bei älteren Patienten
(1998)
Es war eine in jeder Hinsicht außergewöhnliche Tagung, die Ende Oktober 2010 in Marbach stattfand. 20 renommierte Historiker/innen kamen zusammen, um an ihren akademischen Lehrer und Mentor Wolfgang J. Mommsen zu erinnern. Jeder sollte, so die Vorgabe der beiden Organisatoren Christoph Cornelißen und Gerhard Hirschfeld, aus seinem Forschungsfeld berichten und den Einfluss Mommsens auf diesen Themengebieten einschätzen und beschreiben. Der entsprechende Tagungsband mit den Beiträge konnte bereits auf der Konferenz vorgestellt werden. Zugegen war auch die Familie Mommsen und ebenso der Zwillingsbruder Hans Mommsen. ...
Im folgenden Beitrag werden die Möglichkeiten der Bildung des Progressivs im Aja dargestellt sowie die zur Bildung des Progressivs verwendeten Formen in ihrer Grammatikalisierungskette vorgestellt. Das Aja gehört zu einer Gruppe von Sprachen/Dialekten, die lange Zeit unter dem Begriff "Ewe" zusammengefaßt wurden, in jüngster Zeit aber auch als Gbe(-Kontinuum) bezeichnet werden. Dabei ist "Gbe" ein in allen sprachlichen Einheiten des Kontinuums anzutreffendes Lexem mit der Bedeutung "Sprache".
Welche gesellschaftlichen Zwänge wirken auf die Medizin und ihre Anwender ein? Wie ist das Verhältnis von Ökonomie und medizinisch Gebotenem? Wie steht es mit der Finanzierung der nicht evidenzbasierten Behandlung? Stellen Rationierung und Rationalisierung die möglichen Prinzipien der Priorisierung dar? Führt die Priorisierung zur Qualitätsminderung oder gar Sorgfaltsverletzung? Diese Fragen behandelte der 4. Ärztetag am Dom in Frankfurt am Main. ...
In einem ersten Abschnitt werden das Berufsfeld, die Kernbereiche und die durch den Technologiewandel forcierten Erweiterungs- und Konvergenztendenzen der Informationsberufe Archiv, Bibliothek, Information und Dokumentation betrachtet. Aus dem ständigen Anstieg der Bandbreite der beruflichen Anforderungen und Einsatzmöglichkeiten resultiert die Forderung nach Ergänzung der Generalistenausbildung durch den Ausbau der Spezialisierungsangebote und der Flexibilisierung der Ausbildung. Der zweite Abschnitt skizziert unter dem Aspekt der Realisierbarkeit dieser Forderungen den institutionellen. rechtlichen und personellen Rahmen und die Strukturbedingungen des Lehr-, Studien- und Prüfungssystems, vor allem der gegenwärtigen deutschen Bibliothekarausbildung auf Fachhochschulebene. Ein dritter Abschnitt entwickelt als Resumee den Vorschlag einer integrierten Ausbildung der Informationsberufe und deren zusätzliche Kombinationsmöglichkeit mit dem Studium in anderen Fachbereichen (z.B. Wirtschaft udgl.) , um durch eine modulare Ausbildung nach dem Baukastenprinzip in den Überlappungs- und Spezialisierungsbereichen Flexibilität und Professionalität in der Ausbildung mit der Bereitstellung von Absolventen für die verschiedensten fachlich unspezifischen wie spezifischen Berufseinsatzfelder verbinden zu können.
Elektronische Informationsressourcen, wie beispielsweise elektronische Zeitschriften und Datenbanken, gewannen in den letzten Jahren zunehmend an Bedeutung im Feld der akademischen Literaturversorgung. Mit diesem Trend einhergehend konnten Veränderungen der Bezugspraxis bei Bibliotheken einerseits und neue Preis- und Geschäftsmodelle bei Verlagen andererseits beobachtet werden. Neben der bequemeren Nutzbarkeit für die Leser bietet das neue Medium auch neue Formen des Kostencontrollings und der Optimierung für die Abnehmer. Dieser Workshop soll sich mit der Frage der Kostenrechnung und -verteilung für Konsortien für elektronische Informationsressourcen insbesondere eJournals beschäftigen. Dabei werden die neuen Möglichkeiten der Nutzungsmessung besonders berücksichtigt. Neben den theoretischen Ansätzen werden auch konkrete Beispielrechnungen durchgeführt und die Praktikabilität für die Umsetzung in der Praxis im besonderen Maße diskutiert.
Poster Einleitung: OSCEs werden immer häufiger in der Ausbildung von Studierenden eingesetzt. Die Einführung eines OSCEs im fach Chirurgie ist in Planung. Durch die große Anzahl von Studierenden pro Semester oder Studienjahr (400 Studierende in Frankfurt) ist die Durchführung einer OSCE Prüfung mit großem personellen Aufwand verbunden. Vor allem während der Prüfung müssen eine Vielzahl von Chirurgen simultan zu Prüfungszwecken zur Verfügung stehen. Ziel der Studie war es, zu überprüfen, ob eine video-basierte Bewertung einer „Nahtstation“ zu einem späteren Zeitpunkt zu gleichen Ergebnissen in der Bewertung der Leistung der Studierenden führt. Methode: 33 Studierende führten unter standardisierten Bedingungen eine Hautnaht an einem Modell durchzuführen. Die Studierenden wurden während der Prozedur von zwei prüfenden Chirurgen und zwei Studierenden im PJ (praktischen Jahr) beobachtet und anhand einer objektiv strukturierten Checkliste bewertet (Prozessevaluation). Die Prozedur wurde gleichzeitig auf Video aufgezeichnet und zu einem späteren Zeitpunkt zwei weiteren Chirurgen und zwei weiteren Studierenden im PJ zur Bewertung gezeigt. Ergebnisse: Der Vergleich zwischen "live“-prüfenden und "video“-prüfenden Chirurgen zeigt eine signifikant hohe Korrelation (r=0,87; p<0,01) und eine hohe Übereinstimmung (88,2%) in der Bewertung. Ebenso zeigen die prüfenden PJler eine signifikant hohe Korrelation (r=0,84; p<0,01). Die Übereinstimmung ist bei den PJlern mit (82.4%) etwas niedriger als bei den beteiligten Chirurgen. Zusammenfassung: Mit dieser Studie konnte zeigt werden, daß es bei der Beurteilung der Performance von Studierenden bei einer Hautnaht am Modell unter Anwendung von objektiv strukturierten Checklisten möglich ist, eine direkte Beobachtung der Studierenden durch eine video-basierte Beobachtung zu ersetzen. Eine "Nahtstation“ in einem OSCE kann somit während der Prüfungszeit ohne Prüfer auskommen und im Anschluß bewertet werden.
Meeting Abstract (DGU 2003) 67. Jahrestagung der Deutschen Gesellschaft für Unfallchirurgie 89. Tagung der Deutschen Gesellschaft für Orthopädie und Orthopädische Chirurgie 44. Tagung des Berufsverbandes der Fachärzte für Orthopädie Fragestellung Ziel dieser prospektiven Untersuchung ist die Analyse der Funktion und des Outcomes nach distaler Radiusfraktur in Abhängigkeit von Frakturtyp, Therapieform und Begeleitverletzungen. Berücksichtigt wurden diesbezüglich insbesondere auch neuere Implantate wie die volaren winkelstabilen Titanplatten und dorsale low profile Implantate. Methodik Innerhalb von 2 Jahren (01/01 bis 12/02) wurden insgesamt 150 Radiusfrakturen bei 145 Patienten (82 Frauen; 63 Männer) mit einem Durchschnittsalter von 51,8 (17-93) Jahren operativ versorgt. Die operative Versorgung erfolgte in 56,7 % der Fälle mittels volarer Plattenosteosynthese, davon wurde bei 60 % eine winkelstabile Platte eingesetzt. Die übrigen Frakturen wurden durch eine dorsale Platte (8%) bzw. durch Materialkombination Spickdraht/Schrauben und/oder Fixateur externe stabilisiert. Die radiologische und klinische Nachuntersuchung erfolgt frühestens 1 Jahr nach operativer Versorgung. Zusätzlich wird anhand eines Fragebogens der DASH - Score bestimmt. Ergebnisse Nach der AO-Klassifikation fanden sich in 47,7 % Typ A-, 8,6% Typ B- und 55,6% Typ C-Frakturen. Dabei fand sich bei 53,1 % eine relevante Begleitverletzung (Bandverletzungen 14,3 %; Handwurzelfrakturen 3,9 %; distale Ulnafrakturen 10,4%; TFC/Proc. styloideus ulnae 70,1%). Von den 25 bisher untersuchten Patienten (15 Frauen, 10 Männer; Durchschnittsalter: 55,3 Jahre; NU nach: 14 Monaten) waren 32% Typ A-, 20% Typ B- u. 48% Typ C-Frakturen. Die Greifkraft betrug 87,7 % und das Bewegungsausmaß 83,6 % im Vergleich zur Gegenseite. Der durchschnittliche standardisierte DASH-Score betrug 22,6 Punkte (0: optimale Funktion). Bei den mit volarer Platte stabilisierten C-Frakturen (9 der nachuntersuchten Patienten) fand sich ein DASH-Score von 41 Punkten. Die Greifkraft betrug 67,5% und das Bewegungsausmaß 79,6% im Vergleich zur Gegenseite. Bisher konnte weder bei der konventionellen, noch der winkelstabilen Plattenosteosynthese ein radiologischer Korrekturverlust nachgewiesen werden. Bei den Frakturen ohne lokale Begleitverletzungen waren Greifkraft (91% vs. 79,8%), Bewegungsausmaß (89,5% vs. 83,4%) und DASH-Score (16,8 vs. 26,1) besser als bei den Frakturen mit Begleitverletzungen. Schlussfolgerung Bei korrekter Reposition und Stabilisierung, wird der Outcome nach distaler Radiusfraktur neben dem Frakturtyp wesentlich durch die Begleitverletzung mitbestimmt. Daraus resultiert dass eine Verbesserung nur durch eine Optimierung der Therapie der Begleitverletzungen erreichbar ist.
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Deutschstunden – zur Lehrerbildung" in der Sektion "Jenseits von Bologna – Studium und Beruf".
Ende 2016 startete das Projekt Digital Creative Space an der SUB Göttingen mit dem Ziel einen innovativen Lernort zur Förderung digitaler Kompetenzen der Studierenden durch kollaborativ nutzbare Lernumgebungen zu entwickeln.Die Rückmeldungen der Studierenden und Lehrenden zur ersten Ideenskizze waren eher verhalten, entsprach das Lernortkonzept nicht den gewohnten, eher basal ausgestatteten Einzel- und Gruppenarbeitsplätzen.Um den Studierenden den Freiraum zu geben, mit der SUB und anderen Partnern der Universität die Fläche nach ihren Bedürfnissen zu gestalten, wurde der Digital Creative Space zu einer Experimentierfläche mit einem initial begrenzten, aber innovativen Angebot, bei dem rund 65% der Fläche zunächst unbebaut für weiteres Wachstum und neue Angebote zur Verfügung stehen.Bewegliche Raumelemente zonieren die Experimentierfläche, die Kombination aus Multitouchtischen mit spezieller Software zum digitalen kollaborativen Arbeiten bieten die Möglichkeit zur Erprobung.Ein Partizipations- und Evaluationsprozess bildet die Basis der Weiterentwicklung des physischen Raums und der digitalen Angebote.Welche Raumelemente, welche Hard- und Software und welche Möblierungsszenarien gewählt wurden, welche Methoden zur Beteiligung genutzt und welche davon sinnvoll für die Gestaltung eingesetzt werden konnten, wie der Gesamtprozess und das Raumangebot angenommen wurden, welche Rückmeldungen es gab und welche weiteren Ideen von Seiten der Nutzenden an das Projektteam herangetragen wurden, sind Inhalt dieses Vortrags.
Stellen wir uns vor, wir hätten im Jahre 1600 eine wissenschaftliche Kontroverse in deutscher Sprache zu führen, beispielsweise über die Frage, ob die Astrologie eine ernstzunehmende Wissenschaft ist – eine sehr aktuelle Debatte in dieser Zeit. In dieser Lage müssten wir natürlich den damaligen Fachwortschatz der Astronomie und Astrologie beherrschen, wir müssten beispielsweise wissen was eine Coniunction der Planeten Jupiter und Mars oder eine Zusammenfügung Saturni vnnd der Sonnen ist oder wie der Ausdruck newer Stern verwendet wird. Gleichzeitig müssten wir aber auch den nicht-fachspezifischen, allgemeinen wissenschaftlichen Sprachgebrauch der Zeit kennen, der für wissenschaftliche Auseinandersetzungen verwendet wurde. Zumeist wurden Kontroversen zwischen Akademikern in dieser Zeit auf Latein geführt, der wissenschaftlichen lingua franca der Zeit. Wenn aber eine größere deutschsprachige Öffentlichkeit angesprochen werden sollte, wurde auch die deutsche Sprache verwendet, in der – wie ich zeigen möchte – für diesen Zweck schon sehr differenzierte sprachliche Mittel entwickelt waren.
Zur Beschreibung der Dialogdynamik : Plädoyer für eine kommunikationshistorische Betrachtungsweise
(1989)
Bei der Betrachtung längerer Gesprächsverläufe bietet sich uns oft das Bild einer sukzessiven Entfaltung der Dialogzusammenhänge, die teils schrittweise, teils sprunghaft verläuft. Es werden Themen eingeführt, durchgespielt und gewechselt. Manche Bemerkungen eröffnen ganze Zweige des Gesprächs, andere verschließen gewisse Entwicklungsmöglichkeiten, zumindest für eine bestimmte Zeit. Argumentative Passagen mit erhöhtem Anspruch an Strenge der Gedankenführung und Präzision der Redeweise lösen lockere Passagen mit geringer Ernsthaftigkeit ab. Ein Dialog beginnt als Vorwurfskommunikation und endet als allgemeiner Diskurs über die Geltung von Normen. Neue Redeweisen kommen auf, spielen sich ein und werden fallen gelassen. Mißverständnisse treten auf, werden geklärt oder auch nicht. Erst am Schluß eines Gesprächs versteht man so richtig, was der Gesprächspartner am Anfang gemeint hat usw. Derartige Erscheinungen möchte ich unter den Begriff der Dialogdynamik fassen. Eine Betrachtungsweise, die speziell die Entfaltung von Kommunikationszusammenhängen im eben erläuterten Sinne zu erfassen sucht, könnte man kommunikationshistorisch oder kommunikationsdynamisch nennen, je nachdem, ob eher der Verlauf konkreter Kommunikationen unter Aspekten der genannten Art analysiert werden soll oder ob eine systematische Analyse von Typen von Kommunikationsverläufen beabsichtigt ist.
Der vorliegende kurze Beitrag [hat] das Ziel, im diskutierten Problemrahmen konstitutive Aspekte der Horizonte, Konturen und Fluchtlinien einer dezidiert inter- bzw. transkulturellen Ausrichtung der Sprachwissenschaft anzudeuten und zu hinterfragen, ihre disziplinären Wege und Blickfelder anzulegen sowie über ein inter- bzw.transkulturelles ,,Paradigma" als "interkulturelle Linguistik" im Hinblick auf Profil, Tragfähigkeit und Reichweite zu reflektieren. All das soll dann zu einer extensionalen und intensionalen Bestimmung einer "interkulturellen Linguistik" hinführen.
Es soll engeführt werden auf etwas, das man - vielleicht erscheint die Formulierung paradox - eine Veränderung in der "Semantik des Zufalls" nennen könnte, die durch seine Anwendung in diversen poetischen Verfahren stattgefunden hat. Der Zufall selbst ist ohne Semantik, hat per definitionem keinen Sinn, er ist das sinnlose Ereignis par excellence. Aber er beendet den Sinn, oder er treibt auf die Suche nach einem verborgenen Sinn, einer versteckten Kausalität, göttlichen Absicht... also er destruiert oder konstruiert notwendige Ordnungen und bildet insofern ein poetisches Prinzip.
Als Konsequenz der Änderung des Hochschulrahmengesetzes können deutsche Hochschulen einen Großteil Ihrer zur Verfügung stehenden Studienplätze in den Numerus-Clausus Fächern nach eigenen Kriterien vergeben. Die Identifizierung von Merkmalen, die im Zusammenhang mit dem Studienerfolg stehen, stellt daher ein aktuelles Forschungsthema dar. Ein längsschnittlich angelegtes Forschungsprojekt der Universität Frankfurt am Main soll prüfen, inwieweit kognitive und nicht-kognitive Merkmale wie gewichtete Einzelfachnoten, das Ergebnis eines fachbezogenen Kenntnistests oder bildungsbiographische Daten neben der Abiturdurchschnittsnote einen bedeutsamen Beitrag zur Prognose des Studienerfolges in den Anfangssemestern des Studiengangs Medizin leisten können. Im Wintersemester 05/06 wurde Studierenden des ersten Fachsemesters ein Test zur Erfassung naturwissenschaftlicher Vorkenntnisse (Nawik) der Bereiche Mathematik, Physik, Chemie und Biologie vorgelegt sowie die Abiturdurchschnittsnote erhoben. Als Indikator für den Studienerfolg im ersten Fachsemester wurde die Punktzahl in der Anatomieklausur heran gezogen. Die ersten Ergebnisse einer Stichprobe von N=140 Studierenden lassen substanzielle Korrelationen der Leistungen im Nawik sowie der Abiturdurchschnittsnote mit der Klausurleistung erkennen (r= 0,45, p< 0,01 bzw. r= -0,24, p<0,01). Eine schrittweise Regression weist insbesondere die Leistung im Test naturwissenschaftlicher Vorkenntnisse als vorhersagestarken Prädiktor aus. Die vorläufigen Ergebnisse werden anhand einer größeren Stichprobe geprüft. Weitere Auswertungen zur Bedeutsamkeit von Einzelfachnoten und bildungsbiographischen Daten (wie das Ausmaß an Vorerfahrung in medizinischen Bereichen) für den Studienerfolg laufen derzeit.
Nicht nur in Italien wird Rossini rasch zu einer Figur von öffentlichem Interesse. Die Großen seiner Zeit, von Metternich zu Hegel, von Goethe zu Schopenhauer, haben seine Opern auf der Bühne gesehen oder zumindest die Musik gehört und sich dazu geäußert; Heinrich Heine hat sich Gedanken über Rossinis Erfolg in Paris gemacht, seit Stendhal sind Hunderte von Anekdoten über den phlegmatischen Komponisten, der sich mehr fürs Essen als für die Oper interessiert, erfunden und in ganz Europa kolportiert worden. Der Vortrag zeigt an ausgewählten Beispielen, wie sich die Kritik des 19. Jahrhunderts, besonders in Deutschland, mit Person und Werk Rossinis auseinandersetzte; besondere Beachtung soll dabei den konträren Urteilen Schopenhauers und des Schopenhauer-Jüngers Richard Wagner über Rossinis Melodie gelten.