Refine
Year of publication
Document Type
- Conference Proceeding (515) (remove)
Language
- German (515) (remove)
Has Fulltext
- yes (515)
Is part of the Bibliography
- no (515) (remove)
Keywords
- Germanistik (52)
- Bologna-Prozess (32)
- Exzellenzinitiative (32)
- Theorie (32)
- Zukunft (32)
- Virtuelle Hochschule (23)
- Kongress (20)
- Literaturwissenschaft (17)
- Deutsch (15)
- Literatur (10)
Institute
- Medizin (112)
- Extern (32)
- Geschichtswissenschaften (30)
- Universitätsbibliothek (26)
- Gesellschaftswissenschaften (25)
- Erziehungswissenschaften (24)
- Rechtswissenschaft (18)
- Zentrum für Weiterbildung (14)
- Kulturwissenschaften (9)
- Mathematik (9)
Ausgangsfragen: Bologna: Segen und/oder Fluch? Bedeuten Modularisierung und Ausrichtung auf Kompetenzen das Ende der Humboldt'schen Bildungsidee? Und wenn: Ist das ein Verlust oder ein Gewinn? Wie ist die Modularisierung der Studienordnung mit Blick auf praktische Erfahrungen zu bewerten? Hat sie zu einer Verbesserung des Studienverlaufs geführt? Welches Curriculum müsste die Germanistik der Zukunft haben? Welche 'Schlüsselqualifikationen' sollte sie vermitteln? Sollte das Studium (noch) stärker berufsorientiert strukturiert sein? Sind auch hier Anpassungen an das medientechnische Umfeld erforderlich? Wie steht es generell um die Berufsaussichten von Germanisten? Kommt den Fächern bzw. den Universitäten selbst eine höhere Verantwortung für die Vermittlung in Berufe zu ('employability')?
Vom 25. bis 26. September 2015 fand die von Christoph Cornelißen (Frankfurt am Main), Martin Pekár (Košice) sowie Miloš Řezník (Warschau) organisierte Jahrestagung der Deutsch-Tschechischen und Deutsch-Slowakischen Historikerkommission in Košice (Slowakei) zu Krieg und Stadt im 20. Jahrhundert statt. Sie stand unter der Schirmherrschaft des Ministerpräsidenten der Slowakischen Republik Robert Fico.
Zu Beginn führte CHRISTOPH CORNELISSEN (Frankfurt am Main) mit einigen Vorbemerkungen zu "Krieg und Stadt im 20. Jahrhundert" in das Thema der Tagung ein. ...
Die Tagung "Die Rückkehr der deutschen Geschichtswissenschaft in die 'Ökumene der Historiker' nach 1945 – Ein wissenschaftsgeschichtlicher Ansatz" fand am 5./6. Juli 2007 in den Räumen des Deutsches Historischen Instituts Paris statt. In drei Sektionen diskutierten die Teilnehmer Fragen nach der Beharrung und Wandlung in der deutschen Geschichtswissenschaft nach 1945 (I.), der Reinstitutionalisierung und Neuorientierung der bundesdeutschen Geschichtswissenschaft (II.) und dem Historiker als transnationaler Akteur (III.). Zu analysieren galt es, welche inhaltlichen, personellen, methodologischen und epistemologischen Brüche und Kontinuitäten sich bei der Rückkehr der deutschen Geschichtswissenschaft in die Ökumene der Historiker feststellen lassen.
Nach der Begrüßung durch den Direktor des Instituts, Herrn Werner Paravicini, begann die Tagung mit zwei einführenden Vorträgen. Zunächst gab Christoph CORNELISSEN (Kiel) einen Überblick über die deutsche Geschichtswissenschaft nach 1945. ...
Unsere Vorlesung [...] möchte eine Reihe exemplarischer und zeitlich und geographisch möglichst breit gestreuter Beispiele präsentieren. Vor allem aber werden wir die unterschiedlichen Grundlagen, Voraussetzungen und Praktiken der Zensur im Lauf der Zeit und in verschiedenen Ländern vergleichend nebeneinander stellen. Vorweg sind einige Bemerkungen zu den verschiedenen theoretischen Begründungen der Zensur sowie zu Definition und Abgrenzung des Gegenstands nötig, denn der Begriff Zensur wird für eine Reihe verwandter, aber doch unterschiedlicher Phänomene verwendet.
Der etwas pompöse Begriff "Wiener Moderne" könnte ohne weiteres durch den etwas bescheideneren Begriff "Junges Wien" ersetzt werden. Um diese relativ homogene, Anfang der neunziger Jahre formierte Gruppe, ihre Werke und im Besonderen um ihr Verhältnis zu französischen Vorbildern wird es hier in erster Linie gehen. Dabei wird die Aufmerksamkeit anfänglich auf Hermann Bahr als zentraler Vermittlerfigur französischer Literatur gerichtet sein, dann werden einige Werke von Hofmannsthal, Schnitzler, Dörmann, Andrian, Altenberg und Beer-Hofmann in Beziehung zur französischen Literatur gesetzt.
In unserem Lesealltag stoßen wir auf Schritt und Tritt auf Übersetzungen. Ca. 15 % aller auf dem deutschen Buchmarkt produzierten Titel sind Übersetzungen, wobei - wenig überraschend - zwei Drittel aus dem Englischen stammen. Wir haben uns derartig daran gewöhnt, Übersetzungen zu benützen, dass wir sie kaum noch als besondere, höchst problematische Textsorte wahrnehmen. Auch Literaturwissenschaftler sind nicht dagegen gefeit, beim Lesen zu "vergessen", dass sie eine Übersetzung vor sich haben. Nicht oft genug kann man daher darauf hinweisen, dass Übersetzungen oft erheblich von ihren Vorlagen abweichen und dass bei der Entstehung von Übersetzungen nicht nur Kalkül, sondern auch der Zufall eine große Rolle spielt.
Das Prager Deutsch wurde schon oft erwähnt, aber wenig beschrieben. In diesem Aufsatz wird die letzte Form dieses Deutschen dargestellt, wie sie in den 30er und 40er Jahren des 20. Jahrhunderts gesprochen wurde, als deutsche Standardsprache der Länder der böhmischen Krone. Die Unterschiede zum neutralen Standarddeutschen sind sehr gering. Es gibt wenige tschechische Einflüsse, kaum Übereinstimmungen mit dem süddeutschen und österreichischen Substandard, aber Parallelen zum nördlichen Standarddeutschen. Heute ist das Prager Deutsch fast ausgestorben, da es nach 1945 nicht mehr weitergegeben wurde.
Einleitung Für die Versorgung großer Narbenhernien der Bauchwand sind immer wieder neue Operationstechniken entwickelt worden. Die häufig verwendeten Alloplastiken können zwar einen statischen, jedoch keinen funktionell-muskulären Ersatz leisten und sind darüber hinaus mit einer hohen Komplikationsrate belastet. Material und Methoden In einer retrospektiven, monozentrischen Studie haben wir die Ergebnisse einer neuen Operationstechnik untersucht, die das Prinzip der intraoperativen Expansion für die funktionelle Reparatur der Bauchwand mit innervierter Rectus-abdominis-Muskulatur nutzt. Die Adaptation der originären Bauchwandmuskulatur in der Mittellinie wird dabei durch intermittierenden Zug mit 3mm breitem Vicrylband erreicht.Das Patientenkollektiv umfaßt 39 Patienten im Alter von 33 - 88 Jahren, die von 1993 bis 2002 in unserer Klinik versorgt wurde . Die Größe der Narbenhernien maß bis zu 26 x 20 cm. Alle Patienten waren bereits mehrfach voroperiert. Die Beurteilung der OP-Ergebnisse erfolgte sowohl mit der funktionellen Myosonografie als auch mit konventionellen Funktionsanalysen (Janda und Lacôte) . Ergebnisse Von den 39 untersuchten Patienten verstarben 2 Patienten, 4 Patienten (10,2 %) erlitten ein Rezidiv. Die rezidivfreie Zeit reichte von 5 - 95 Monaten. Die Myosonografie zeigte eine erhaltene Funktion der Rektusmuskulatur postoperativ mit entsprechender Dickenzunahme um 1.9 mm im Mittel und Veränderung der Muskelbreite um 4.4 mm bei willkürlicher Kontraktion. In der Funktionsanalyse erreichten die operierten Patienten auf der Skala nach Janda und Lacôte mindestens den Wert von 3, im Mittel 4 Punkte. Schlussfolgerung Die mechanischen Eigenschaften des 3mm-Vicrylbandes erlauben die intraoperative Gewebedehnung der verbliebenen Rektusmuskulatur. Im Gegensatz zu den verwendeten Alloplastiken sind durch den Einsatz resorbierbaren Nahtmaterials weniger Komplikationen zu erwarten. Die niedrige Rezidivrate und die deutliche Verbesserung der Lebensqualität der mehrfach voroperierten Patienten wird von uns auf die funktionelle Rekonstruktion der Rektusmuskulatur zurückgeführt, die durch alloplastische Verfahren bisher nicht erreicht wurde.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Ein wesentliches Ziel der modernen Perforatorlappen vom Unterbauch (DIEP-flap) für die Brustrekonstruktion nach Mammaamputation ist die Schonung der Rektusmuskulatur. Der Funktionserhalt der Muskulatur ist abhängig von der Präparationstechnik. In unserer Studie wird die Interaktion zwischen der Muskel- und Nervendurchtrennung und der postoperativen Muskelfunktion untersucht. Material und Methoden: Unser Patientenkollektiv umfasst 42 Patienten. Im Zeitraum von 6/04 bis 06/07 wurden 44 DIEP-Lappen an unserer Klink nach dem gleichen operativen Standard von unterschiedlichen Operateuren zur Brustrekonstruktion transferiert. Die Standards beinhalten die beidseitige Präparation der Perforatorgefäße des Unterbauches, der SIEA-Gefäße, die Auswahl der 2–4 kräftigsten Perforatoren einer Seite und die schonende Präparation der Rektusmuskulatur und der motorischen Nervenäste.In einer prospektiven monozentrischen Studie haben wir die Rektusmuskulatur präoperativ und 6 Monate postoperativ untersucht. Für die Funktionsanalyse wurde sowohl die Myosonografie der Rektusmuskulatur als auch eine klinischen Untersuchung angewandt. Intraoperativ wurde die Anzahl und Lokalisation der Perforatoren, die Länge der gespreizten Muskulatur, die Länge der durchtrennten Muskulatur und die Anzahl und Lokalisation der durchtrennten intramuskulären Nerven in einer Skizze eingetragen. Die Relation zwischen der intraoperativen Muskel- und Nervenschädigung und der postoperativen Funktion wurde analysiert. Ergebnisse: Bei der Hebung des DIEP – flaps wurden im Durchschnitt 10,8 cm Muskulatur gespreizt, 8,2 cm Muskulatur getunnelt und 2,5 cm Muskulatur durchtrennt. In 41% (18 Pat) wurde 1 motorischer Nervenast durchtrennt, in 27,3% (12 Pat) waren es 2 und in 13,6% (6 Pat) 3 Nervenäste. Bei der klinischen Untersuchung 6 Monate postoperativ hatten 8 Patientinnen noch funktionelle Störungen beim Heben schwerer Gegenstände. Myosonografisch fand sich bei 3 Patientinnen eine Funktionsminderung: 1 vollständiger Funktionsverlust der Muskulatur mit Relaxatio, 2 relevante Minderungen der Kontraktilität Bei keiner Patientin fand sich eine Bauchwandhernie. Bei allen Patientinnen mit einer Beeinträchtigung der Muskulatur waren mind. 2 motorische Nervenäste durchtrennt worden. Schlussfolgerung: Die klinische und myosonografische Funktionsanalyse der Bauchwand ermöglicht die Erstellung von Standards zur verbesserten Operationstechnik. Unsere Ergebnisse zeigen, dass die Durchtrennung von 2 oder mehr motorischen Nervenästen vermieden werden muß. Die Länge der durchtrennten und gespreizten Muskulatur ist dagegen von geringerer Bedeutung.
Das unter ästhetischen Gesichtspunkten nach wie vor als kulturelle Abstrusität rubrizierte Bemühen der Meistersinger, literarische Leistung zu quantifizieren, erscheint in worthistorischer Perspektive und dabei insbesondere im Hinblick auf die Tabulaturen des späten 15. und frühen 16. Jahrhunderts als ein durchaus fortschrittliches Phänomen. Obschon die Texte sowohl pragmatisch - durch die Bindung an den Vortrag vor Anwesenden - als auch ihrem Selbstverständnis nach an mittelalterliche Literaturtraditionen gebunden bleiben, verfügen die Meistersinger im Kontext ihrer Aufführung doch nun über einen umfangreichen Katalog poetologischer Begriffe, die in diskursiver Form verschriftlich vorliegen.
Es wird eine Verbindung zwischen dem von Antiphon entwickelten infinitesimalen Berechnungsverfahren, der Theorie Verteilungsgerechtigkeit von Aristoteles, des Hebelgesetzes, der eben radialen Figuren und der Verteilung hergestellt.
Die Problemstellung stellt sich wie folgt dar: dem Kennenlernen der Gründe, die Antiphon mutmaßen ließ, die Exhaustionsmethode als ein Mittel der Bildung des Quadratur des Kreises anzusehen, Beziehungen von grundsätzlicher und historischer Art zwischen der Verteilungsgerechtigkeit und den Hebelgesetz herzustellen, ein Model der Verteilungsgerechtigkeit, basierend auf der modernen Mathematik der Verteilung, von multipler Partizipierung zu konstruieren.
Die Zielsetzungen sind:
Die These zu erstellen, dass die Exhaustionsmethode aus der Gerichtspraxis stammt; dass das Hebelgesetz und die Theorie der Proportionen von Eudoxos Modelle der Verteilungsgerechtigkeit von Aristoteles sind; weiter soll gezeigt werden, dass die ebene Verteilung der materiellen Partikel auch ein Modell der Verteilungsgerechtigkeit ist.
Das Modell der Mehrteiligkeit der Verteilung, das vorgestellt wurde, enthält zwei Arten von Freiheitsgraden, einen für den Wert der zu verteilenden Güter an jeweils einen der Beteiligten und einen zweiter Freiheitsgrad für die verschieden Ebene zwischen den Beteiligten im Falle der Ungleichheit.
Keywords: Exhaustionsmethode, Hebelgesetz, Verteilungsgerechtigkeit, Verteilung.
Typologisches Denken gerät im 17. Jahrhundert in Unordnung, wenn die Figuren des Barock, wie der Simplicissimus, nicht (länger) das erfüllen, was sie versprechen und zugleich andere Aspekte des Figurenbegriffs an Bedeutung gewinnen. An diesem Punkt setzte die Tagung „Barocke Figuren. Zeit – Gestalt – Medien“ (27.-29. Oktober 2010, Universität Konstanz) an. Sie untersuchte eben jene (atypischen) Figuren, die sich gegen eine strenge Typologisierung sperren, deren Umwege, Metamorphosen, Begegnungen und Konflikte es aber erlauben, die Frage, was im Barock eine Figur ausmacht, in begrifflich-analytischer Perspektive neu zu stellen.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Nach der Theorie – ist vor der Theorie?" in der Sektion "Nach der Theorie – Methoden und Modelle".
Der Beitrag plädiert dafür, den 'digital turn', der weite Teile der germanistischen Lehre spätestens im 'digitalen' Sommersemester 2020 erreicht hat, als Chance zu verstehen, das Fach in der Verbindung von Forschung und Lehre unter den Bedingungen des Digitalen neu zu denken und zukunftsorientiert zu profilieren. Digitalisierung formatiert (auch) in der Germanistik sowohl Forschungsgegenstände und Methoden als auch die Möglichkeiten ihrer Vermittlung in der Hochschullehre als einem Teil der Wissenschaftskommunikation. Doch Digitalisierung bewirkt weniger eine technische Ausstattung als vielmehr eine Kultur der Digitalität.
Virtuelle statt realer Präsenz : Begriffe und Konzepte für die digitale Lehre in der Germanistik
(2021)
Angesichts der Neuheit und Vielfalt digitaler Lehr-Lernformate im Sommersemester 2020, dem sog. Corona-Semester, zielt der Beitrag auf einen Überblick über Begriffe, Konzepte und Formate von digitaler Lehre, der sowohl aktuelle Erfahrungen als auch frühere Entwicklungen des E-Learnings berücksichtigt und abschließend digitale Gestaltungsoptionen für virtuelle Präsenzphasen empfiehlt.
Ausbildung in Evidenzbasierter Medizin am Universitätsklinikum Frankfurt am Main : meeting abstract
(2005)
Einführung: Obwohl international die Integration der Evidenzbasierten Medizin (EbM) in die klinische Medizin und in die Ausbildung voranschreitet, ist die Verbreitung im deutschen Klinikalltag eine fortbestehende Herausforderung. Vor allem ist die Vernetzung der theoretischen Lerninhalte mit den klinisch-praktischen Fertigkeiten eine weit verbreitete Schwierigkeit. Die neue Ärzteapprobationsordnung bietet Möglichkeiten für innovative Konzepte im medizinischen Curriculum. Sowohl die systematische Informationssuche als auch die kritische Bewertung und Anwendung medizinischer Informationen sind wichtige Kernkompetenzen der ärztlichen Tätigkeit. Zum Wintersemester 03/04 wurde in Frankfurt das erste curriculare Seminar EbM als Teilfach des Querschnittsbereiches I (Epidemiologie, Med. Biometrie und Med. Informatik) auf der Basis des peer-teaching eingeführt und wissenschaftlich begleitet.
Methoden: Für alle Studierenden des 2. klinischen Semesters wird in Kleingruppenseminaren an 4 Terminen ein Basiskurs EbM nach den Kriterien des Deutschen Netzwerkes für Evidenzbasierte Medizin e.V. durchgeführt. Dabei werden die Module Vierteilige Frage, Internetrecherche, Diagnose und Therapie erarbeitet. Ein individuelles Fallbeispiel (klinische Fragestellung) wird von jedem Studierenden selbständig mit allen Schritten der EbM bearbeitet. Jede Seminararbeit wird im Rahmen eines journal clubs von dem Studierenden vorgestellt und in der Kleingruppe diskutiert. Während des ersten unterrichteten Semesters erhielt jeder Seminarteilnehmer zu Seminarbeginn und zum Seminarende einen Testfragebogen mit 20 Fragen, sowie zum Ende einen anonymisierten Fragebogen mit der Bitte um Einschätzung. Die anonymisierten Fragebogen werden seitdem weiter in jedem Semester eingesetzt.
Ergebnisse: Es wurden im Durchschnitt nach dem Seminar 7,48 (99% KI 6.61-8.36) Fragen mehr als vor dem Seminar richtig beantwortet. Der Kurs wurde im Median mit der Note gut eingeschätzt (Weberschock et al 2005, im Druck). Die Auswertungen der Einschätzungen der nachfolgenden Semester zeigten noch bessere Ergebnisse.
Schlussfolgerung: EbM ist in der medizinischen Ausbildung sehr gut durchführbar und wird mit den richtigen didaktischen Konzepten auch voll akzeptiert. Vor allem die Fähigkeit, medizinische Informationen korrekt zu bewerten und sie klinisch fachgerecht anzuwenden ist eine essentielle Kompetenz für die ärztliche Tätigkeit und bedarf den sichern Umgang mit den Methoden und Medien.
Ausblick: Die Vernetzung der theoretischen Aspekte bei der medizinischen Informationsverarbeitung mit der klinischen Anwendung der gewonnenen Erkenntnisse ist für die Ausbildung in EbM ein essentieller Bestandteil. Um die Lehrenden auf diese Aufgabe adäquat vorbereiten zu können, werden in naher Zukunft in Zusammenarbeit mit dem Deutschen Netzwerk Evidenzbasierte Medizin (DNEbM), der Arbeitsgemeinschaft der wissenschaftlich medizinischen Fachgesellschaften (AWMF) und der Gesellschaft für medizinische Ausbildung (GMA) Train-the Teacher-Seminare veranstaltet. Diese Seminare sollen einerseits die didaktischen Methoden und Fertigkeiten der EbM-Lehrenden weiter ausbauen und andererseits eine Brücke zwischen theoretischen Lerninhalten und klinischen Bezügen schlagen.
Hintergrund: Die Notwendigkeit der Etablierung der Anwendung von Evidenzbasierter Medizin (EbM) in den klinischen Alltag sowie die Sicherung der europaweiten Qualifikation in EbM ist seit geraumer Zeit vielfältig diskutiert worden. Gefördert durch das "Leonardo da Vinci"- Berufsbildungsprogramm der Europäischen Union hat das euebm-Projekt zum Ziel, durch ein europaweit einheitliches integriertes Basiscurriculum für evidenzbasierte Medizin eine bessere Verzahnung zwischen dem Erlernen der EbM-Techniken und der eigenen Patientenversorgung zu erreichen. An der Universitätsklinik Frankfurt am Main wird ab dem 01.01.2009 das euebm-Projekt in den klinischen Alltag integriert werden. Die Zielgruppe dieses Projektes bilden alle Assistenzärzte jeglicher Fachrichtungen im 1. Weiterbildungsjahr. Durch einen online-basierten Kurs wird den Interessenten die Möglichkeit geboten, an den einzelnen Lehrmodulen teilzunehmen.
Methoden: Es werden alle Assistenzärzte im 1. Weiterbildungsjahr in einem individualisierten Schreiben zur Teilnahme an dem Projekt aufgefordert. Nach der elektronischen Anmeldung werden die Teilnehmer prätest-Evaluationsbogen mit inhaltlichen EbM-Fragen beantworten. Danach durchlaufen die Teilnehmer ein EbM-Lernprogramm, bestehend aus 5 Modulen. Jedes Modul wird durch eine Lernerfolgskontrolle abgeschlossen. Abschließend wird eine Gesamtlernkontrolle von jedem Teilnehmer abverlangt. Am Ende des online-Kurses werden die Teilnehmer ebenfalls einen mehrteiligen subjektiven Evaluationsbogen beantworten. Um einen längerfristigen Lerneffekt messen zu können, werden 6 Monate bzw. 1 Jahr nach dem erfolgreichen Abschluss die Teilnehmer erneut einen objektiven inhaltlichen Evaluationsbogen bearbeiten.
Ergebnisse: Im Rahmen der 10. Jahrestagung des DNEbM im März 2009 können voraussichtlich Zwischenergebnisse der objektiven (präinterventionell vs. postinterventionell) und subjektiven Evaluationen veröffentlicht werden. Zudem wird derzeit die Erstellung einer statistischen Auswertung der Zugriffszahlen auf die verschiedenen medizinischen Online-Datenbanken und Suchmaschinen (prä- und postinterventionell) aufgebaut.
Schlussfolgerung/Implikation: Mit Hilfe der curricular vermittelten Lehrinhalte und Techniken sollen Ärzte in die Lage versetzt werden, EbM praxisnah für und mit ihren Patienten umzusetzen. In der konkreten Anwendung von EbM an ihren individuellen Patienten können Ärzte möglicherweise erfahren, dass die Integration von EbM in den klinischen Alltag ihr Spektrum an Beratungs- und Behandlungsmöglichkeiten erweitert.
Ausgangsfragen: Wie steht es um den akademischen Nachwuchs? Dient die verstärkte Betreuung – Stichwort "Verschulung" – von Doktoranden der Qualitätssicherung? Ist sie ein Erfolgsmodell? Oder produziert sie im Gegenteil prospektiv arbeitslose Dr. phil.s en masse? Welche curricularen Erfordernisse ergeben sich für die strukturierte Ausbildung des Nachwuchses? Wie ist die Situation der 'Post-Docs'? Wie hat sich insgesamt das institutionelle Umfeld für germanistische bzw. geisteswissenschaftliche Forschung verändert? Ist das Junktim von 'Forschung und Lehre' auch weiterhin ein notwendiges Leitbild oder nurmehr ein obsoletes Paradigma? In welchem Verhältnis stehen universitär verankerte Lehrbetriebsgermanistik und außeruniversitär betriebene Großforschungsgermanistik zueinander? Welche Rolle spielen einzelne Institutionen (DFG, Volkswagen, Thyssen), und welche Veränderungen sind in der grundlegenden geisteswissenschaftlichen Infrastruktur zu erwarten? Welche Forschungsmodelle sind denkbar und wünschenswert?
In seinem Praxisbericht zeigt Sebastian Bernhardt in einem ersten Schritt, welche Konsequenzen die pandemiebedingten Veränderungen kurzfristig auf seine akademische Lehre hatten. Die Erfahrungen in der notgedrungen rein digitalen Lehre münden aber in einem zweiten Schritt in nachhaltige Perspektiven für die akademische Lehre, die sich nicht auf das Gegensatzpaar digital vs. präsent reduzieren lassen. Zentral ist, dass die Erfahrungen mit digitalen Flipped Classroom-Modellen sich auch in die Zeit nach Corona übertragen lassen, sofern digitale und präsente Vermittlungsanteilen langfristig und kompetenzorientiert miteinander verknüpft werden. Dabei soll weder das eine gegen das andere ausgespielt werden noch eine Digitalisierung um ihrer selbst willen, sondern eine Passung von Vermittlungsziel und Medium, hergestellt werden. Wie er im Folgenden zeigt, konnte er aus der Not der Situation geboren Erfahrungen sammeln, bei denen deutlich wurde, dass einige digitale und asynchron angelegte Flipped Classroom-Formate in Kombination mit synchronen Zoom-Sitzungen, die langfristig durch Präsenzphasen ersetzt werden, einen nachhaltigen Kompetenzerwerb erzielten und zu einer Individualisierung von Lernwegen bei den Studierenden führten.
Veranstalter: Bernadette Biedermann, Universitätsmuseum, Universität Graz; Judith Blume, Universitätsbibliothek J.C. Senckenberg, Goethe-Universität Frankfurt am Main; Franziska Hormuth, Projekt „Digitales Netzwerk Sammlungen“, Berlin University Alliance / Humboldt-Universität zu Berlin
Datum, Ort: 22.04.2021–23.04.2021, digital
Metaphern bestimmen nicht nur unser alltägliches Leben, etwa wenn wir vom Rad der Geschichte oder der Bühne des Lebens sprechen, sie geben auch nützliche Orientierung in vielen Bereichen der Wissenschaft, von den schwarzen Löchern der Physiker bis zur Computermetapher des Gehirns in der Kognitionswissenschaft. Eine solche Metapher ist auch die Deutung der Sprache als Werkzeug.
Fragestellung Intoleranzreaktionen auf nicht-steroidale Antiphlogistika sind häufig und basieren auf der Hemmung des Enzyms Cyclooxygenase-1 (COX-1), wohingegen deren therapeutische Effekte auf einer COX-2 Hemmung beruhen. In dieser Studie wurde die Verträglichkeit des selektiven COX-2 Inhibitors Celecoxib bei Patienten mit Intoleranzreaktionen auf nicht-steroidale Antiphlogistika untersucht. Methodik Bei 77 Patienten (24 Männer, 53 Frauen) mit Intoleranzreaktionen auf nicht-steroidale Antiphlogistika wurden standardisierte Hauttestungen (Prick, Scratch, Epikutantestung) sowie anschließend orale fraktionierte Placebo-kontrollierte einfach blinde Expositionstestungen unter Einschluß von Celecoxib (maximale Einzeldosis 200mg, kumukative Tagesdosis 350mg) durchgeführt. Ergebnisse 21 Patienten wiesen anamnestisch lediglich Hautsymptome (Urtikaria) auf, 25 Patienten nur eine Atemwegssymptomatik (Asthma), bei 18 Patienten traten Haut- und Atemwegssymptome auf, und bei 13 Patienten war es zu einem anaphylaktischen Schock gekommen. Azetylsalizylsäure war in 38 Fällen ein Auslöser der Beschwerden. In 46 Fällen verursachten mehrere nicht-steroidale Antiphlogistika chemisch unterschiedlicher Gruppen die Symptomatik. Die orale Expositionstestung mit Celecoxib verlief bei allen 77 Patienten unauffällig. Schlußfolgerung Vor dem Hintergrund der hohen Inzidenz von Intoleranzreaktionen gegen nicht-steroidale Antiphlogistika stellt der Einsatz selektiver COX-2 Inhibitoren eine therapeutische Alternative sowie eine geeignete Maßnahme zur Prävention entsprechender Reaktionen dar.
Wie kann eine E-Learning-Strategie in einer Hochschule durch einen geeigneten Maßnahmenkatalog in einem stufenweisen Organisationsentwicklungsprozess umgesetzt werden? Welche verschiedenen Entwicklungspfade für Fachbereichsstrategien sind dabei möglich? Wie gelingt es, eine Community aufzubauen, die sich dem Ziel verpflichtet, gemeinsam eine hohe Qualität im Bereich E-Learning zu erreichen? Diesen Fragen geht der vorliegende Beitrag nach, der die Umsetzung der E-Learning-Strategie der Goethe-Universität Frankfurt mit dem Projekt megadigitale vorstellt, das 2007 mit dem mediendidaktischen Hochschulpreis Medida-Prix prämiert wurde.
Die Goethe-Universität Frankfurt hat in den letzten Jahren mit dem Projekt megadigitale hochschulweit ihre eLearning-Strategie umgesetzt und alle Fachbereiche in das Vorhaben integriert, d.h. in allen 16 Fachbereichen den Einsatz neuer Medien in der Lehre befördert. Wichtiger Bestandteil dieses kombinierten TopDown-BottomUp-Konzeptes war seit 2005 die finanzielle Förderung von eLearning-Projekten von Lehrenden. Ab 2007 wurde mit Hilfe des MedidaPrix-Preisgeldes zudem die Förderung studentischer eLearning-Vorhaben umgesetzt. Ziel war, die Ideen und Visionen von Studierenden, welche Form von eLearning und des Medieneinsatzes sie an ihrer Hochschule präferieren, aufzugreifen. Dieser Beitrag stellt die einzelnen Förderansätze, ihre Ausrichtungen, Zielsetzungen und Wirksamkeit vor und beschreibt deren Zusammenspiel mit den anderen in megadigitale implementierten Maßnahmen zur hochschulweiten Umsetzung von eLearning.
Um die Nutzung von offenen Ressourcen und Web 2.0 Technologien einer breiten Masse von NutzerInnen zu ermöglichen, ist es auch wichtig, dass LehrerInnen und Lehrer die entsprechenden Kompetenzen erwerben, um diese medialen Angebote und einen sinnvollen Umgang damit ihren Schülerinnen und Schülern vermitteln zu und selbst Medienangebote im Unterricht einsetzen zu können. Die Universität Frankfurt stellt sich dieser Aufgabe und hat sich daher zum Ziel gesetzt, ihre Lehramtsstudierenden entsprechend zu qualifizieren und auch Angebote für Lehrerinnen und Lehrer bereitzustellen, um einen pädagogisch sinnvollen Einsatz von Open Ressources, Web 2.0 Technologien und anderen Medienangeboten zu befördern.
Neben einem Medienkompetenzzertifikat für Lehramtsstudierenden stellt die Hochschule entsprechende Fortbildungsangebote für Lehrerinnen und Lehrer bereit und erzeugt in dem vertikalen Integrationskonzept des Projektes Lehr@mt Medienprodukte mit Studierenden, die LehrerInnen und SchülerInnen über den hessischen Bildungsserver und andere Portale wiederum bereitstehen.
Um mit den wachsenden Anforderungen der Informations- und Kommunikationstechnologien in unserer Gesellschaft umzugehen, bedarf es der umfassenden Qualifizierung von Kindern und Jugendlichen im Umgang mit den neuen Medien. Das bedeutet, sie müssen befähigt werden, Medien bewusst und kritisch nutzen und kompetent bedienen zu können. Dies erfordert eine gezielte Vermittlung von Medienkompetenz, die neben der Nutzung der Medien auch deren kritische Beurteilung und die aktive Beteiligung an der Gestaltung und Verbreitung dieser Medien umfasst. Gesellschaftliches Ziel muss daher sein, Kinder und Jugendliche schon in der Schule mit den neuen Medien vertraut zu machen und ihnen dort einen pädagogisch geleiteten Umgang mit diesen zu ermöglichen. Dies kann nicht ohne die entsprechende Qualifizierung der Lehrerinnen und Lehrer erfolgen. Neben der Nutzung neuer Medien durch das Lehrpersonal selbst muss diese Zielgruppe auch befähigt werden, Medien zielgerichtet im Unterricht einzusetzen, entsprechende Unterrichtsszenarien zu entwickeln und zu betreuen.
Untersuchungen wie beispielsweise eine Studie unter Lehrkräften in Frankfurter Schulen haben jedoch gezeigt, dass die Ausstattung der Schulen mit modernen Medien zwar sehr zufriedenstellend ist, es den Lehrkräften jedoch an methodischen Qualifikationen mangelt, diese einzusetzen und „ein hoher Bedarf an weiterführenden Schulungen zum fachdidaktischen Einsatz“ artikuliert wurde (Wiedwald 2007, S. 4).
Während Lehrerfortbildungen an dieser Stelle ein Mittel zur Abhilfe darstellen, lösen sie das Problem jedoch nur punktuell. Die Universität Frankfurt hat sich daher mit der Einführung eines Medienkompetenzzertifikates für Lehramtsstudierende sowie der Umsetzung des Projektes Lehr@mt zum Ziel gesetzt, in allen drei Phasen der Lehrerbildung aktiv zu werden und schon ihre Lehramtsstudierenden entsprechend zu qualifizieren sowie auch Angebote für Lehrerinnen und Lehrer bereitzustellen, die einen pädagogisch sinnvollen Einsatz von neuen Medien in Schulen befördern.
Die Goethe-Universität hat im Rahmen ihres Projektes megadigitale, das die hochschulweite Umsetzung ihrer eLearning-Strategie verfolgte, ein Vorgehensmodell entwickelt, das entlang des kompletten Prozesses der Entwicklung und Umsetzung von eLearning-Ansätzen standardisierte Analyse-, Planungs-, Konzeptions-, Implementierungs- und Qualitätssicherungsinstrumente anwendet. Dabei spielen Verfahren zur Qualitätssicherung schon von dem ersten Schritt an, in der Analysephase eine Rolle, angepasst an die verschiedenen Ebenen der Umsetzung.
Wiki-Systeme gewinnen für das kollaborative Erstellen von Wissen zunehmend an Bedeutung, belegt durch den Erfolg großer Projekte wie Wikipedia. Dabei beschränkt sich der Einsatz dieser Systeme nicht auf Anwendungsbereiche wie Wörterbücher oder Glossare; auch Universitäten und Unternehmen nutzen Wikis inzwischen zunehmend zur Unterstützung der Lehre im eLearning, für Dokumentationszwecke, Projektmanagement-Aufgaben, usw.. In diesem Kontext ist die Frage nach dem didaktisch motivierten Einsatz von Wikis im eLearning bedeutsam: welche Erfahrungen haben Akteure dem Einsatz von Wikis in eLearning-Veranstaltung oder auch begleitend zu räsenzveranstaltungen gemacht? Lassen sich Empfehlungen für die Gestaltung der Interaktion und Kooperation in Wikis aus diesen Erfahrungen ableiten?
Open Online Courses als Kursformat? Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
2011 starteten studiumdigitale, die zentrale eLearning-Einrichtung der Universität Frankfurt/M, und der Weiterbildungsblogger Jochen Robes den ersten deutschsprachigen Open Online Course unter dem Titel „Die Zukunft des Lernens“1. In 14 Wochen wurden in wöchentlichem Rhythmus 14 Themen behandelt, die sich rund um den Einsatz verschiedener Technologien in Bildungsprozessen und auch das Kursformat selbst drehten. Dieser Beitrag stellt die Bezüge des Open Online Courses zu seiner Herkunft und den ersten Kursen dieser Art in Kanada und USA her, bezieht sich auf die theoretischen und konzeptionellen Fundierungen dieses Ansatzes und stellt die Ergebnisse aus dem Kursverlauf und der abschließenden Befragung der Teilnehmenden vor.
Open Online Course als Kursformat? : Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
Basierend auf dem Konzept des Connectivismus entwickelte sich in den letzten fünf bis sechs Jahren ein neues offenes Kursformat: die Open Online Courses, die als so genannte MOOCs (Massive Open Online Courses) teilweise bis über 100.000 Teilnehmende anzogen. In dem Beitrag wird mit Bezug auf die konzeptionellen Ursprünge im Connectivismus das Format der Open Online Courses erläutert und Erfahrungen aus dem ersten deutschsprachigen Kurs dieser Art beschrieben, dem Kurs „Zukunft des Lernens“, den im Sommer 2011 studiumdigitale, die zentrale E-Learning-Einrichtung der Universität Frankfurt, der Weiterbildungsblogger Jochen Robes in Kooperation mit der GMW und dem Zentrum für Lehrerbildung der Universität durchführten. Der Kurs zog ca. 900 Interessierte an, die sich in verschiedenen online Medien beteiligten. Der Beitrag beschreibt den Kursverlauf, gibt einen Überblick über technische Umsetzung und Betreuungsformen und stellt neben Betrachtungen zum Transfer die Ergebnisse aus der Teilnehmerbefragung vor.
Wikis im eLearning
(2006)
Dieser Beitrag verdeutlicht, dass durch den Einsatz von Wikis in der Lehre methodisch neue Formen der Hochschuldidaktik möglich sind. Einleitend zu den beiden anderen Beiträgen zum Thema "Wikis in der Lehre" des Workshops auf der Delfi-Tagung 2006 übernimmt er die Rolle, allgemein die Einsatzszenarien für Wikis im eLearning zu beschreiben und gibt konkrete Gestaltungshinweise für deren Nutzung in Lehrveranstaltungen. Abschließend wird ein Ausblick auf anstehende Forschungsfragen und technische Entwicklungen von Wikis gegeben.
Mit dem Projekt megadigitale setzt die Goethe-Universität Frankfurt/M. ihre eLearning-Strategie studiumdigitale um. Ziel des Prozesses ist, eLearning in allen Fachbereichen der Hochschule nachhaltig zu verankern und dabei fachspezifische Mediennutzungspotentiale zur Verbesserung der Lehre zu realisieren. In einem Verbund von Topdown- und Bottomup-Initiativen, wie fachbereichsspezifischen eLearning-Konzepten und zentralen Qualifizierungs, Beratungs- Betreuungs- und Infrastrukturangeboten setzt sich das gesamte Programm in einem Mix aus Anreiz- und Förderinstrumenten zusammen. Der Beitrag beschreibt die wesentlichen Initiativen dieses Vorhabens und fasst erste Erfahrungen zusammen.
Virtuelle Konferenzen
(2002)
Wie können Hochschulen in Zeiten knapper Mittel qualitativ hochwertige eLearning-Szenarien und –Inhalte entwickeln ohne eine zentrale Einrichtung als Nadelöhr zu erleben? Dieser Beitrag behandelt Ansätze zur Qualitätssicherung im eLearning und stellt ein Beispiel vor, wie durch die Vermittlung entsprechender Kompetenzen und prozessbegleitender Beratung und Unterstützung Qaulitätssicherung im eLearning betrieben werden kann und zugleich eine breite Verankerung des Einsatzes Neuer Medien erreicht wird.
Dieser Beitrag widmet sich in erster Linie der Analyse, unter welchen Voraussetzungen Telearbeit als neue Form der Arbeitsorganisation eingeführt wird und welche Formen dabei auftreten. Nach einer Einführung in die Thematik werden die verschiedenen Ausprägungen der Telearbeit (Kapitel 2) dargestellt, bevor die Voraussetzungen (Kapitel 3) im einzelnen diskutiert werden. Die genauen Kenntnisse dieser Bedingungen zur Einführung der Telearbeit erlauben einerseits Voraussagen für ihre zukünftige Umsetzung sowie die Ableitung politischer Empfehlungen - besonders im regionalpolitischen Bereich - für die gezielte Förderung der Telearbeit (Kapitel 4). Die Telearbeit erhält zur Zeit im öffentlichen Interesse wieder einen Aufschwung: ist doch die technische Entwicklung der Telekommunikation und Computervernetzung inzwischen genügend vorangeschritten und der Bekanntheitsgrad des Internets und der damit verbundenen möglichen Veränderungen im Berufs- wie auch im Privatleben dank der Medien entsprechend angestiegen, um die Diskussion um diese neue Arbeitsorganisation aufleben zu lassen. Während Arbeitgeber vor allem Kostenfaktoren und Wettbewerbsfähigkeit im Auge behalten, sind die Arbeitnehmer von neuen Arbeitsformen, flexibleren Arbeitszeiten und freier Ortswahl angetan. Trotz der Euphorie ist die tatsächliche Entwicklung der Telearbeit weltweit nur langsam voranschreitend. Vorreiter sind die USA, die aufgrund der Telekommunikationsentwicklung und dem Bedarf an verkehrsreduzierenden Arbeitsformen (vor allem Kalifornien) und auch aufgrund der kulturellen Aufgeschlossenheit gegenüber Innovationen zuerst diese Entwicklung aufgriff. In Europa sind vor allem die britischen Telearbeiter in der Anzahl führend, gefolgt von Frankreich, Deutschland, Spanien und Italien. Betrachtet man die unterschiedliche Entwicklung der Telearbeit in den Ländern, so läßt dies vermuten, daß bestimmte Faktoren zu deren Einführung beitragen, welche in einigen Ländern vorliegen und in anderen weniger oder gar nicht vorhanden sind.
Ziel des Beitrags ist, einen Überblick über aktuelle Entwicklungen und Ausprägungen von MOOCs sowie die Erfahrungen und Ergebnisse aus der Unter-suchung von zwei MOOCs vorzustellen, die 2011 und 2012 durchgeführt wurden. Besondere Schwerpunkte liegen dabei auf der Bedeutung und Ausprägung der Beteiligungsformen in den verschiedenen MOOC-Formaten, der Beteiligung in den beiden untersuchten MOOCs sowie auf deren Unterschiede auch aufgrund von Veränderungen des Kursdesigns.
Das Internationale Colloquium "Perspektiven der Germanistik im 21. Jahrhundert" fand vom 4. bis 6. April 2013 im SchlossHerrenhausen in Hannover statt.
Der Autor hat den Herausgebern den vorliegenden Text nach der Konferenz zur Verfügung gestellt. Er antwortet auf die Ausgangsfragen zum Diskussionsforum B.2 "Germanistik studieren – Perspektiven in Ausbildung und Beruf", die im Programm zur Veranstaltung formuliert worden waren.
Das "Carl- und Gerhart-Hauptmann-Haus" und das "Gerhart-Hauptmann-Haus / Haus Wiesenstein" sind zwei von vier Museen in Polen und Deutschland, die heute an Leben und Werk jenes Dichters erinnern, der als Enfant terrible des Kaiserreiches galt und laut einer Umfrage von 1906 der zweitbekannteste Deutsche nach dem Kaiser war. Auf der Ostsee-Insel Hiddensee entstand im "Haus Seedorn", dem ehemaligen Sommerhaus Hauptmanns und heutigen "Gerhart-Hauptmann-Haus", bereits 1956 eine Gedenkstätte, und in Erkner bei Berlin existierte 1957 im heutigen "Gerhart-Hauptmann-Museum Erkner", der so genannten "Villa Lassen", die Hauptmann von 1885 bis 1889 als junger Autor mit seiner Frau Marie bewohnte, ein erster bescheidener Gedenkraum. Jedes der vier – polnischen und deutschen – Museen repräsentiert eine je unterschiedliche Phase im Leben des Nobelpreisträgers, der bereits zu Lebzeiten in die Riege der Klassiker aufstieg und in der Weimarer Republik gar als Reichspräsidentschaftskandidat gehandelt wurde. 2003 vereinbarten die Museen eine verstärkte Zusammenarbeit und gründeten einen bislang einzigartigen grenzüberschreitenden Verbund, um mit vereinten Kräften für Gerhart Hauptmann und sein Werk werben zu können.
Im digitalen Sommersemester 2020 hat der Fachschaftsrat des Fachbereichs 02 der Universität Kassel zwei Umfragen unter den Studierenden des Fachbereichs durchgeführt. Während die erste Umfrage vor Beginn des eigentlichen Lehrbetriebs an die Studierenden herangetragen wurde und dabei das Ziel verfolgte, die Erwartungen, Lernvoraussetzungen und Bedenken dieser Gruppe zu erfassen, lag der Fokus der zweiten Befragung, die ca. fünf Wochen nach Semesterbeginn verschickt wurde, mehr auf der Evaluierung der Arbeitsbelastung und der Zufriedenheit mit den digitalen Lehrangeboten am Fachbereich. Aus dem Institut für Germanistik nahmen 318 Studierende an der Umfrage teil, diese bilden damit die größte Gruppe unter den insgesamt 521 Teilnehmer*innen.
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Akademischer Kapitalismus" in der Sektion "Am Ende der Exzellenz – Wissenschaftsbetrieb".
Vom 17. bis 19. Februar 2011 luden Jens Eder, Joseph Imorde und Maike Sarah Reinerth für die Filmwissenschaft / Mediendramaturgie der Universität Mainz und die Kunstgeschichte der Universität Siegen Forscher und Forscherinnen unterschiedlicher Disziplinen zu einem Workshop mit dem Thema "Medium Menschenbild" ein. Förderer waren der Forschungsschwerpunkt "Medienkonvergenz" der Johannes Gutenberg-Universität Mainz und das Labor Neue Kunst Siegen. Ziel der Tagung war, das grundsätzliche Verhältnis von Medialität und Menschenbild zu analysieren, die Spezifik medial vermittelter Menschenbilder im interdisziplinären Austausch zu diskutieren sowie auf die in ihnen implizit enthaltenen konzeptuellen Vorstellungen hinzuweisen. ...
Schließlich untersuchte die Kunsthistorikerin HELEN BARR (Frankfurt am Main) den "neuen Menschen" in Werbeanzeigen illustrierter Zeitschriften der 1920er-Jahre. Das breite Spektrum der Werbung für Pflegeprodukte und Genussmittel suggeriere Orientierungshilfe in der urbanisierten Welt und propagiere ideale Menschenbilder der Moderne. ...
Hintergrund: Die Unterschidung von Augen mit frühem Keratokonus (KC) von normalen Augen bereitet nach wie vor Schwierigkeiten. Die vorliegende Untersuchung vergleicht konventionelle keratometrie-basierte mit wellenfront-basierten Maßzahlen hinsichtlich ihrer Eignung, normale Augen von Augen mit sehr frühem Keratokonus zu unterscheiden.
Methoden: Es wurden 17 Augen von 17 Patienten mit frühem KC eingeschlossen. Bei diesen 17 Augen handelt es sich um klinisch unauffällige Partneraugen des stärker betroffenen Auges. 123 Normalaugen von 69 Patienten dienten als Negativkontrolle. Von den axialen Kurvaturdaten wurden folgende Maßzahlen berechnet: zentrale Keratometrie (cK), Astigmatismus (AST), inferior-superiore Brechwertdifferenz (I-S), Verkippung der radialen Achsen (SRAX), KISA% index (eine Maßzahl, die auf cK, AST, I-S und SRAX basiert) und corneale Zernike-Koeffizienten (1.–7. Ordnung, Pupillendurchmesser: 6 mm). Aus Zernike-Koeffizienten wurden Diskriminanzfunktionen konstruiert. Receiver-Operatiing-Charakteristik (ROC)-Kurven wurden erstellt, um die diagnostische Trennschärfe dieser Werte zur Unterscheidung von klinisch unauffälligen Partneraugen von Augen mit frühem Keratokonus und normalen Kontrollen zu evaluieren.
Ergebnisse: Der I-S-Wert (Korrektheit 92,1%, kritischer Wert 0,59 D) und die vertikale Coma (C3-1; 96,7%, –0,2 µm) waren die beiden Einzelwerte mit höchster Trennschärfe. Mit den ursprünglich publizierten kritischen Werten lag der Rabinowitz-McDonnell test (cK und I-S) bei 83,3% (Sensitivität 0%, Spezifität 100%) und der KISA% bei 70,8% (81,3%, 60,3%). In Verbindung mit Diskriminanzanalyse errichten Zernike-Koeffizienten eine Korrektheit von 96,7% (100%, 93,4%).
Schlussfolgerungen: Auf cornealen Zernike-Koeffizienten basierende Maßzahlen erreichte die höchste Trennschärfe bei der Unterscheidung von Augen mit subklinischem KC von Normalaugen. Dennoch konnten konventionelle KC-indices eine ähnlich hohe Trenschärfe wie die Zernike-Methode erreichen, wenn die kritischen Werte entsprechend angepasst werden.