Filtern
Erscheinungsjahr
Dokumenttyp
- Konferenzveröffentlichung (493) (entfernen)
Sprache
- Deutsch (493) (entfernen)
Volltext vorhanden
- ja (493)
Gehört zur Bibliographie
- nein (493) (entfernen)
Schlagworte
- Germanistik (52)
- Bologna-Prozess (32)
- Exzellenzinitiative (32)
- Theorie (32)
- Zukunft (32)
- Virtuelle Hochschule (23)
- Kongress (20)
- Literaturwissenschaft (17)
- Deutsch (15)
- Literatur (10)
Institut
- Medizin (90)
- Extern (32)
- Geschichtswissenschaften (30)
- Gesellschaftswissenschaften (25)
- Universitätsbibliothek (25)
- Erziehungswissenschaften (24)
- Rechtswissenschaft (18)
- Zentrum für Weiterbildung (14)
- Kulturwissenschaften (9)
- Mathematik (9)
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Nach der Theorie – ist vor der Theorie?" in der Sektion "Nach der Theorie – Methoden und Modelle".
Der Beitrag plädiert dafür, den 'digital turn', der weite Teile der germanistischen Lehre spätestens im 'digitalen' Sommersemester 2020 erreicht hat, als Chance zu verstehen, das Fach in der Verbindung von Forschung und Lehre unter den Bedingungen des Digitalen neu zu denken und zukunftsorientiert zu profilieren. Digitalisierung formatiert (auch) in der Germanistik sowohl Forschungsgegenstände und Methoden als auch die Möglichkeiten ihrer Vermittlung in der Hochschullehre als einem Teil der Wissenschaftskommunikation. Doch Digitalisierung bewirkt weniger eine technische Ausstattung als vielmehr eine Kultur der Digitalität.
Virtuelle statt realer Präsenz : Begriffe und Konzepte für die digitale Lehre in der Germanistik
(2021)
Angesichts der Neuheit und Vielfalt digitaler Lehr-Lernformate im Sommersemester 2020, dem sog. Corona-Semester, zielt der Beitrag auf einen Überblick über Begriffe, Konzepte und Formate von digitaler Lehre, der sowohl aktuelle Erfahrungen als auch frühere Entwicklungen des E-Learnings berücksichtigt und abschließend digitale Gestaltungsoptionen für virtuelle Präsenzphasen empfiehlt.
Ausbildung in Evidenzbasierter Medizin am Universitätsklinikum Frankfurt am Main : meeting abstract
(2005)
Einführung: Obwohl international die Integration der Evidenzbasierten Medizin (EbM) in die klinische Medizin und in die Ausbildung voranschreitet, ist die Verbreitung im deutschen Klinikalltag eine fortbestehende Herausforderung. Vor allem ist die Vernetzung der theoretischen Lerninhalte mit den klinisch-praktischen Fertigkeiten eine weit verbreitete Schwierigkeit. Die neue Ärzteapprobationsordnung bietet Möglichkeiten für innovative Konzepte im medizinischen Curriculum. Sowohl die systematische Informationssuche als auch die kritische Bewertung und Anwendung medizinischer Informationen sind wichtige Kernkompetenzen der ärztlichen Tätigkeit. Zum Wintersemester 03/04 wurde in Frankfurt das erste curriculare Seminar EbM als Teilfach des Querschnittsbereiches I (Epidemiologie, Med. Biometrie und Med. Informatik) auf der Basis des peer-teaching eingeführt und wissenschaftlich begleitet.
Methoden: Für alle Studierenden des 2. klinischen Semesters wird in Kleingruppenseminaren an 4 Terminen ein Basiskurs EbM nach den Kriterien des Deutschen Netzwerkes für Evidenzbasierte Medizin e.V. durchgeführt. Dabei werden die Module Vierteilige Frage, Internetrecherche, Diagnose und Therapie erarbeitet. Ein individuelles Fallbeispiel (klinische Fragestellung) wird von jedem Studierenden selbständig mit allen Schritten der EbM bearbeitet. Jede Seminararbeit wird im Rahmen eines journal clubs von dem Studierenden vorgestellt und in der Kleingruppe diskutiert. Während des ersten unterrichteten Semesters erhielt jeder Seminarteilnehmer zu Seminarbeginn und zum Seminarende einen Testfragebogen mit 20 Fragen, sowie zum Ende einen anonymisierten Fragebogen mit der Bitte um Einschätzung. Die anonymisierten Fragebogen werden seitdem weiter in jedem Semester eingesetzt.
Ergebnisse: Es wurden im Durchschnitt nach dem Seminar 7,48 (99% KI 6.61-8.36) Fragen mehr als vor dem Seminar richtig beantwortet. Der Kurs wurde im Median mit der Note gut eingeschätzt (Weberschock et al 2005, im Druck). Die Auswertungen der Einschätzungen der nachfolgenden Semester zeigten noch bessere Ergebnisse.
Schlussfolgerung: EbM ist in der medizinischen Ausbildung sehr gut durchführbar und wird mit den richtigen didaktischen Konzepten auch voll akzeptiert. Vor allem die Fähigkeit, medizinische Informationen korrekt zu bewerten und sie klinisch fachgerecht anzuwenden ist eine essentielle Kompetenz für die ärztliche Tätigkeit und bedarf den sichern Umgang mit den Methoden und Medien.
Ausblick: Die Vernetzung der theoretischen Aspekte bei der medizinischen Informationsverarbeitung mit der klinischen Anwendung der gewonnenen Erkenntnisse ist für die Ausbildung in EbM ein essentieller Bestandteil. Um die Lehrenden auf diese Aufgabe adäquat vorbereiten zu können, werden in naher Zukunft in Zusammenarbeit mit dem Deutschen Netzwerk Evidenzbasierte Medizin (DNEbM), der Arbeitsgemeinschaft der wissenschaftlich medizinischen Fachgesellschaften (AWMF) und der Gesellschaft für medizinische Ausbildung (GMA) Train-the Teacher-Seminare veranstaltet. Diese Seminare sollen einerseits die didaktischen Methoden und Fertigkeiten der EbM-Lehrenden weiter ausbauen und andererseits eine Brücke zwischen theoretischen Lerninhalten und klinischen Bezügen schlagen.
Hintergrund: Die Notwendigkeit der Etablierung der Anwendung von Evidenzbasierter Medizin (EbM) in den klinischen Alltag sowie die Sicherung der europaweiten Qualifikation in EbM ist seit geraumer Zeit vielfältig diskutiert worden. Gefördert durch das "Leonardo da Vinci"- Berufsbildungsprogramm der Europäischen Union hat das euebm-Projekt zum Ziel, durch ein europaweit einheitliches integriertes Basiscurriculum für evidenzbasierte Medizin eine bessere Verzahnung zwischen dem Erlernen der EbM-Techniken und der eigenen Patientenversorgung zu erreichen. An der Universitätsklinik Frankfurt am Main wird ab dem 01.01.2009 das euebm-Projekt in den klinischen Alltag integriert werden. Die Zielgruppe dieses Projektes bilden alle Assistenzärzte jeglicher Fachrichtungen im 1. Weiterbildungsjahr. Durch einen online-basierten Kurs wird den Interessenten die Möglichkeit geboten, an den einzelnen Lehrmodulen teilzunehmen.
Methoden: Es werden alle Assistenzärzte im 1. Weiterbildungsjahr in einem individualisierten Schreiben zur Teilnahme an dem Projekt aufgefordert. Nach der elektronischen Anmeldung werden die Teilnehmer prätest-Evaluationsbogen mit inhaltlichen EbM-Fragen beantworten. Danach durchlaufen die Teilnehmer ein EbM-Lernprogramm, bestehend aus 5 Modulen. Jedes Modul wird durch eine Lernerfolgskontrolle abgeschlossen. Abschließend wird eine Gesamtlernkontrolle von jedem Teilnehmer abverlangt. Am Ende des online-Kurses werden die Teilnehmer ebenfalls einen mehrteiligen subjektiven Evaluationsbogen beantworten. Um einen längerfristigen Lerneffekt messen zu können, werden 6 Monate bzw. 1 Jahr nach dem erfolgreichen Abschluss die Teilnehmer erneut einen objektiven inhaltlichen Evaluationsbogen bearbeiten.
Ergebnisse: Im Rahmen der 10. Jahrestagung des DNEbM im März 2009 können voraussichtlich Zwischenergebnisse der objektiven (präinterventionell vs. postinterventionell) und subjektiven Evaluationen veröffentlicht werden. Zudem wird derzeit die Erstellung einer statistischen Auswertung der Zugriffszahlen auf die verschiedenen medizinischen Online-Datenbanken und Suchmaschinen (prä- und postinterventionell) aufgebaut.
Schlussfolgerung/Implikation: Mit Hilfe der curricular vermittelten Lehrinhalte und Techniken sollen Ärzte in die Lage versetzt werden, EbM praxisnah für und mit ihren Patienten umzusetzen. In der konkreten Anwendung von EbM an ihren individuellen Patienten können Ärzte möglicherweise erfahren, dass die Integration von EbM in den klinischen Alltag ihr Spektrum an Beratungs- und Behandlungsmöglichkeiten erweitert.
Ausgangsfragen: Wie steht es um den akademischen Nachwuchs? Dient die verstärkte Betreuung – Stichwort "Verschulung" – von Doktoranden der Qualitätssicherung? Ist sie ein Erfolgsmodell? Oder produziert sie im Gegenteil prospektiv arbeitslose Dr. phil.s en masse? Welche curricularen Erfordernisse ergeben sich für die strukturierte Ausbildung des Nachwuchses? Wie ist die Situation der 'Post-Docs'? Wie hat sich insgesamt das institutionelle Umfeld für germanistische bzw. geisteswissenschaftliche Forschung verändert? Ist das Junktim von 'Forschung und Lehre' auch weiterhin ein notwendiges Leitbild oder nurmehr ein obsoletes Paradigma? In welchem Verhältnis stehen universitär verankerte Lehrbetriebsgermanistik und außeruniversitär betriebene Großforschungsgermanistik zueinander? Welche Rolle spielen einzelne Institutionen (DFG, Volkswagen, Thyssen), und welche Veränderungen sind in der grundlegenden geisteswissenschaftlichen Infrastruktur zu erwarten? Welche Forschungsmodelle sind denkbar und wünschenswert?
In seinem Praxisbericht zeigt Sebastian Bernhardt in einem ersten Schritt, welche Konsequenzen die pandemiebedingten Veränderungen kurzfristig auf seine akademische Lehre hatten. Die Erfahrungen in der notgedrungen rein digitalen Lehre münden aber in einem zweiten Schritt in nachhaltige Perspektiven für die akademische Lehre, die sich nicht auf das Gegensatzpaar digital vs. präsent reduzieren lassen. Zentral ist, dass die Erfahrungen mit digitalen Flipped Classroom-Modellen sich auch in die Zeit nach Corona übertragen lassen, sofern digitale und präsente Vermittlungsanteilen langfristig und kompetenzorientiert miteinander verknüpft werden. Dabei soll weder das eine gegen das andere ausgespielt werden noch eine Digitalisierung um ihrer selbst willen, sondern eine Passung von Vermittlungsziel und Medium, hergestellt werden. Wie er im Folgenden zeigt, konnte er aus der Not der Situation geboren Erfahrungen sammeln, bei denen deutlich wurde, dass einige digitale und asynchron angelegte Flipped Classroom-Formate in Kombination mit synchronen Zoom-Sitzungen, die langfristig durch Präsenzphasen ersetzt werden, einen nachhaltigen Kompetenzerwerb erzielten und zu einer Individualisierung von Lernwegen bei den Studierenden führten.
Veranstalter: Bernadette Biedermann, Universitätsmuseum, Universität Graz; Judith Blume, Universitätsbibliothek J.C. Senckenberg, Goethe-Universität Frankfurt am Main; Franziska Hormuth, Projekt „Digitales Netzwerk Sammlungen“, Berlin University Alliance / Humboldt-Universität zu Berlin
Datum, Ort: 22.04.2021–23.04.2021, digital
Metaphern bestimmen nicht nur unser alltägliches Leben, etwa wenn wir vom Rad der Geschichte oder der Bühne des Lebens sprechen, sie geben auch nützliche Orientierung in vielen Bereichen der Wissenschaft, von den schwarzen Löchern der Physiker bis zur Computermetapher des Gehirns in der Kognitionswissenschaft. Eine solche Metapher ist auch die Deutung der Sprache als Werkzeug.
Fragestellung Intoleranzreaktionen auf nicht-steroidale Antiphlogistika sind häufig und basieren auf der Hemmung des Enzyms Cyclooxygenase-1 (COX-1), wohingegen deren therapeutische Effekte auf einer COX-2 Hemmung beruhen. In dieser Studie wurde die Verträglichkeit des selektiven COX-2 Inhibitors Celecoxib bei Patienten mit Intoleranzreaktionen auf nicht-steroidale Antiphlogistika untersucht. Methodik Bei 77 Patienten (24 Männer, 53 Frauen) mit Intoleranzreaktionen auf nicht-steroidale Antiphlogistika wurden standardisierte Hauttestungen (Prick, Scratch, Epikutantestung) sowie anschließend orale fraktionierte Placebo-kontrollierte einfach blinde Expositionstestungen unter Einschluß von Celecoxib (maximale Einzeldosis 200mg, kumukative Tagesdosis 350mg) durchgeführt. Ergebnisse 21 Patienten wiesen anamnestisch lediglich Hautsymptome (Urtikaria) auf, 25 Patienten nur eine Atemwegssymptomatik (Asthma), bei 18 Patienten traten Haut- und Atemwegssymptome auf, und bei 13 Patienten war es zu einem anaphylaktischen Schock gekommen. Azetylsalizylsäure war in 38 Fällen ein Auslöser der Beschwerden. In 46 Fällen verursachten mehrere nicht-steroidale Antiphlogistika chemisch unterschiedlicher Gruppen die Symptomatik. Die orale Expositionstestung mit Celecoxib verlief bei allen 77 Patienten unauffällig. Schlußfolgerung Vor dem Hintergrund der hohen Inzidenz von Intoleranzreaktionen gegen nicht-steroidale Antiphlogistika stellt der Einsatz selektiver COX-2 Inhibitoren eine therapeutische Alternative sowie eine geeignete Maßnahme zur Prävention entsprechender Reaktionen dar.
Wie können Hochschulen in Zeiten knapper Mittel qualitativ hochwertige eLearning-Szenarien und –Inhalte entwickeln ohne eine zentrale Einrichtung als Nadelöhr zu erleben? Dieser Beitrag behandelt Ansätze zur Qualitätssicherung im eLearning und stellt ein Beispiel vor, wie durch die Vermittlung entsprechender Kompetenzen und prozessbegleitender Beratung und Unterstützung Qaulitätssicherung im eLearning betrieben werden kann und zugleich eine breite Verankerung des Einsatzes Neuer Medien erreicht wird.
Mit dem Projekt megadigitale setzt die Goethe-Universität Frankfurt/M. ihre eLearning-Strategie studiumdigitale um. Ziel des Prozesses ist, eLearning in allen Fachbereichen der Hochschule nachhaltig zu verankern und dabei fachspezifische Mediennutzungspotentiale zur Verbesserung der Lehre zu realisieren. In einem Verbund von Topdown- und Bottomup-Initiativen, wie fachbereichsspezifischen eLearning-Konzepten und zentralen Qualifizierungs, Beratungs- Betreuungs- und Infrastrukturangeboten setzt sich das gesamte Programm in einem Mix aus Anreiz- und Förderinstrumenten zusammen. Der Beitrag beschreibt die wesentlichen Initiativen dieses Vorhabens und fasst erste Erfahrungen zusammen.
Wikis im eLearning
(2006)
Dieser Beitrag verdeutlicht, dass durch den Einsatz von Wikis in der Lehre methodisch neue Formen der Hochschuldidaktik möglich sind. Einleitend zu den beiden anderen Beiträgen zum Thema "Wikis in der Lehre" des Workshops auf der Delfi-Tagung 2006 übernimmt er die Rolle, allgemein die Einsatzszenarien für Wikis im eLearning zu beschreiben und gibt konkrete Gestaltungshinweise für deren Nutzung in Lehrveranstaltungen. Abschließend wird ein Ausblick auf anstehende Forschungsfragen und technische Entwicklungen von Wikis gegeben.
Dieser Beitrag widmet sich in erster Linie der Analyse, unter welchen Voraussetzungen Telearbeit als neue Form der Arbeitsorganisation eingeführt wird und welche Formen dabei auftreten. Nach einer Einführung in die Thematik werden die verschiedenen Ausprägungen der Telearbeit (Kapitel 2) dargestellt, bevor die Voraussetzungen (Kapitel 3) im einzelnen diskutiert werden. Die genauen Kenntnisse dieser Bedingungen zur Einführung der Telearbeit erlauben einerseits Voraussagen für ihre zukünftige Umsetzung sowie die Ableitung politischer Empfehlungen - besonders im regionalpolitischen Bereich - für die gezielte Förderung der Telearbeit (Kapitel 4). Die Telearbeit erhält zur Zeit im öffentlichen Interesse wieder einen Aufschwung: ist doch die technische Entwicklung der Telekommunikation und Computervernetzung inzwischen genügend vorangeschritten und der Bekanntheitsgrad des Internets und der damit verbundenen möglichen Veränderungen im Berufs- wie auch im Privatleben dank der Medien entsprechend angestiegen, um die Diskussion um diese neue Arbeitsorganisation aufleben zu lassen. Während Arbeitgeber vor allem Kostenfaktoren und Wettbewerbsfähigkeit im Auge behalten, sind die Arbeitnehmer von neuen Arbeitsformen, flexibleren Arbeitszeiten und freier Ortswahl angetan. Trotz der Euphorie ist die tatsächliche Entwicklung der Telearbeit weltweit nur langsam voranschreitend. Vorreiter sind die USA, die aufgrund der Telekommunikationsentwicklung und dem Bedarf an verkehrsreduzierenden Arbeitsformen (vor allem Kalifornien) und auch aufgrund der kulturellen Aufgeschlossenheit gegenüber Innovationen zuerst diese Entwicklung aufgriff. In Europa sind vor allem die britischen Telearbeiter in der Anzahl führend, gefolgt von Frankreich, Deutschland, Spanien und Italien. Betrachtet man die unterschiedliche Entwicklung der Telearbeit in den Ländern, so läßt dies vermuten, daß bestimmte Faktoren zu deren Einführung beitragen, welche in einigen Ländern vorliegen und in anderen weniger oder gar nicht vorhanden sind.
Virtuelle Konferenzen
(2002)
Wie kann eine E-Learning-Strategie in einer Hochschule durch einen geeigneten Maßnahmenkatalog in einem stufenweisen Organisationsentwicklungsprozess umgesetzt werden? Welche verschiedenen Entwicklungspfade für Fachbereichsstrategien sind dabei möglich? Wie gelingt es, eine Community aufzubauen, die sich dem Ziel verpflichtet, gemeinsam eine hohe Qualität im Bereich E-Learning zu erreichen? Diesen Fragen geht der vorliegende Beitrag nach, der die Umsetzung der E-Learning-Strategie der Goethe-Universität Frankfurt mit dem Projekt megadigitale vorstellt, das 2007 mit dem mediendidaktischen Hochschulpreis Medida-Prix prämiert wurde.
Die Goethe-Universität Frankfurt hat in den letzten Jahren mit dem Projekt megadigitale hochschulweit ihre eLearning-Strategie umgesetzt und alle Fachbereiche in das Vorhaben integriert, d.h. in allen 16 Fachbereichen den Einsatz neuer Medien in der Lehre befördert. Wichtiger Bestandteil dieses kombinierten TopDown-BottomUp-Konzeptes war seit 2005 die finanzielle Förderung von eLearning-Projekten von Lehrenden. Ab 2007 wurde mit Hilfe des MedidaPrix-Preisgeldes zudem die Förderung studentischer eLearning-Vorhaben umgesetzt. Ziel war, die Ideen und Visionen von Studierenden, welche Form von eLearning und des Medieneinsatzes sie an ihrer Hochschule präferieren, aufzugreifen. Dieser Beitrag stellt die einzelnen Förderansätze, ihre Ausrichtungen, Zielsetzungen und Wirksamkeit vor und beschreibt deren Zusammenspiel mit den anderen in megadigitale implementierten Maßnahmen zur hochschulweiten Umsetzung von eLearning.
Um die Nutzung von offenen Ressourcen und Web 2.0 Technologien einer breiten Masse von NutzerInnen zu ermöglichen, ist es auch wichtig, dass LehrerInnen und Lehrer die entsprechenden Kompetenzen erwerben, um diese medialen Angebote und einen sinnvollen Umgang damit ihren Schülerinnen und Schülern vermitteln zu und selbst Medienangebote im Unterricht einsetzen zu können. Die Universität Frankfurt stellt sich dieser Aufgabe und hat sich daher zum Ziel gesetzt, ihre Lehramtsstudierenden entsprechend zu qualifizieren und auch Angebote für Lehrerinnen und Lehrer bereitzustellen, um einen pädagogisch sinnvollen Einsatz von Open Ressources, Web 2.0 Technologien und anderen Medienangeboten zu befördern.
Neben einem Medienkompetenzzertifikat für Lehramtsstudierenden stellt die Hochschule entsprechende Fortbildungsangebote für Lehrerinnen und Lehrer bereit und erzeugt in dem vertikalen Integrationskonzept des Projektes Lehr@mt Medienprodukte mit Studierenden, die LehrerInnen und SchülerInnen über den hessischen Bildungsserver und andere Portale wiederum bereitstehen.
Um mit den wachsenden Anforderungen der Informations- und Kommunikationstechnologien in unserer Gesellschaft umzugehen, bedarf es der umfassenden Qualifizierung von Kindern und Jugendlichen im Umgang mit den neuen Medien. Das bedeutet, sie müssen befähigt werden, Medien bewusst und kritisch nutzen und kompetent bedienen zu können. Dies erfordert eine gezielte Vermittlung von Medienkompetenz, die neben der Nutzung der Medien auch deren kritische Beurteilung und die aktive Beteiligung an der Gestaltung und Verbreitung dieser Medien umfasst. Gesellschaftliches Ziel muss daher sein, Kinder und Jugendliche schon in der Schule mit den neuen Medien vertraut zu machen und ihnen dort einen pädagogisch geleiteten Umgang mit diesen zu ermöglichen. Dies kann nicht ohne die entsprechende Qualifizierung der Lehrerinnen und Lehrer erfolgen. Neben der Nutzung neuer Medien durch das Lehrpersonal selbst muss diese Zielgruppe auch befähigt werden, Medien zielgerichtet im Unterricht einzusetzen, entsprechende Unterrichtsszenarien zu entwickeln und zu betreuen.
Untersuchungen wie beispielsweise eine Studie unter Lehrkräften in Frankfurter Schulen haben jedoch gezeigt, dass die Ausstattung der Schulen mit modernen Medien zwar sehr zufriedenstellend ist, es den Lehrkräften jedoch an methodischen Qualifikationen mangelt, diese einzusetzen und „ein hoher Bedarf an weiterführenden Schulungen zum fachdidaktischen Einsatz“ artikuliert wurde (Wiedwald 2007, S. 4).
Während Lehrerfortbildungen an dieser Stelle ein Mittel zur Abhilfe darstellen, lösen sie das Problem jedoch nur punktuell. Die Universität Frankfurt hat sich daher mit der Einführung eines Medienkompetenzzertifikates für Lehramtsstudierende sowie der Umsetzung des Projektes Lehr@mt zum Ziel gesetzt, in allen drei Phasen der Lehrerbildung aktiv zu werden und schon ihre Lehramtsstudierenden entsprechend zu qualifizieren sowie auch Angebote für Lehrerinnen und Lehrer bereitzustellen, die einen pädagogisch sinnvollen Einsatz von neuen Medien in Schulen befördern.
Die Goethe-Universität hat im Rahmen ihres Projektes megadigitale, das die hochschulweite Umsetzung ihrer eLearning-Strategie verfolgte, ein Vorgehensmodell entwickelt, das entlang des kompletten Prozesses der Entwicklung und Umsetzung von eLearning-Ansätzen standardisierte Analyse-, Planungs-, Konzeptions-, Implementierungs- und Qualitätssicherungsinstrumente anwendet. Dabei spielen Verfahren zur Qualitätssicherung schon von dem ersten Schritt an, in der Analysephase eine Rolle, angepasst an die verschiedenen Ebenen der Umsetzung.
Wiki-Systeme gewinnen für das kollaborative Erstellen von Wissen zunehmend an Bedeutung, belegt durch den Erfolg großer Projekte wie Wikipedia. Dabei beschränkt sich der Einsatz dieser Systeme nicht auf Anwendungsbereiche wie Wörterbücher oder Glossare; auch Universitäten und Unternehmen nutzen Wikis inzwischen zunehmend zur Unterstützung der Lehre im eLearning, für Dokumentationszwecke, Projektmanagement-Aufgaben, usw.. In diesem Kontext ist die Frage nach dem didaktisch motivierten Einsatz von Wikis im eLearning bedeutsam: welche Erfahrungen haben Akteure dem Einsatz von Wikis in eLearning-Veranstaltung oder auch begleitend zu räsenzveranstaltungen gemacht? Lassen sich Empfehlungen für die Gestaltung der Interaktion und Kooperation in Wikis aus diesen Erfahrungen ableiten?
Open Online Courses als Kursformat? Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
2011 starteten studiumdigitale, die zentrale eLearning-Einrichtung der Universität Frankfurt/M, und der Weiterbildungsblogger Jochen Robes den ersten deutschsprachigen Open Online Course unter dem Titel „Die Zukunft des Lernens“1. In 14 Wochen wurden in wöchentlichem Rhythmus 14 Themen behandelt, die sich rund um den Einsatz verschiedener Technologien in Bildungsprozessen und auch das Kursformat selbst drehten. Dieser Beitrag stellt die Bezüge des Open Online Courses zu seiner Herkunft und den ersten Kursen dieser Art in Kanada und USA her, bezieht sich auf die theoretischen und konzeptionellen Fundierungen dieses Ansatzes und stellt die Ergebnisse aus dem Kursverlauf und der abschließenden Befragung der Teilnehmenden vor.
Open Online Course als Kursformat? : Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
Basierend auf dem Konzept des Connectivismus entwickelte sich in den letzten fünf bis sechs Jahren ein neues offenes Kursformat: die Open Online Courses, die als so genannte MOOCs (Massive Open Online Courses) teilweise bis über 100.000 Teilnehmende anzogen. In dem Beitrag wird mit Bezug auf die konzeptionellen Ursprünge im Connectivismus das Format der Open Online Courses erläutert und Erfahrungen aus dem ersten deutschsprachigen Kurs dieser Art beschrieben, dem Kurs „Zukunft des Lernens“, den im Sommer 2011 studiumdigitale, die zentrale E-Learning-Einrichtung der Universität Frankfurt, der Weiterbildungsblogger Jochen Robes in Kooperation mit der GMW und dem Zentrum für Lehrerbildung der Universität durchführten. Der Kurs zog ca. 900 Interessierte an, die sich in verschiedenen online Medien beteiligten. Der Beitrag beschreibt den Kursverlauf, gibt einen Überblick über technische Umsetzung und Betreuungsformen und stellt neben Betrachtungen zum Transfer die Ergebnisse aus der Teilnehmerbefragung vor.
Ziel des Beitrags ist, einen Überblick über aktuelle Entwicklungen und Ausprägungen von MOOCs sowie die Erfahrungen und Ergebnisse aus der Unter-suchung von zwei MOOCs vorzustellen, die 2011 und 2012 durchgeführt wurden. Besondere Schwerpunkte liegen dabei auf der Bedeutung und Ausprägung der Beteiligungsformen in den verschiedenen MOOC-Formaten, der Beteiligung in den beiden untersuchten MOOCs sowie auf deren Unterschiede auch aufgrund von Veränderungen des Kursdesigns.
Das Internationale Colloquium "Perspektiven der Germanistik im 21. Jahrhundert" fand vom 4. bis 6. April 2013 im SchlossHerrenhausen in Hannover statt.
Der Autor hat den Herausgebern den vorliegenden Text nach der Konferenz zur Verfügung gestellt. Er antwortet auf die Ausgangsfragen zum Diskussionsforum B.2 "Germanistik studieren – Perspektiven in Ausbildung und Beruf", die im Programm zur Veranstaltung formuliert worden waren.
Das "Carl- und Gerhart-Hauptmann-Haus" und das "Gerhart-Hauptmann-Haus / Haus Wiesenstein" sind zwei von vier Museen in Polen und Deutschland, die heute an Leben und Werk jenes Dichters erinnern, der als Enfant terrible des Kaiserreiches galt und laut einer Umfrage von 1906 der zweitbekannteste Deutsche nach dem Kaiser war. Auf der Ostsee-Insel Hiddensee entstand im "Haus Seedorn", dem ehemaligen Sommerhaus Hauptmanns und heutigen "Gerhart-Hauptmann-Haus", bereits 1956 eine Gedenkstätte, und in Erkner bei Berlin existierte 1957 im heutigen "Gerhart-Hauptmann-Museum Erkner", der so genannten "Villa Lassen", die Hauptmann von 1885 bis 1889 als junger Autor mit seiner Frau Marie bewohnte, ein erster bescheidener Gedenkraum. Jedes der vier – polnischen und deutschen – Museen repräsentiert eine je unterschiedliche Phase im Leben des Nobelpreisträgers, der bereits zu Lebzeiten in die Riege der Klassiker aufstieg und in der Weimarer Republik gar als Reichspräsidentschaftskandidat gehandelt wurde. 2003 vereinbarten die Museen eine verstärkte Zusammenarbeit und gründeten einen bislang einzigartigen grenzüberschreitenden Verbund, um mit vereinten Kräften für Gerhart Hauptmann und sein Werk werben zu können.
Im digitalen Sommersemester 2020 hat der Fachschaftsrat des Fachbereichs 02 der Universität Kassel zwei Umfragen unter den Studierenden des Fachbereichs durchgeführt. Während die erste Umfrage vor Beginn des eigentlichen Lehrbetriebs an die Studierenden herangetragen wurde und dabei das Ziel verfolgte, die Erwartungen, Lernvoraussetzungen und Bedenken dieser Gruppe zu erfassen, lag der Fokus der zweiten Befragung, die ca. fünf Wochen nach Semesterbeginn verschickt wurde, mehr auf der Evaluierung der Arbeitsbelastung und der Zufriedenheit mit den digitalen Lehrangeboten am Fachbereich. Aus dem Institut für Germanistik nahmen 318 Studierende an der Umfrage teil, diese bilden damit die größte Gruppe unter den insgesamt 521 Teilnehmer*innen.
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Akademischer Kapitalismus" in der Sektion "Am Ende der Exzellenz – Wissenschaftsbetrieb".
Vom 17. bis 19. Februar 2011 luden Jens Eder, Joseph Imorde und Maike Sarah Reinerth für die Filmwissenschaft / Mediendramaturgie der Universität Mainz und die Kunstgeschichte der Universität Siegen Forscher und Forscherinnen unterschiedlicher Disziplinen zu einem Workshop mit dem Thema "Medium Menschenbild" ein. Förderer waren der Forschungsschwerpunkt "Medienkonvergenz" der Johannes Gutenberg-Universität Mainz und das Labor Neue Kunst Siegen. Ziel der Tagung war, das grundsätzliche Verhältnis von Medialität und Menschenbild zu analysieren, die Spezifik medial vermittelter Menschenbilder im interdisziplinären Austausch zu diskutieren sowie auf die in ihnen implizit enthaltenen konzeptuellen Vorstellungen hinzuweisen. ...
Schließlich untersuchte die Kunsthistorikerin HELEN BARR (Frankfurt am Main) den "neuen Menschen" in Werbeanzeigen illustrierter Zeitschriften der 1920er-Jahre. Das breite Spektrum der Werbung für Pflegeprodukte und Genussmittel suggeriere Orientierungshilfe in der urbanisierten Welt und propagiere ideale Menschenbilder der Moderne. ...
Hintergrund: Die Unterschidung von Augen mit frühem Keratokonus (KC) von normalen Augen bereitet nach wie vor Schwierigkeiten. Die vorliegende Untersuchung vergleicht konventionelle keratometrie-basierte mit wellenfront-basierten Maßzahlen hinsichtlich ihrer Eignung, normale Augen von Augen mit sehr frühem Keratokonus zu unterscheiden.
Methoden: Es wurden 17 Augen von 17 Patienten mit frühem KC eingeschlossen. Bei diesen 17 Augen handelt es sich um klinisch unauffällige Partneraugen des stärker betroffenen Auges. 123 Normalaugen von 69 Patienten dienten als Negativkontrolle. Von den axialen Kurvaturdaten wurden folgende Maßzahlen berechnet: zentrale Keratometrie (cK), Astigmatismus (AST), inferior-superiore Brechwertdifferenz (I-S), Verkippung der radialen Achsen (SRAX), KISA% index (eine Maßzahl, die auf cK, AST, I-S und SRAX basiert) und corneale Zernike-Koeffizienten (1.–7. Ordnung, Pupillendurchmesser: 6 mm). Aus Zernike-Koeffizienten wurden Diskriminanzfunktionen konstruiert. Receiver-Operatiing-Charakteristik (ROC)-Kurven wurden erstellt, um die diagnostische Trennschärfe dieser Werte zur Unterscheidung von klinisch unauffälligen Partneraugen von Augen mit frühem Keratokonus und normalen Kontrollen zu evaluieren.
Ergebnisse: Der I-S-Wert (Korrektheit 92,1%, kritischer Wert 0,59 D) und die vertikale Coma (C3-1; 96,7%, –0,2 µm) waren die beiden Einzelwerte mit höchster Trennschärfe. Mit den ursprünglich publizierten kritischen Werten lag der Rabinowitz-McDonnell test (cK und I-S) bei 83,3% (Sensitivität 0%, Spezifität 100%) und der KISA% bei 70,8% (81,3%, 60,3%). In Verbindung mit Diskriminanzanalyse errichten Zernike-Koeffizienten eine Korrektheit von 96,7% (100%, 93,4%).
Schlussfolgerungen: Auf cornealen Zernike-Koeffizienten basierende Maßzahlen erreichte die höchste Trennschärfe bei der Unterscheidung von Augen mit subklinischem KC von Normalaugen. Dennoch konnten konventionelle KC-indices eine ähnlich hohe Trenschärfe wie die Zernike-Methode erreichen, wenn die kritischen Werte entsprechend angepasst werden.
Hintergrund: Im Rahmen der Erforschung von Mechanismen der Presbyopie-Entstehung hat das Interesse an Methoden zur Linsendensitometrie wieder zugenommen. Für spezielle Fragestellungen sind flexible Untersuchungsmethoden notwendig.
Methoden: Basierend auf Aufnahmen mit der Scheimpflug-Kamera Pentacam HR (Oculus, Wetzlar) wurde ein MATLAB-Programm (V7.0, The MathWorks) erstellt, um größere Datenmengen automatisiert auszuwerten. Die Erkennung der Pupillenmitte als Referenzpunkt erfolgt mittels eines Randerkennungsalgorithmus. Als Kennzahlen dienen klassische Parameter der beschreibenden Statistik (Mittel, Minimum, Maximum, Standardabweichung und Variationskoeffizient) für einen definierten rechteckigen Bereich und für die zentrale vertikale Achse.
Ergebnisse: In einer Präliminarserie von 18 Augen war eine automatisierte Messung mit korrekter Pupillenerkennung in 80% der Fälle möglich. Verglichen mit der hersteller-eigenen Software (Pentacam 6.03r11) besitzt das eigene Programm eine erweiterte Spannweite der Messwerte. Die Messwerte können automatisch nach Excel (Microsoft) exportiert werden. Ein modularer Aufbau ermöglicht eine flexible Erweiterung für weitere Fragestellungen (z.B. Quantifizierung von Kern- und Rindentrübungen).
Schlussfolgerungen: Mittels eines selbst programmierten MATLAB-basierten Programmes kann eine automatisierte Messung und Analyse von linsndensitometrischen Parametern durchgeführt werden.
Vor gut einem Jahr ist im Archiv für die civilistische Praxis ein Aufsatz erschienen, in welchem ich mich mit den Perspektiven des Verbrauchervertragsrechts nach der Schuldrechtsreform auseinandergesetzt habe. Der leicht provozierende Unterton der dort vorgetragenen Kritik hat nun nicht nur – wie beabsichtigt – den einen oder anderen Leser zum Lachen verführt, sondern offensichtlich auch Irritationen bezüglich der Richtung hervorgerufen, in die der Verbraucherschutzzug in Zukunft fahren soll: zurück in die Siebziger Jahre und – nach erneutem Schlagen vergangener Schlachten – ins bürgerliche Formalrecht des 19. Jahrhundert? Oder was soll mit dem Stichwort "Prozedurales Verbrauchervertragsrecht" gemeint sein? Ich möchte an dieser Stelle einen Präzisierungsversuch unternehmen.
Dass es "Generationen" gibt, glauben viele zu wissen. Aber was genau sie darunter verstehen, fällt ihnen schwer zu beschreiben. Trotzdem erfreut sich der Generationenbegriff heute einer geradezu ubiquitären Verwendung. Er wird genutzt als Identitäts- und Kollektivbezeichnung, aber auch als Erfahrungs- und Handlungsbegriff. Selbst die Werbesprache hat sich mittlerweile seiner bemächtigt. Und in den Feuilletons deutscher Zeitungen avancierte er zuletzt zu einer Passepartout-Formel, um sozialpolitische "Generationenkonflikte" auszudeuten. ...
Der wesentliche Grund, aus dem auch die neueren Theorien der Erzählanalyse, genauer: die Konzepte zu Perspektive oder 'Fokus', letztlich und d. h. insbesondere in ihrer Anwendung unbefriedigend bleiben, scheint mir darin zu liegen, dass sie immer noch dem Erzähler Prädikate statt dem Autor Strategien zuschreiben. Es ist hier nicht der Ort, mit einer akribischen Revision der Forschung zu beginnen, ich beschränke mich daher auf einige hoffentlich exemplarische Beobachtungen, um so mehr Zeit für meine eigentliche Aufgabe, nämlich die Präsentation meiner Vorstellungen, zu haben.
Vom 4. bis 6. April 2013 fand im Schloss Herrenhausen (Hannover) das Colloquium "Nach der Theorie, jenseits von Bologna, am Ende der Exzellenz? Perspektiven der Germanistik im 21. Jahrhundert" statt. Fünfundfünfzig geladene Teilnehmerinnen und Teilnehmer sowie rund sechzig Gäste diskutierten auf Podiumsdiskussionen und abseits davon streitbar und produktiv über die Entwicklungen und Perspektiven der Germanistik. Mit rund 80.000 Studierenden ist sie noch immer das größte geisteswissenschaftliche Fach an deutschen Universitäten. [...]
Auf dem Programm des Colloquiums standen sowohl Themen, die eine mehr innerdisziplinäre Bedeutung besitzen, wie auch Themen, die für die gegenwärtige Lage der Geisteswissenschaften insgesamt relevant sind. Die Sektion A "Nach der Theorie – Methoden und Modelle" nahm die theoretischen Debatten und Kontroversen der letzten Jahre zum Ausgangspunkt, um nach zukünftigen theoretischen und methodischen Ausrichtungen des Faches zu fragen. Sektion B "Jenseits von Bologna – Studium und Beruf" setzte bei der Bologna-Reform und der Kompetenzorientierung in Schule und Studium an. Sie thematisierte die gesellschaftlichen Aufgaben der Germanistik (insbesondere des Studiums), erstens die Lehrerausbildung, zweitens die Perspektiven von Germanistikstudierenden in Ausbildung und Beruf. In einer zusätzlichen, dritten Diskussionsrunde unter dem Titel "Germanistik und Karriere?" kamen individuelle Karrierewege außerhalb der Universität zur Sprache. Hier debattierten einige ehemalige Absolventinnen und Absolventen der Germanistik, die mittlerweile in leitenden Funktionen außerhalb der Universität tätig sind, über ihre Erfahrungen mit dem Fach Germanistik. Gegenstand von Sektion C "Am Ende der Exzellenz – Wissenschaftsbetrieb" schließlich waren die forschungsstrukturellen und wissenschaftspolitischen Veränderungen der Universitäten insgesamt im Zuge einer verstärkten wettbewerbsorientierten Finanzierung von Forschung.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. In ihrem Beitrag zu Spannungsliteratur und Lesepraxen um 1800 entwirft Ute Dettmar aus kultursoziologischer Perspektive ein Bild von der Vielfalt und Dynamik der kulturellen, literarischen und diskursiven Praxen des ausgehenden 18. Jahrhunderts. Die Gleichzeitigkeit von ästhetisch-normierender Auseinandersetzung um die Faszination des Schrecklichen, von aufgeklärter Lesekritik und einer unbefangenen bürgerlichen Lese- und Theaterpraxis, die sich nicht an das vorgegebene Maß und die Grenzen eines autonomieästhetisch konstituierten Kunstbegriffs hält, charakterisiert das spannungsreiche Mit- und Gegeneinander dieser Umbruchzeit. Anhand der Lektüre populärer Räuberromane erweist sich, dass Grenzziehungen zwischen hoch- und unterhaltungskulturellen Textverwendungsweisen weder in Hinblick auf Stoffe und Gattungen, noch in Hinblick auf die lesende Öffentlichkeit hier bereits rigide gezogen sind.
Es ist eine alte Debatte. Auf der einen Seite steht die althergebrachte Maxime, alles, was wert ist, gesagt zu werden, müsse in jeder Sprache gesagt werden können - umso mehr dann, wenn es sich um die Wissenschaft handelt, die den Anspruch erhebt, universelle Wahrheiten zu erfassen. Demgegenüber steht ein immer wieder anzutreffender Gedanke, dessen wohl inspirierteste Formulierung von Wilhelm von Humboldt stammt, nämlich, dass die Verschiedenheit der Sprachen nicht nur eine von „Schällen und Zeichen“, sondern eine der „Weltansichten selbst“ sei. Thema dieses Vortrags ist die Frage, wo die Wahrheit zwischen diesen scheinbaren Gegensätzen liegt.
L'auteur sénégalaise Ken Bugul focalise dans son oeuvre surtout des destins féminins. Dans le cas du roman La Folie et la Mort les mouvements des héroïnes se réalisent dans un paysage urbain et rural centralisé par le pouvoir d'un parti unique. En subissant constamment la violence, les deux femmes se métamorphosent. À travers leurs changements intérieurs et extérieurs le récit réalise la mise en scène d'une dictature qui ne laisse guère une lueur d'espoir. Cette conversation propose une lecture qui perçoit l'ouverture d'un discours critique par un tiers espace littéraire, voyant la métamorphose autant comme destruction que comme point de départ.
Der Terminus „Annotation“ gewinnt mit der fortschreitenden Verankerung der Digital Humanities innerhalb der akademischen Landschaft immer stärker an Bedeutung. Gleichzeitig steht er in den Geistes- und Informationswissenschaften für jeweils unterschiedliche Konzepte, welche zwar in Umfang, Einsatz und Zielausrichtung variieren, aber auch konzeptuelle Parallelen aufweisen. Vor dem Hintergrund der Zusammenarbeit der verschiedenen Wissenschaftsdisziplinen scheint es daher geboten, verschiedene Annotationspraxen und die mit ihnen verbundenen Konzepte von Annotationen zu reflektieren und diskutieren, ins Verhältnis zueinander zu setzen sowie Gemeinsamkeiten und Unterschiedlichkeiten zu systematisieren. Hierfür luden Julia Nantke und Frederik Schlupkothen (beide Bergische Universität Wuppertal) vom Graduiertenkolleg "Dokument – Text – Edition. Bedingungen und Formen ihrer Transformation und Modellierung in transdisziplinärer Perspektive" zur interdisziplinär angelegte Tagung "Annotationen in Edition und Forschung. Funktionsbestimmung, Differenzierung und Systematisierung" vom 20. bis zum 22. Februar 2019 an die Bergische Universität Wuppertal ein. Wissenschaftler*innen aus verschiedenen Ländern und Fachbereichen berichteten in fünf Sektionen über ihre Forschungsprojekte und –ergebnisse zu Annotationen, deren unterschiedlichen Erscheinungsformen und Funktionsweisen sowie zu verschiedenen terminologischen, methodischen und technischen Fragestellungen. Der Annotationsbegriff wurde hierbei bewusst weit gefasst und sowohl auf digitale und analoge sowie manuelle und automatisierte Annotationsprozesse in unterschiedlichen Medien bezogen.
Ich werde allerdings noch zur Diskussionskultur in den USA gegen Ende meines Vortrages zu sprechen kommen. Heute möchte ich über meine aktuelle Studie zum Münzhandel in Nordamerika referieren. Obwohl ich mein Hauptaugenmerk auf die Situation in den USA lenke, sind selbstverständlich viele Aspekte auf Europa übertragbar. Zuerst möchte ich den Handel mit Neufunden darlegen. Es ist wichtig darauf hinzuweisen, dass sich viele Händler und Sammler, besonders in den Vereinigten Staaten, darauf berufen, dass der Handel mit antiken Münzen in keinem Zusammenhang mit der Raubgräberei und dem Handel anderer antiker Objekte steht. Danach möchte ich den Umfang des Handels mit Neufunden besprechen und aufzeigen, wie Münzen aus Raubgrabungen über illegale Transaktionen und kriminelle Strukturen von der Ausgrabungsstätte über Schmuggler, Großhändler und spezialisierte Händler schließlich zu den Sammlern gelangen. Ich hoffe, wir stimmen alle dahingehend überein, dass die Probleme eines nicht-regulierten Handels sowohl für die Wissenschaft als auch für die Sammler verheerend sein können. Daher ist es im Interesse beider Seiten diesbezüglich zu kooperieren. Ich bin sehr zuversichtlich, dass das Verhältnis von Sammlern, Händlern und Archäologen in Deutschland ebenso wie im gesamten Europa größere Möglichkeiten für einen ehrlichen Dialoge und positive Änderungen zulassen als in den USA, worauf ich ebenfalls eingehen möchte. ...
Der Frankfurter Tag der Rechtspolitik inszeniert sich mittlerweile als traditionsreich. Seit dreiundzwanzig Jahren, weiß Rudolf Steinberg, ehemaliger Präsident der Universität Frankfurt und Redner an diesem Tage, ist die Veranstaltung in der Welt und nennt als maßgeblichen Geburtshelfer: sich selbst. Vanité oblige. Dabei vergisst er zu erwähnen, dass die Frankfurter Tage der Rechtspolitik nach und nach auf einen halben Arbeitstag zusammengeschrumpft sind und in der Vergangenheit nicht selten einen so trüben Eindruck machten, dass man dazu überging, über Prüfungsandrohung Druck auf Studierende auszuüben, die mittlerweile die Reihen füllen, was heißt: Komparsenrollen einnehmen. Es reden und diskutieren andere. ...
Die Arbeitsbedingungen und fachlichen Strukturen der Germanistiken jenseits von Deutschland, Österreich und der Schweiz sind anders - diese verschiedenen Voraussetzungen bringen sowohl andere Probleme als auch andere Potenziale mit sich. Mein Beitrag soll daher sowohl die Debatte über die digitale Lehre in der Germanistik in den DACH-Ländern um eine belgische sowie niederländische Außenperspektive befruchten als auch den Austausch mit anderen Germanistiken ermöglichen, die unter ähnlichen Bedingungen arbeiten. Vor diesen Hintergründen möchte der Beitrag zunächst darstellen, 1) wie sich die germanistische Lehre an der Universiteit van Amsterdam bereits vor der Covid-19-Pandemie gestaltete und inwiefern asynchrone und digitale Verfahren dabei eine wichtige Rolle spielten, sowie 2), welche positiven wie auch problematischen Effekte die spontan notwendige Umstellung vom Campus- auf den Online-Unterricht im März 2020 an der Universiteit Antwerpen mit sich brachte. Schließlich sollen daraus 3) Empfehlungen zu einem Blended Learning in der germanistischen Lehre nach der Covid-19-Pandemie sowie 4) Implikationen für die Bildungspolitik und für die Germanistik abgeleitet werden.