Refine
Year of publication
Document Type
- Conference Proceeding (493) (remove)
Language
- German (493) (remove)
Has Fulltext
- yes (493)
Is part of the Bibliography
- no (493) (remove)
Keywords
- Germanistik (52)
- Bologna-Prozess (32)
- Exzellenzinitiative (32)
- Theorie (32)
- Zukunft (32)
- Virtuelle Hochschule (23)
- Kongress (20)
- Literaturwissenschaft (17)
- Deutsch (15)
- Literatur (10)
Institute
- Medizin (90)
- Extern (32)
- Geschichtswissenschaften (30)
- Gesellschaftswissenschaften (25)
- Universitätsbibliothek (25)
- Erziehungswissenschaften (24)
- Rechtswissenschaft (18)
- Zentrum für Weiterbildung (14)
- Kulturwissenschaften (9)
- Mathematik (9)
Um mit den wachsenden Anforderungen der Informations- und Kommunikationstechnologien in unserer Gesellschaft umzugehen, bedarf es der umfassenden Qualifizierung von Kindern und Jugendlichen im Umgang mit den neuen Medien. Das bedeutet, sie müssen befähigt werden, Medien bewusst und kritisch nutzen und kompetent bedienen zu können. Dies erfordert eine gezielte Vermittlung von Medienkompetenz, die neben der Nutzung der Medien auch deren kritische Beurteilung und die aktive Beteiligung an der Gestaltung und Verbreitung dieser Medien umfasst. Gesellschaftliches Ziel muss daher sein, Kinder und Jugendliche schon in der Schule mit den neuen Medien vertraut zu machen und ihnen dort einen pädagogisch geleiteten Umgang mit diesen zu ermöglichen. Dies kann nicht ohne die entsprechende Qualifizierung der Lehrerinnen und Lehrer erfolgen. Neben der Nutzung neuer Medien durch das Lehrpersonal selbst muss diese Zielgruppe auch befähigt werden, Medien zielgerichtet im Unterricht einzusetzen, entsprechende Unterrichtsszenarien zu entwickeln und zu betreuen.
Untersuchungen wie beispielsweise eine Studie unter Lehrkräften in Frankfurter Schulen haben jedoch gezeigt, dass die Ausstattung der Schulen mit modernen Medien zwar sehr zufriedenstellend ist, es den Lehrkräften jedoch an methodischen Qualifikationen mangelt, diese einzusetzen und „ein hoher Bedarf an weiterführenden Schulungen zum fachdidaktischen Einsatz“ artikuliert wurde (Wiedwald 2007, S. 4).
Während Lehrerfortbildungen an dieser Stelle ein Mittel zur Abhilfe darstellen, lösen sie das Problem jedoch nur punktuell. Die Universität Frankfurt hat sich daher mit der Einführung eines Medienkompetenzzertifikates für Lehramtsstudierende sowie der Umsetzung des Projektes Lehr@mt zum Ziel gesetzt, in allen drei Phasen der Lehrerbildung aktiv zu werden und schon ihre Lehramtsstudierenden entsprechend zu qualifizieren sowie auch Angebote für Lehrerinnen und Lehrer bereitzustellen, die einen pädagogisch sinnvollen Einsatz von neuen Medien in Schulen befördern.
Die Goethe-Universität hat im Rahmen ihres Projektes megadigitale, das die hochschulweite Umsetzung ihrer eLearning-Strategie verfolgte, ein Vorgehensmodell entwickelt, das entlang des kompletten Prozesses der Entwicklung und Umsetzung von eLearning-Ansätzen standardisierte Analyse-, Planungs-, Konzeptions-, Implementierungs- und Qualitätssicherungsinstrumente anwendet. Dabei spielen Verfahren zur Qualitätssicherung schon von dem ersten Schritt an, in der Analysephase eine Rolle, angepasst an die verschiedenen Ebenen der Umsetzung.
Wiki-Systeme gewinnen für das kollaborative Erstellen von Wissen zunehmend an Bedeutung, belegt durch den Erfolg großer Projekte wie Wikipedia. Dabei beschränkt sich der Einsatz dieser Systeme nicht auf Anwendungsbereiche wie Wörterbücher oder Glossare; auch Universitäten und Unternehmen nutzen Wikis inzwischen zunehmend zur Unterstützung der Lehre im eLearning, für Dokumentationszwecke, Projektmanagement-Aufgaben, usw.. In diesem Kontext ist die Frage nach dem didaktisch motivierten Einsatz von Wikis im eLearning bedeutsam: welche Erfahrungen haben Akteure dem Einsatz von Wikis in eLearning-Veranstaltung oder auch begleitend zu räsenzveranstaltungen gemacht? Lassen sich Empfehlungen für die Gestaltung der Interaktion und Kooperation in Wikis aus diesen Erfahrungen ableiten?
Open Online Courses als Kursformat? Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
2011 starteten studiumdigitale, die zentrale eLearning-Einrichtung der Universität Frankfurt/M, und der Weiterbildungsblogger Jochen Robes den ersten deutschsprachigen Open Online Course unter dem Titel „Die Zukunft des Lernens“1. In 14 Wochen wurden in wöchentlichem Rhythmus 14 Themen behandelt, die sich rund um den Einsatz verschiedener Technologien in Bildungsprozessen und auch das Kursformat selbst drehten. Dieser Beitrag stellt die Bezüge des Open Online Courses zu seiner Herkunft und den ersten Kursen dieser Art in Kanada und USA her, bezieht sich auf die theoretischen und konzeptionellen Fundierungen dieses Ansatzes und stellt die Ergebnisse aus dem Kursverlauf und der abschließenden Befragung der Teilnehmenden vor.
Open Online Course als Kursformat? : Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
Basierend auf dem Konzept des Connectivismus entwickelte sich in den letzten fünf bis sechs Jahren ein neues offenes Kursformat: die Open Online Courses, die als so genannte MOOCs (Massive Open Online Courses) teilweise bis über 100.000 Teilnehmende anzogen. In dem Beitrag wird mit Bezug auf die konzeptionellen Ursprünge im Connectivismus das Format der Open Online Courses erläutert und Erfahrungen aus dem ersten deutschsprachigen Kurs dieser Art beschrieben, dem Kurs „Zukunft des Lernens“, den im Sommer 2011 studiumdigitale, die zentrale E-Learning-Einrichtung der Universität Frankfurt, der Weiterbildungsblogger Jochen Robes in Kooperation mit der GMW und dem Zentrum für Lehrerbildung der Universität durchführten. Der Kurs zog ca. 900 Interessierte an, die sich in verschiedenen online Medien beteiligten. Der Beitrag beschreibt den Kursverlauf, gibt einen Überblick über technische Umsetzung und Betreuungsformen und stellt neben Betrachtungen zum Transfer die Ergebnisse aus der Teilnehmerbefragung vor.
Ziel des Beitrags ist, einen Überblick über aktuelle Entwicklungen und Ausprägungen von MOOCs sowie die Erfahrungen und Ergebnisse aus der Unter-suchung von zwei MOOCs vorzustellen, die 2011 und 2012 durchgeführt wurden. Besondere Schwerpunkte liegen dabei auf der Bedeutung und Ausprägung der Beteiligungsformen in den verschiedenen MOOC-Formaten, der Beteiligung in den beiden untersuchten MOOCs sowie auf deren Unterschiede auch aufgrund von Veränderungen des Kursdesigns.
Das Internationale Colloquium "Perspektiven der Germanistik im 21. Jahrhundert" fand vom 4. bis 6. April 2013 im SchlossHerrenhausen in Hannover statt.
Der Autor hat den Herausgebern den vorliegenden Text nach der Konferenz zur Verfügung gestellt. Er antwortet auf die Ausgangsfragen zum Diskussionsforum B.2 "Germanistik studieren – Perspektiven in Ausbildung und Beruf", die im Programm zur Veranstaltung formuliert worden waren.
Das "Carl- und Gerhart-Hauptmann-Haus" und das "Gerhart-Hauptmann-Haus / Haus Wiesenstein" sind zwei von vier Museen in Polen und Deutschland, die heute an Leben und Werk jenes Dichters erinnern, der als Enfant terrible des Kaiserreiches galt und laut einer Umfrage von 1906 der zweitbekannteste Deutsche nach dem Kaiser war. Auf der Ostsee-Insel Hiddensee entstand im "Haus Seedorn", dem ehemaligen Sommerhaus Hauptmanns und heutigen "Gerhart-Hauptmann-Haus", bereits 1956 eine Gedenkstätte, und in Erkner bei Berlin existierte 1957 im heutigen "Gerhart-Hauptmann-Museum Erkner", der so genannten "Villa Lassen", die Hauptmann von 1885 bis 1889 als junger Autor mit seiner Frau Marie bewohnte, ein erster bescheidener Gedenkraum. Jedes der vier – polnischen und deutschen – Museen repräsentiert eine je unterschiedliche Phase im Leben des Nobelpreisträgers, der bereits zu Lebzeiten in die Riege der Klassiker aufstieg und in der Weimarer Republik gar als Reichspräsidentschaftskandidat gehandelt wurde. 2003 vereinbarten die Museen eine verstärkte Zusammenarbeit und gründeten einen bislang einzigartigen grenzüberschreitenden Verbund, um mit vereinten Kräften für Gerhart Hauptmann und sein Werk werben zu können.
Im digitalen Sommersemester 2020 hat der Fachschaftsrat des Fachbereichs 02 der Universität Kassel zwei Umfragen unter den Studierenden des Fachbereichs durchgeführt. Während die erste Umfrage vor Beginn des eigentlichen Lehrbetriebs an die Studierenden herangetragen wurde und dabei das Ziel verfolgte, die Erwartungen, Lernvoraussetzungen und Bedenken dieser Gruppe zu erfassen, lag der Fokus der zweiten Befragung, die ca. fünf Wochen nach Semesterbeginn verschickt wurde, mehr auf der Evaluierung der Arbeitsbelastung und der Zufriedenheit mit den digitalen Lehrangeboten am Fachbereich. Aus dem Institut für Germanistik nahmen 318 Studierende an der Umfrage teil, diese bilden damit die größte Gruppe unter den insgesamt 521 Teilnehmer*innen.
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Akademischer Kapitalismus" in der Sektion "Am Ende der Exzellenz – Wissenschaftsbetrieb".
Vom 17. bis 19. Februar 2011 luden Jens Eder, Joseph Imorde und Maike Sarah Reinerth für die Filmwissenschaft / Mediendramaturgie der Universität Mainz und die Kunstgeschichte der Universität Siegen Forscher und Forscherinnen unterschiedlicher Disziplinen zu einem Workshop mit dem Thema "Medium Menschenbild" ein. Förderer waren der Forschungsschwerpunkt "Medienkonvergenz" der Johannes Gutenberg-Universität Mainz und das Labor Neue Kunst Siegen. Ziel der Tagung war, das grundsätzliche Verhältnis von Medialität und Menschenbild zu analysieren, die Spezifik medial vermittelter Menschenbilder im interdisziplinären Austausch zu diskutieren sowie auf die in ihnen implizit enthaltenen konzeptuellen Vorstellungen hinzuweisen. ...
Schließlich untersuchte die Kunsthistorikerin HELEN BARR (Frankfurt am Main) den "neuen Menschen" in Werbeanzeigen illustrierter Zeitschriften der 1920er-Jahre. Das breite Spektrum der Werbung für Pflegeprodukte und Genussmittel suggeriere Orientierungshilfe in der urbanisierten Welt und propagiere ideale Menschenbilder der Moderne. ...
Hintergrund: Die Unterschidung von Augen mit frühem Keratokonus (KC) von normalen Augen bereitet nach wie vor Schwierigkeiten. Die vorliegende Untersuchung vergleicht konventionelle keratometrie-basierte mit wellenfront-basierten Maßzahlen hinsichtlich ihrer Eignung, normale Augen von Augen mit sehr frühem Keratokonus zu unterscheiden.
Methoden: Es wurden 17 Augen von 17 Patienten mit frühem KC eingeschlossen. Bei diesen 17 Augen handelt es sich um klinisch unauffällige Partneraugen des stärker betroffenen Auges. 123 Normalaugen von 69 Patienten dienten als Negativkontrolle. Von den axialen Kurvaturdaten wurden folgende Maßzahlen berechnet: zentrale Keratometrie (cK), Astigmatismus (AST), inferior-superiore Brechwertdifferenz (I-S), Verkippung der radialen Achsen (SRAX), KISA% index (eine Maßzahl, die auf cK, AST, I-S und SRAX basiert) und corneale Zernike-Koeffizienten (1.–7. Ordnung, Pupillendurchmesser: 6 mm). Aus Zernike-Koeffizienten wurden Diskriminanzfunktionen konstruiert. Receiver-Operatiing-Charakteristik (ROC)-Kurven wurden erstellt, um die diagnostische Trennschärfe dieser Werte zur Unterscheidung von klinisch unauffälligen Partneraugen von Augen mit frühem Keratokonus und normalen Kontrollen zu evaluieren.
Ergebnisse: Der I-S-Wert (Korrektheit 92,1%, kritischer Wert 0,59 D) und die vertikale Coma (C3-1; 96,7%, –0,2 µm) waren die beiden Einzelwerte mit höchster Trennschärfe. Mit den ursprünglich publizierten kritischen Werten lag der Rabinowitz-McDonnell test (cK und I-S) bei 83,3% (Sensitivität 0%, Spezifität 100%) und der KISA% bei 70,8% (81,3%, 60,3%). In Verbindung mit Diskriminanzanalyse errichten Zernike-Koeffizienten eine Korrektheit von 96,7% (100%, 93,4%).
Schlussfolgerungen: Auf cornealen Zernike-Koeffizienten basierende Maßzahlen erreichte die höchste Trennschärfe bei der Unterscheidung von Augen mit subklinischem KC von Normalaugen. Dennoch konnten konventionelle KC-indices eine ähnlich hohe Trenschärfe wie die Zernike-Methode erreichen, wenn die kritischen Werte entsprechend angepasst werden.
Hintergrund: Im Rahmen der Erforschung von Mechanismen der Presbyopie-Entstehung hat das Interesse an Methoden zur Linsendensitometrie wieder zugenommen. Für spezielle Fragestellungen sind flexible Untersuchungsmethoden notwendig.
Methoden: Basierend auf Aufnahmen mit der Scheimpflug-Kamera Pentacam HR (Oculus, Wetzlar) wurde ein MATLAB-Programm (V7.0, The MathWorks) erstellt, um größere Datenmengen automatisiert auszuwerten. Die Erkennung der Pupillenmitte als Referenzpunkt erfolgt mittels eines Randerkennungsalgorithmus. Als Kennzahlen dienen klassische Parameter der beschreibenden Statistik (Mittel, Minimum, Maximum, Standardabweichung und Variationskoeffizient) für einen definierten rechteckigen Bereich und für die zentrale vertikale Achse.
Ergebnisse: In einer Präliminarserie von 18 Augen war eine automatisierte Messung mit korrekter Pupillenerkennung in 80% der Fälle möglich. Verglichen mit der hersteller-eigenen Software (Pentacam 6.03r11) besitzt das eigene Programm eine erweiterte Spannweite der Messwerte. Die Messwerte können automatisch nach Excel (Microsoft) exportiert werden. Ein modularer Aufbau ermöglicht eine flexible Erweiterung für weitere Fragestellungen (z.B. Quantifizierung von Kern- und Rindentrübungen).
Schlussfolgerungen: Mittels eines selbst programmierten MATLAB-basierten Programmes kann eine automatisierte Messung und Analyse von linsndensitometrischen Parametern durchgeführt werden.
Vor gut einem Jahr ist im Archiv für die civilistische Praxis ein Aufsatz erschienen, in welchem ich mich mit den Perspektiven des Verbrauchervertragsrechts nach der Schuldrechtsreform auseinandergesetzt habe. Der leicht provozierende Unterton der dort vorgetragenen Kritik hat nun nicht nur – wie beabsichtigt – den einen oder anderen Leser zum Lachen verführt, sondern offensichtlich auch Irritationen bezüglich der Richtung hervorgerufen, in die der Verbraucherschutzzug in Zukunft fahren soll: zurück in die Siebziger Jahre und – nach erneutem Schlagen vergangener Schlachten – ins bürgerliche Formalrecht des 19. Jahrhundert? Oder was soll mit dem Stichwort "Prozedurales Verbrauchervertragsrecht" gemeint sein? Ich möchte an dieser Stelle einen Präzisierungsversuch unternehmen.
Dass es "Generationen" gibt, glauben viele zu wissen. Aber was genau sie darunter verstehen, fällt ihnen schwer zu beschreiben. Trotzdem erfreut sich der Generationenbegriff heute einer geradezu ubiquitären Verwendung. Er wird genutzt als Identitäts- und Kollektivbezeichnung, aber auch als Erfahrungs- und Handlungsbegriff. Selbst die Werbesprache hat sich mittlerweile seiner bemächtigt. Und in den Feuilletons deutscher Zeitungen avancierte er zuletzt zu einer Passepartout-Formel, um sozialpolitische "Generationenkonflikte" auszudeuten. ...
Der wesentliche Grund, aus dem auch die neueren Theorien der Erzählanalyse, genauer: die Konzepte zu Perspektive oder 'Fokus', letztlich und d. h. insbesondere in ihrer Anwendung unbefriedigend bleiben, scheint mir darin zu liegen, dass sie immer noch dem Erzähler Prädikate statt dem Autor Strategien zuschreiben. Es ist hier nicht der Ort, mit einer akribischen Revision der Forschung zu beginnen, ich beschränke mich daher auf einige hoffentlich exemplarische Beobachtungen, um so mehr Zeit für meine eigentliche Aufgabe, nämlich die Präsentation meiner Vorstellungen, zu haben.
Vom 4. bis 6. April 2013 fand im Schloss Herrenhausen (Hannover) das Colloquium "Nach der Theorie, jenseits von Bologna, am Ende der Exzellenz? Perspektiven der Germanistik im 21. Jahrhundert" statt. Fünfundfünfzig geladene Teilnehmerinnen und Teilnehmer sowie rund sechzig Gäste diskutierten auf Podiumsdiskussionen und abseits davon streitbar und produktiv über die Entwicklungen und Perspektiven der Germanistik. Mit rund 80.000 Studierenden ist sie noch immer das größte geisteswissenschaftliche Fach an deutschen Universitäten. [...]
Auf dem Programm des Colloquiums standen sowohl Themen, die eine mehr innerdisziplinäre Bedeutung besitzen, wie auch Themen, die für die gegenwärtige Lage der Geisteswissenschaften insgesamt relevant sind. Die Sektion A "Nach der Theorie – Methoden und Modelle" nahm die theoretischen Debatten und Kontroversen der letzten Jahre zum Ausgangspunkt, um nach zukünftigen theoretischen und methodischen Ausrichtungen des Faches zu fragen. Sektion B "Jenseits von Bologna – Studium und Beruf" setzte bei der Bologna-Reform und der Kompetenzorientierung in Schule und Studium an. Sie thematisierte die gesellschaftlichen Aufgaben der Germanistik (insbesondere des Studiums), erstens die Lehrerausbildung, zweitens die Perspektiven von Germanistikstudierenden in Ausbildung und Beruf. In einer zusätzlichen, dritten Diskussionsrunde unter dem Titel "Germanistik und Karriere?" kamen individuelle Karrierewege außerhalb der Universität zur Sprache. Hier debattierten einige ehemalige Absolventinnen und Absolventen der Germanistik, die mittlerweile in leitenden Funktionen außerhalb der Universität tätig sind, über ihre Erfahrungen mit dem Fach Germanistik. Gegenstand von Sektion C "Am Ende der Exzellenz – Wissenschaftsbetrieb" schließlich waren die forschungsstrukturellen und wissenschaftspolitischen Veränderungen der Universitäten insgesamt im Zuge einer verstärkten wettbewerbsorientierten Finanzierung von Forschung.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. In ihrem Beitrag zu Spannungsliteratur und Lesepraxen um 1800 entwirft Ute Dettmar aus kultursoziologischer Perspektive ein Bild von der Vielfalt und Dynamik der kulturellen, literarischen und diskursiven Praxen des ausgehenden 18. Jahrhunderts. Die Gleichzeitigkeit von ästhetisch-normierender Auseinandersetzung um die Faszination des Schrecklichen, von aufgeklärter Lesekritik und einer unbefangenen bürgerlichen Lese- und Theaterpraxis, die sich nicht an das vorgegebene Maß und die Grenzen eines autonomieästhetisch konstituierten Kunstbegriffs hält, charakterisiert das spannungsreiche Mit- und Gegeneinander dieser Umbruchzeit. Anhand der Lektüre populärer Räuberromane erweist sich, dass Grenzziehungen zwischen hoch- und unterhaltungskulturellen Textverwendungsweisen weder in Hinblick auf Stoffe und Gattungen, noch in Hinblick auf die lesende Öffentlichkeit hier bereits rigide gezogen sind.
Es ist eine alte Debatte. Auf der einen Seite steht die althergebrachte Maxime, alles, was wert ist, gesagt zu werden, müsse in jeder Sprache gesagt werden können - umso mehr dann, wenn es sich um die Wissenschaft handelt, die den Anspruch erhebt, universelle Wahrheiten zu erfassen. Demgegenüber steht ein immer wieder anzutreffender Gedanke, dessen wohl inspirierteste Formulierung von Wilhelm von Humboldt stammt, nämlich, dass die Verschiedenheit der Sprachen nicht nur eine von „Schällen und Zeichen“, sondern eine der „Weltansichten selbst“ sei. Thema dieses Vortrags ist die Frage, wo die Wahrheit zwischen diesen scheinbaren Gegensätzen liegt.
L'auteur sénégalaise Ken Bugul focalise dans son oeuvre surtout des destins féminins. Dans le cas du roman La Folie et la Mort les mouvements des héroïnes se réalisent dans un paysage urbain et rural centralisé par le pouvoir d'un parti unique. En subissant constamment la violence, les deux femmes se métamorphosent. À travers leurs changements intérieurs et extérieurs le récit réalise la mise en scène d'une dictature qui ne laisse guère une lueur d'espoir. Cette conversation propose une lecture qui perçoit l'ouverture d'un discours critique par un tiers espace littéraire, voyant la métamorphose autant comme destruction que comme point de départ.
Der Terminus „Annotation“ gewinnt mit der fortschreitenden Verankerung der Digital Humanities innerhalb der akademischen Landschaft immer stärker an Bedeutung. Gleichzeitig steht er in den Geistes- und Informationswissenschaften für jeweils unterschiedliche Konzepte, welche zwar in Umfang, Einsatz und Zielausrichtung variieren, aber auch konzeptuelle Parallelen aufweisen. Vor dem Hintergrund der Zusammenarbeit der verschiedenen Wissenschaftsdisziplinen scheint es daher geboten, verschiedene Annotationspraxen und die mit ihnen verbundenen Konzepte von Annotationen zu reflektieren und diskutieren, ins Verhältnis zueinander zu setzen sowie Gemeinsamkeiten und Unterschiedlichkeiten zu systematisieren. Hierfür luden Julia Nantke und Frederik Schlupkothen (beide Bergische Universität Wuppertal) vom Graduiertenkolleg "Dokument – Text – Edition. Bedingungen und Formen ihrer Transformation und Modellierung in transdisziplinärer Perspektive" zur interdisziplinär angelegte Tagung "Annotationen in Edition und Forschung. Funktionsbestimmung, Differenzierung und Systematisierung" vom 20. bis zum 22. Februar 2019 an die Bergische Universität Wuppertal ein. Wissenschaftler*innen aus verschiedenen Ländern und Fachbereichen berichteten in fünf Sektionen über ihre Forschungsprojekte und –ergebnisse zu Annotationen, deren unterschiedlichen Erscheinungsformen und Funktionsweisen sowie zu verschiedenen terminologischen, methodischen und technischen Fragestellungen. Der Annotationsbegriff wurde hierbei bewusst weit gefasst und sowohl auf digitale und analoge sowie manuelle und automatisierte Annotationsprozesse in unterschiedlichen Medien bezogen.
Ich werde allerdings noch zur Diskussionskultur in den USA gegen Ende meines Vortrages zu sprechen kommen. Heute möchte ich über meine aktuelle Studie zum Münzhandel in Nordamerika referieren. Obwohl ich mein Hauptaugenmerk auf die Situation in den USA lenke, sind selbstverständlich viele Aspekte auf Europa übertragbar. Zuerst möchte ich den Handel mit Neufunden darlegen. Es ist wichtig darauf hinzuweisen, dass sich viele Händler und Sammler, besonders in den Vereinigten Staaten, darauf berufen, dass der Handel mit antiken Münzen in keinem Zusammenhang mit der Raubgräberei und dem Handel anderer antiker Objekte steht. Danach möchte ich den Umfang des Handels mit Neufunden besprechen und aufzeigen, wie Münzen aus Raubgrabungen über illegale Transaktionen und kriminelle Strukturen von der Ausgrabungsstätte über Schmuggler, Großhändler und spezialisierte Händler schließlich zu den Sammlern gelangen. Ich hoffe, wir stimmen alle dahingehend überein, dass die Probleme eines nicht-regulierten Handels sowohl für die Wissenschaft als auch für die Sammler verheerend sein können. Daher ist es im Interesse beider Seiten diesbezüglich zu kooperieren. Ich bin sehr zuversichtlich, dass das Verhältnis von Sammlern, Händlern und Archäologen in Deutschland ebenso wie im gesamten Europa größere Möglichkeiten für einen ehrlichen Dialoge und positive Änderungen zulassen als in den USA, worauf ich ebenfalls eingehen möchte. ...
Der Frankfurter Tag der Rechtspolitik inszeniert sich mittlerweile als traditionsreich. Seit dreiundzwanzig Jahren, weiß Rudolf Steinberg, ehemaliger Präsident der Universität Frankfurt und Redner an diesem Tage, ist die Veranstaltung in der Welt und nennt als maßgeblichen Geburtshelfer: sich selbst. Vanité oblige. Dabei vergisst er zu erwähnen, dass die Frankfurter Tage der Rechtspolitik nach und nach auf einen halben Arbeitstag zusammengeschrumpft sind und in der Vergangenheit nicht selten einen so trüben Eindruck machten, dass man dazu überging, über Prüfungsandrohung Druck auf Studierende auszuüben, die mittlerweile die Reihen füllen, was heißt: Komparsenrollen einnehmen. Es reden und diskutieren andere. ...
Die Arbeitsbedingungen und fachlichen Strukturen der Germanistiken jenseits von Deutschland, Österreich und der Schweiz sind anders - diese verschiedenen Voraussetzungen bringen sowohl andere Probleme als auch andere Potenziale mit sich. Mein Beitrag soll daher sowohl die Debatte über die digitale Lehre in der Germanistik in den DACH-Ländern um eine belgische sowie niederländische Außenperspektive befruchten als auch den Austausch mit anderen Germanistiken ermöglichen, die unter ähnlichen Bedingungen arbeiten. Vor diesen Hintergründen möchte der Beitrag zunächst darstellen, 1) wie sich die germanistische Lehre an der Universiteit van Amsterdam bereits vor der Covid-19-Pandemie gestaltete und inwiefern asynchrone und digitale Verfahren dabei eine wichtige Rolle spielten, sowie 2), welche positiven wie auch problematischen Effekte die spontan notwendige Umstellung vom Campus- auf den Online-Unterricht im März 2020 an der Universiteit Antwerpen mit sich brachte. Schließlich sollen daraus 3) Empfehlungen zu einem Blended Learning in der germanistischen Lehre nach der Covid-19-Pandemie sowie 4) Implikationen für die Bildungspolitik und für die Germanistik abgeleitet werden.
Zentrale Voraussetzung einer differenzierten Bewertung der germanistischen Online-Lehre wäre, zunächst die Rolle der Germanistik in der digitalen Gesellschaft sowie den Wert digitaler Bildung zu bestimmen. Dazu wiederum wäre es wichtig, das Wissen, die Methoden, die Begriffe und Fragestellungen der Germanistik in ein Verhältnis zu den Potenzialen und Problemen der digitalen Gesellschaft zu setzen. Zwar adressieren Arbeitsgruppen in den Fachverbänden diese Aufgabe, die germanistischen Teildisziplinen gehen damit aber unterschiedlich um. Als Teildisziplin hat somit auch eine medienkulturwissenschaftlich ausgerichtete (Gegenwarts-)Literaturwissenschaft die Pflicht, nach den Folgen des Medienwandels und der vernetzten Kommunikation im World Wide Web für die Literatur, ihren Betrieb und für die literaturwissenschaftliche Forschung und Lehre zu fragen. Auf einer Konferenz zum Thema "Während und nach Corona: Digitale Lehre in der Germanistik" erscheinen vor diesem Hintergrund zwei Fragen besonders relevant: 1. Welche digitalen Standards und Erkenntnisse müsste die Germanistik etablieren, um gelungene Lehre in der digitalen Kultur überhaupt bewerten zu können? 2. Wie wäre ein Teilbereich der germanistischen Literaturwissenschaft als Netzliteraturwissenschaft zu konzipieren, der das notwendige Wissen über die vernetzte Kommunikation in der digitalen Gesellschaft bereithält und zur Etablierung von Standards des digitalen germanistischen Lernens beitragen könnte?
Die interdisziplinär ausgerichtete Tagung widmete sich in vier Sektionen (1. Entwicklung und Ausdifferenzierung der Wissenschaften, 2. Verlage und Verleger als Wissenschaftsvermittler, 3. Wissenschaft und Öffentlichkeiten, 4. Wissenschaft und Spezialbetriebe) der Frage nach der Interdependenz von Wissenschaftsverlagen und dem Grad der Entwicklung und Etablierung der jeweiligen Disziplinen in den Kultur- und Naturwissenschaften im 19. und frühen 20. Jahrhundert. Der Grundtenor war die zunehmende Spezialisierung der Wissenschaftsdisziplinen, an deren Bedürfnissen nach Lehr- oder Handbüchern, Textausgaben, Zeitschriften oder Forschungsberichten sich die Verleger orientierten. Die unterschiedlichen Disziplinengeschichten bestimmtem die Handlungsmuster der Verleger, ihre Rolle in den jeweiligen Wissenschaftsorganisationen sowie ihre Filterfunktion im wissenschaftlichen Feld. Dabei stellte sich die Frage nach der Verortung des Verlegers im wissenschaftlichen Feld für die einzelnen Fächer immer neu. Der zweite Aspekt war der Adressatenkreis, der entweder selbstreferenziell nur aus dem Kreis der Wissenschaftler bestehen konnte oder aber eine größere Öffentlichkeit intendierte, da der rein wissenschaftliche Markt sehr begrenzt war. Dadurch öffnete sich die Schere zwischen der angestrebten Professionalisierung und der oft notwendigen Popularisierung. Es zeigte sich aber, dass die Bemühungen um Öffnung der wissenschaftlichen Zirkel meist nur das gebildete Bürgertum ereichten, nicht aber "das Volk" oder die sozialen Unterschichten. ...
Das persönliche Engagement des Verlegers betonte auch Frank Bernstein (Mainz) auch in dem er das Verhältnis von Hirzels Schwager, Karl Reimer, zu seinem Autor Theodor Mommsen darstellte, dessen "Römische Geschichte" (1854 bis 1856) Reimer verlegte. ...
[Poster-Abstract] Formel zur Beurteilung der Blut-Liquor-Schrankenfunktion bei älteren Patienten
(1998)
Es war eine in jeder Hinsicht außergewöhnliche Tagung, die Ende Oktober 2010 in Marbach stattfand. 20 renommierte Historiker/innen kamen zusammen, um an ihren akademischen Lehrer und Mentor Wolfgang J. Mommsen zu erinnern. Jeder sollte, so die Vorgabe der beiden Organisatoren Christoph Cornelißen und Gerhard Hirschfeld, aus seinem Forschungsfeld berichten und den Einfluss Mommsens auf diesen Themengebieten einschätzen und beschreiben. Der entsprechende Tagungsband mit den Beiträge konnte bereits auf der Konferenz vorgestellt werden. Zugegen war auch die Familie Mommsen und ebenso der Zwillingsbruder Hans Mommsen. ...
Im folgenden Beitrag werden die Möglichkeiten der Bildung des Progressivs im Aja dargestellt sowie die zur Bildung des Progressivs verwendeten Formen in ihrer Grammatikalisierungskette vorgestellt. Das Aja gehört zu einer Gruppe von Sprachen/Dialekten, die lange Zeit unter dem Begriff "Ewe" zusammengefaßt wurden, in jüngster Zeit aber auch als Gbe(-Kontinuum) bezeichnet werden. Dabei ist "Gbe" ein in allen sprachlichen Einheiten des Kontinuums anzutreffendes Lexem mit der Bedeutung "Sprache".
Welche gesellschaftlichen Zwänge wirken auf die Medizin und ihre Anwender ein? Wie ist das Verhältnis von Ökonomie und medizinisch Gebotenem? Wie steht es mit der Finanzierung der nicht evidenzbasierten Behandlung? Stellen Rationierung und Rationalisierung die möglichen Prinzipien der Priorisierung dar? Führt die Priorisierung zur Qualitätsminderung oder gar Sorgfaltsverletzung? Diese Fragen behandelte der 4. Ärztetag am Dom in Frankfurt am Main. ...
In einem ersten Abschnitt werden das Berufsfeld, die Kernbereiche und die durch den Technologiewandel forcierten Erweiterungs- und Konvergenztendenzen der Informationsberufe Archiv, Bibliothek, Information und Dokumentation betrachtet. Aus dem ständigen Anstieg der Bandbreite der beruflichen Anforderungen und Einsatzmöglichkeiten resultiert die Forderung nach Ergänzung der Generalistenausbildung durch den Ausbau der Spezialisierungsangebote und der Flexibilisierung der Ausbildung. Der zweite Abschnitt skizziert unter dem Aspekt der Realisierbarkeit dieser Forderungen den institutionellen. rechtlichen und personellen Rahmen und die Strukturbedingungen des Lehr-, Studien- und Prüfungssystems, vor allem der gegenwärtigen deutschen Bibliothekarausbildung auf Fachhochschulebene. Ein dritter Abschnitt entwickelt als Resumee den Vorschlag einer integrierten Ausbildung der Informationsberufe und deren zusätzliche Kombinationsmöglichkeit mit dem Studium in anderen Fachbereichen (z.B. Wirtschaft udgl.) , um durch eine modulare Ausbildung nach dem Baukastenprinzip in den Überlappungs- und Spezialisierungsbereichen Flexibilität und Professionalität in der Ausbildung mit der Bereitstellung von Absolventen für die verschiedensten fachlich unspezifischen wie spezifischen Berufseinsatzfelder verbinden zu können.
Elektronische Informationsressourcen, wie beispielsweise elektronische Zeitschriften und Datenbanken, gewannen in den letzten Jahren zunehmend an Bedeutung im Feld der akademischen Literaturversorgung. Mit diesem Trend einhergehend konnten Veränderungen der Bezugspraxis bei Bibliotheken einerseits und neue Preis- und Geschäftsmodelle bei Verlagen andererseits beobachtet werden. Neben der bequemeren Nutzbarkeit für die Leser bietet das neue Medium auch neue Formen des Kostencontrollings und der Optimierung für die Abnehmer. Dieser Workshop soll sich mit der Frage der Kostenrechnung und -verteilung für Konsortien für elektronische Informationsressourcen insbesondere eJournals beschäftigen. Dabei werden die neuen Möglichkeiten der Nutzungsmessung besonders berücksichtigt. Neben den theoretischen Ansätzen werden auch konkrete Beispielrechnungen durchgeführt und die Praktikabilität für die Umsetzung in der Praxis im besonderen Maße diskutiert.
Poster Einleitung: OSCEs werden immer häufiger in der Ausbildung von Studierenden eingesetzt. Die Einführung eines OSCEs im fach Chirurgie ist in Planung. Durch die große Anzahl von Studierenden pro Semester oder Studienjahr (400 Studierende in Frankfurt) ist die Durchführung einer OSCE Prüfung mit großem personellen Aufwand verbunden. Vor allem während der Prüfung müssen eine Vielzahl von Chirurgen simultan zu Prüfungszwecken zur Verfügung stehen. Ziel der Studie war es, zu überprüfen, ob eine video-basierte Bewertung einer „Nahtstation“ zu einem späteren Zeitpunkt zu gleichen Ergebnissen in der Bewertung der Leistung der Studierenden führt. Methode: 33 Studierende führten unter standardisierten Bedingungen eine Hautnaht an einem Modell durchzuführen. Die Studierenden wurden während der Prozedur von zwei prüfenden Chirurgen und zwei Studierenden im PJ (praktischen Jahr) beobachtet und anhand einer objektiv strukturierten Checkliste bewertet (Prozessevaluation). Die Prozedur wurde gleichzeitig auf Video aufgezeichnet und zu einem späteren Zeitpunkt zwei weiteren Chirurgen und zwei weiteren Studierenden im PJ zur Bewertung gezeigt. Ergebnisse: Der Vergleich zwischen "live“-prüfenden und "video“-prüfenden Chirurgen zeigt eine signifikant hohe Korrelation (r=0,87; p<0,01) und eine hohe Übereinstimmung (88,2%) in der Bewertung. Ebenso zeigen die prüfenden PJler eine signifikant hohe Korrelation (r=0,84; p<0,01). Die Übereinstimmung ist bei den PJlern mit (82.4%) etwas niedriger als bei den beteiligten Chirurgen. Zusammenfassung: Mit dieser Studie konnte zeigt werden, daß es bei der Beurteilung der Performance von Studierenden bei einer Hautnaht am Modell unter Anwendung von objektiv strukturierten Checklisten möglich ist, eine direkte Beobachtung der Studierenden durch eine video-basierte Beobachtung zu ersetzen. Eine "Nahtstation“ in einem OSCE kann somit während der Prüfungszeit ohne Prüfer auskommen und im Anschluß bewertet werden.
Meeting Abstract (DGU 2003) 67. Jahrestagung der Deutschen Gesellschaft für Unfallchirurgie 89. Tagung der Deutschen Gesellschaft für Orthopädie und Orthopädische Chirurgie 44. Tagung des Berufsverbandes der Fachärzte für Orthopädie Fragestellung Ziel dieser prospektiven Untersuchung ist die Analyse der Funktion und des Outcomes nach distaler Radiusfraktur in Abhängigkeit von Frakturtyp, Therapieform und Begeleitverletzungen. Berücksichtigt wurden diesbezüglich insbesondere auch neuere Implantate wie die volaren winkelstabilen Titanplatten und dorsale low profile Implantate. Methodik Innerhalb von 2 Jahren (01/01 bis 12/02) wurden insgesamt 150 Radiusfrakturen bei 145 Patienten (82 Frauen; 63 Männer) mit einem Durchschnittsalter von 51,8 (17-93) Jahren operativ versorgt. Die operative Versorgung erfolgte in 56,7 % der Fälle mittels volarer Plattenosteosynthese, davon wurde bei 60 % eine winkelstabile Platte eingesetzt. Die übrigen Frakturen wurden durch eine dorsale Platte (8%) bzw. durch Materialkombination Spickdraht/Schrauben und/oder Fixateur externe stabilisiert. Die radiologische und klinische Nachuntersuchung erfolgt frühestens 1 Jahr nach operativer Versorgung. Zusätzlich wird anhand eines Fragebogens der DASH - Score bestimmt. Ergebnisse Nach der AO-Klassifikation fanden sich in 47,7 % Typ A-, 8,6% Typ B- und 55,6% Typ C-Frakturen. Dabei fand sich bei 53,1 % eine relevante Begleitverletzung (Bandverletzungen 14,3 %; Handwurzelfrakturen 3,9 %; distale Ulnafrakturen 10,4%; TFC/Proc. styloideus ulnae 70,1%). Von den 25 bisher untersuchten Patienten (15 Frauen, 10 Männer; Durchschnittsalter: 55,3 Jahre; NU nach: 14 Monaten) waren 32% Typ A-, 20% Typ B- u. 48% Typ C-Frakturen. Die Greifkraft betrug 87,7 % und das Bewegungsausmaß 83,6 % im Vergleich zur Gegenseite. Der durchschnittliche standardisierte DASH-Score betrug 22,6 Punkte (0: optimale Funktion). Bei den mit volarer Platte stabilisierten C-Frakturen (9 der nachuntersuchten Patienten) fand sich ein DASH-Score von 41 Punkten. Die Greifkraft betrug 67,5% und das Bewegungsausmaß 79,6% im Vergleich zur Gegenseite. Bisher konnte weder bei der konventionellen, noch der winkelstabilen Plattenosteosynthese ein radiologischer Korrekturverlust nachgewiesen werden. Bei den Frakturen ohne lokale Begleitverletzungen waren Greifkraft (91% vs. 79,8%), Bewegungsausmaß (89,5% vs. 83,4%) und DASH-Score (16,8 vs. 26,1) besser als bei den Frakturen mit Begleitverletzungen. Schlussfolgerung Bei korrekter Reposition und Stabilisierung, wird der Outcome nach distaler Radiusfraktur neben dem Frakturtyp wesentlich durch die Begleitverletzung mitbestimmt. Daraus resultiert dass eine Verbesserung nur durch eine Optimierung der Therapie der Begleitverletzungen erreichbar ist.
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Deutschstunden – zur Lehrerbildung" in der Sektion "Jenseits von Bologna – Studium und Beruf".
Ende 2016 startete das Projekt Digital Creative Space an der SUB Göttingen mit dem Ziel einen innovativen Lernort zur Förderung digitaler Kompetenzen der Studierenden durch kollaborativ nutzbare Lernumgebungen zu entwickeln.Die Rückmeldungen der Studierenden und Lehrenden zur ersten Ideenskizze waren eher verhalten, entsprach das Lernortkonzept nicht den gewohnten, eher basal ausgestatteten Einzel- und Gruppenarbeitsplätzen.Um den Studierenden den Freiraum zu geben, mit der SUB und anderen Partnern der Universität die Fläche nach ihren Bedürfnissen zu gestalten, wurde der Digital Creative Space zu einer Experimentierfläche mit einem initial begrenzten, aber innovativen Angebot, bei dem rund 65% der Fläche zunächst unbebaut für weiteres Wachstum und neue Angebote zur Verfügung stehen.Bewegliche Raumelemente zonieren die Experimentierfläche, die Kombination aus Multitouchtischen mit spezieller Software zum digitalen kollaborativen Arbeiten bieten die Möglichkeit zur Erprobung.Ein Partizipations- und Evaluationsprozess bildet die Basis der Weiterentwicklung des physischen Raums und der digitalen Angebote.Welche Raumelemente, welche Hard- und Software und welche Möblierungsszenarien gewählt wurden, welche Methoden zur Beteiligung genutzt und welche davon sinnvoll für die Gestaltung eingesetzt werden konnten, wie der Gesamtprozess und das Raumangebot angenommen wurden, welche Rückmeldungen es gab und welche weiteren Ideen von Seiten der Nutzenden an das Projektteam herangetragen wurden, sind Inhalt dieses Vortrags.
Stellen wir uns vor, wir hätten im Jahre 1600 eine wissenschaftliche Kontroverse in deutscher Sprache zu führen, beispielsweise über die Frage, ob die Astrologie eine ernstzunehmende Wissenschaft ist – eine sehr aktuelle Debatte in dieser Zeit. In dieser Lage müssten wir natürlich den damaligen Fachwortschatz der Astronomie und Astrologie beherrschen, wir müssten beispielsweise wissen was eine Coniunction der Planeten Jupiter und Mars oder eine Zusammenfügung Saturni vnnd der Sonnen ist oder wie der Ausdruck newer Stern verwendet wird. Gleichzeitig müssten wir aber auch den nicht-fachspezifischen, allgemeinen wissenschaftlichen Sprachgebrauch der Zeit kennen, der für wissenschaftliche Auseinandersetzungen verwendet wurde. Zumeist wurden Kontroversen zwischen Akademikern in dieser Zeit auf Latein geführt, der wissenschaftlichen lingua franca der Zeit. Wenn aber eine größere deutschsprachige Öffentlichkeit angesprochen werden sollte, wurde auch die deutsche Sprache verwendet, in der – wie ich zeigen möchte – für diesen Zweck schon sehr differenzierte sprachliche Mittel entwickelt waren.
Zur Beschreibung der Dialogdynamik : Plädoyer für eine kommunikationshistorische Betrachtungsweise
(1989)
Bei der Betrachtung längerer Gesprächsverläufe bietet sich uns oft das Bild einer sukzessiven Entfaltung der Dialogzusammenhänge, die teils schrittweise, teils sprunghaft verläuft. Es werden Themen eingeführt, durchgespielt und gewechselt. Manche Bemerkungen eröffnen ganze Zweige des Gesprächs, andere verschließen gewisse Entwicklungsmöglichkeiten, zumindest für eine bestimmte Zeit. Argumentative Passagen mit erhöhtem Anspruch an Strenge der Gedankenführung und Präzision der Redeweise lösen lockere Passagen mit geringer Ernsthaftigkeit ab. Ein Dialog beginnt als Vorwurfskommunikation und endet als allgemeiner Diskurs über die Geltung von Normen. Neue Redeweisen kommen auf, spielen sich ein und werden fallen gelassen. Mißverständnisse treten auf, werden geklärt oder auch nicht. Erst am Schluß eines Gesprächs versteht man so richtig, was der Gesprächspartner am Anfang gemeint hat usw. Derartige Erscheinungen möchte ich unter den Begriff der Dialogdynamik fassen. Eine Betrachtungsweise, die speziell die Entfaltung von Kommunikationszusammenhängen im eben erläuterten Sinne zu erfassen sucht, könnte man kommunikationshistorisch oder kommunikationsdynamisch nennen, je nachdem, ob eher der Verlauf konkreter Kommunikationen unter Aspekten der genannten Art analysiert werden soll oder ob eine systematische Analyse von Typen von Kommunikationsverläufen beabsichtigt ist.
Der vorliegende kurze Beitrag [hat] das Ziel, im diskutierten Problemrahmen konstitutive Aspekte der Horizonte, Konturen und Fluchtlinien einer dezidiert inter- bzw. transkulturellen Ausrichtung der Sprachwissenschaft anzudeuten und zu hinterfragen, ihre disziplinären Wege und Blickfelder anzulegen sowie über ein inter- bzw.transkulturelles ,,Paradigma" als "interkulturelle Linguistik" im Hinblick auf Profil, Tragfähigkeit und Reichweite zu reflektieren. All das soll dann zu einer extensionalen und intensionalen Bestimmung einer "interkulturellen Linguistik" hinführen.
Es soll engeführt werden auf etwas, das man - vielleicht erscheint die Formulierung paradox - eine Veränderung in der "Semantik des Zufalls" nennen könnte, die durch seine Anwendung in diversen poetischen Verfahren stattgefunden hat. Der Zufall selbst ist ohne Semantik, hat per definitionem keinen Sinn, er ist das sinnlose Ereignis par excellence. Aber er beendet den Sinn, oder er treibt auf die Suche nach einem verborgenen Sinn, einer versteckten Kausalität, göttlichen Absicht... also er destruiert oder konstruiert notwendige Ordnungen und bildet insofern ein poetisches Prinzip.
Als Konsequenz der Änderung des Hochschulrahmengesetzes können deutsche Hochschulen einen Großteil Ihrer zur Verfügung stehenden Studienplätze in den Numerus-Clausus Fächern nach eigenen Kriterien vergeben. Die Identifizierung von Merkmalen, die im Zusammenhang mit dem Studienerfolg stehen, stellt daher ein aktuelles Forschungsthema dar. Ein längsschnittlich angelegtes Forschungsprojekt der Universität Frankfurt am Main soll prüfen, inwieweit kognitive und nicht-kognitive Merkmale wie gewichtete Einzelfachnoten, das Ergebnis eines fachbezogenen Kenntnistests oder bildungsbiographische Daten neben der Abiturdurchschnittsnote einen bedeutsamen Beitrag zur Prognose des Studienerfolges in den Anfangssemestern des Studiengangs Medizin leisten können. Im Wintersemester 05/06 wurde Studierenden des ersten Fachsemesters ein Test zur Erfassung naturwissenschaftlicher Vorkenntnisse (Nawik) der Bereiche Mathematik, Physik, Chemie und Biologie vorgelegt sowie die Abiturdurchschnittsnote erhoben. Als Indikator für den Studienerfolg im ersten Fachsemester wurde die Punktzahl in der Anatomieklausur heran gezogen. Die ersten Ergebnisse einer Stichprobe von N=140 Studierenden lassen substanzielle Korrelationen der Leistungen im Nawik sowie der Abiturdurchschnittsnote mit der Klausurleistung erkennen (r= 0,45, p< 0,01 bzw. r= -0,24, p<0,01). Eine schrittweise Regression weist insbesondere die Leistung im Test naturwissenschaftlicher Vorkenntnisse als vorhersagestarken Prädiktor aus. Die vorläufigen Ergebnisse werden anhand einer größeren Stichprobe geprüft. Weitere Auswertungen zur Bedeutsamkeit von Einzelfachnoten und bildungsbiographischen Daten (wie das Ausmaß an Vorerfahrung in medizinischen Bereichen) für den Studienerfolg laufen derzeit.
Nicht nur in Italien wird Rossini rasch zu einer Figur von öffentlichem Interesse. Die Großen seiner Zeit, von Metternich zu Hegel, von Goethe zu Schopenhauer, haben seine Opern auf der Bühne gesehen oder zumindest die Musik gehört und sich dazu geäußert; Heinrich Heine hat sich Gedanken über Rossinis Erfolg in Paris gemacht, seit Stendhal sind Hunderte von Anekdoten über den phlegmatischen Komponisten, der sich mehr fürs Essen als für die Oper interessiert, erfunden und in ganz Europa kolportiert worden. Der Vortrag zeigt an ausgewählten Beispielen, wie sich die Kritik des 19. Jahrhunderts, besonders in Deutschland, mit Person und Werk Rossinis auseinandersetzte; besondere Beachtung soll dabei den konträren Urteilen Schopenhauers und des Schopenhauer-Jüngers Richard Wagner über Rossinis Melodie gelten.
Inhalt - BIX: Pole position and Runner-up - UB Frankfurt: Funktionen, Zahlen, Sammlungen, Datenbanken, Sondersammelgebiete - SSG Germanistik: Bestand, Schwerpunkte, Gegenwart, Budget, Sammelauftrag - Sammlung Deutscher Drucke: "Verteilte Nationalbibliothek", Zeitsegment 1801-1870 - Informationsdienste: Bibliographie der deutschen Sprach- und Literaturwissenschaft (BDSL), Neuerwerbungsliste Germanistik, Bibliographie germanistischer Bibliographien (BgB), DigiZeitschriften, Flyer - Fachreferat: Literaturausstellungen, Begleitheft
Am 28. Januar 2009 fand auf Einladung des Instituts für Weltliteratur der Slowakischen Akademie der Wissenschaften im Mozartsaal des Österreichischen Kulturforums in Bratislava die internationale Tagung "Chaosforschung in der Literaturwissenschaft: interdisziplinäres Paradebeispiel oder disziplinäres Missverständnis?" statt, an der Wissenschaftler aus der Slowakei, aus Österreich und aus Deutschland teilnahmen.
Ziel der von Dr. Karin S. Wozonig (Hamburg/Wien) und Dr. Roman Mikuláš (Bratislava) organisierten Konferenz war die Revision des Einflusses der Chaosforschung auf die Literaturwissenschaft. Die Erforschung nichtlinearer Systeme hatte Anfang der 80er Jahre erstmals Aufsehen erregt, als sie unter dem Stichwort "Chaos-Theorie" einige Grundpostulate der klassischen Naturwissenschaften in Frage stellte. Nichtlineare Systeme wie z.B. das Wetter zeichnen sich durch eine prinzipielle und strukturell vorgegebene Nichtvorhersagbarkeit aus, die auch über die Verfeinerung der technischen Mittel nicht ausgeräumt werden kann. Der Erfolg der Chaosforschung war nicht zuletzt einer rasanten populärwissenschaftlichen Verbreitung in den Medien zu verdanken, die rasch auch die Aufmerksamkeit von Wissenschaftlern anderer Disziplinen erregte. Dies führte dazu, dass die Idee des "deterministischen Chaos" (also der strukturell bedingten Nichtvorhersagbarkeit) bald auch außerhalb der Mathematik und Physik Anklang und neue Anwendungsbereiche fand, so in der Medizin, in den Wirtschafts- und Sozialwissenschaften, und schließlich auch in den Kulturwissenschaften. Obwohl die Prinzipien der nichtlinearen Dynamik heute als Teil der wissenschaftlichen Normalität aufgefasst werden können, sind die Ergebnisse dieses Methodologietransfers gerade in Bezug auf die Literaturwissenschaften immer noch umstritten. Die Tagung sollte daher dazu anregen, aktuelle Ideen zu sammeln und die Diskussion neu zu entfachen.
Meeting Abstract Es wurde eine zellbasierte Wundauflage mit Keratinozyten und Fibroblasten auf Basis einer kommerziellen Wundauflage (Matriderm, Collagen/Elastin-Matrix) generiert, um damit großflächige Verbrennungswunden behandeln zu können. Zunächst wurde die Expansion der Keratinozyten optimiert und die Zeit für die Anzüchtung minimiert. Ausgangsmaterial waren 1–2 cm2 Spalthaut vom Patienten. Epidermis und Dermis wurden nach einer enzymatischen Behandlung mit Thermolysin voneinander getrennt. Aus den beiden Hautkompartimenten wurden durch Trypsin- und Kollagenase I-Behandlung Keratinozyten und Fibroblasten isoliert, welche in Kollagen I-beschichteten Zellkulturflaschen expandiert wurden. Nach 10 Tagen wurden die Fibroblasten auf 100 cm2 Matriderm aufgebracht. Nach einwöchiger submerser Kultivierung wurden die Keratinozyten ausgesät. Eine Woche später wurde die Matrix an die Luft-Flüssigkeitsgrenze angehoben, um die epidermale Differenzierung einzuleiten. Nach 16 Tagen wurde das Hautäquivalent fixiert und immunhistologisch sowie elektronen-mikroskopisch begutachtet. Die Histologie zeigte eine regelgerechte Stratifizierung des epidermalen Anteils. Immunhistologisch ließ sich eine Basalmembran mit Collagen IV und Laminin 5 nachweisen. Proliferative Zellen, nachgewiesen mit KI-67 befanden sich lediglich in der basalen Region der Epidermis. Desmoglein, sowie die Differenzierungsmarker Involucrin und CK 10 wurden suprabasal nachgewiesen. Elektronenmikroskopisch waren die Basalmembran sowie die Zell-Zell-Verbindungen in Form von Desmosmen zu erkennen. Späte Differenzierungsmerkmale, wie granuläre Strukturen und verdickte Zellmembranen, fanden sich im Str. granulosum und Str. corneum. Die Studie zeigt, dass man aus Matriderm eine zellbasierte Wundauflage herstellen kann, die verglichen mit dem Ausgangsmaterial um den Faktor 50–100 vergrößert ist und deren Aufbau normaler Haut weitgehend entspricht.
Die Hauptthese dieses Papers geht von dem Konzept der normativen Verfassung der Nachkriegzeit aus und setzt sich kritisch mit dem Konzept des 19. Jahrhunderts „Verfassungswandlung“ auseinander. Das Konzept des Verfassungswandels ist mit der Verfassungsdemokratie inkompatibel. Statt von einem Verfassungswandel zu sprechen, sollte man die Entwicklung des Sinns der Normen in der Zeit als dynamische Interpretation bezeichnen.
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
Einer der zahlreichen Vorträge von Gertrude Lübbe-Wolff beginnt folgendermaßen: "Herr Gerhardt hat mich eingeladen, etwas über die aktuelle Bedeutung von Hegels Rechtsphilosophie zu sagen. Nichts lieber als das. An der Aktualität der Hegelschen Rechtsphilosophie leide ich geradezu, und über das, woran man leidet, spricht man ja gern. Die Aktualität der Hegelschen Rechtsphilosophie zeigt sich mir darin, dass ich öfter an Hegel denken muss, als mir lieb ist. Ich muss so oft an ihn denken, weil in unserer öffentlichen Kultur das Hegelwidrige so präsent ist." ...
Vortrag gehalten bei der 34. Jahrestagung des Fachverbandes Medien und Technik im Bildungsbereich (MTB) am 25. September 2003 in Göttingen: "Sehr verehrte Damen und Herren, „Video goes online“ ist ganz allgemein etwas, das auch ohne unser Zutun passieren wird. Wie weit und wie schnell es in die praktische Lehre eindringen wird, wage ich angesichts des heutigen Einsatzes sehr viel älterer Medientechnologien im deutschen Hochschulunterricht nicht abzuschätzen. Damit wäre ich eigentlich am Ende meines Vortrags. Dennoch möchte ich sie mit einigen Gedanken konfrontieren, die um die Frage kreisen: Gibt es für einen künftigen, Internet basierten Einsatz hinreichend geeignete Videos und wie müssen die beschaffen sein?.."
Langzeiterfahrungen mit der ipsilateralen Elektroakustischen Stimulation (EAS) : meeting abstract
(2006)
Hochgradig hörgeschädigten Patienten mit einem Tieftonrestgehör (Steilabfall im Audiogramm) können mittels ipsilateraler EAS versorgt werden. Dabei wird der völlig taube Hochfrequenzbereich des Innenohres mit einem Cochleaimplantat stimuliert, und die tieffrequente Restfunktion der Schnecke bleibt erhalten. Voraussetzung für eine derartige Versorgung ist ein Erhalt des tieffrequenten Restgehöres bei der Cochlea-Implant-Elektrodeneinführung. Im Rahmen einer klinischen Studie wurden seit 1999 in Frankfurt 25 Patienten mit EAS versorgt. Des Weiteren wurden 16 Patienten im Rahmen einer europäischen Multicenterstudie für EAS implantiert. Ein zumindest teilweiser Erhalt des Restgehöres war in über 90% der Fälle möglich. Es wird über die Langzeitergebnisse (6 bis 70 Monate) nach EAS-Implantation berichtet. In 70% der Fälle blieb das erhaltene Restgehör stabil. Die Patienten zeigten überdurchschnittlich gute Werte bei der Sprachdiskrimination mit ihren Cochleaimplantaten, die durch zusätzliche akustische Stimulation noch verbessert wurden. Besonders deutlich waren die Hörleistungen unter Störgeräuscheinfluss. Seit Kurzem steht auch ein kombinierter Sprachprozessor für die elektrische und akustische Stimulation zur Verfügung.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Manuel Gujber widmet sich einem vordergründig "sprachlosen" Gegenstand: der Architektur. Sein Interesse gilt dabei dem Spannungsverhältnis zwischen architektonischer Konstruktion und Oberfläche – der "Haut" des Hauses. So bietet die architektonische Oberfläche nicht nur fortwährend neue Möglichkeiten der Gestaltung sondern auch der Interpretation – Lesarten, in denen sich das Verhältnis zwischen "Haut" und "Haus" sowie von deren Wahrnehmung spiegelt.
Gegenstand der folgenden Überlegungen sind Strukturen, in denen Demonstrativa entweder als Antezedens eines restriktiven Relativsatzes oder als Determinativ eines solchen Antezedens auftreten. In solchen Strukturen hat das Demonstrativum weder eine deiktische noch eine anaphorische Bedeutung und damit keine der für Demonstrativa zentralen Funktionen. Aus sprachvergleichender Perspektive zeigt sich, dass manche Typen von Demonstrativa überhaupt nicht mit restriktiven Relativsätzen kombinieren können, andere wiederum den Relativsatz auf spezielle Lesarten beschränken. Ziel ist es, für die fraglichen Strukturen übereinzelsprachliche Beschränkungen aufzuzeigen und aus dem Sprachvergleich Rückschlüsse für das Deutsche zu gewinnen.
Der Vorhang öffnet sich zunächst nur einen Spalt zu Alban Bergs Oper Lulu, die anlässlich der Salzburger Festspiele 2010 in der Felsenreitschule inszeniert wurde. Zu erwarten ist, dass nun ein Sänger in der Rolle des Tierbändigers mit Hetzpeitsche in der einen und Revolver in der anderen Hand aus dem bunt gestreiften Vorhang wie durch den Eingang eines Zirkuszeltes schlüpft, um anzukündigen, dass in der nun folgenden Aufführung nicht – wie in gängigen "Lust und Trauerspielen" – lediglich gezähmte "Haustiere" gezeigt werden, sondern hier "[m]it heißer Wollust und mit kaltem Grauen" endlich "[d]as wahre Tier, das wilde, schöne Tier" erlebt werden kann.
Mit dem Motto »Das Spiel der Mächtigen« haben die Salzburger Festspieldialoge 2009 einen Titel aufgegriffen, den ursprünglich Giorgio Strehler für seine Inszenierung von William Shakespeares Königsdramen gewählt hatte, die 1973 bei den Salzburger Festspielen gezeigt wurde. Der Titel steht aber nicht nur für eine groß angelegte Shakespeare-Inszenierung, sondern geradezu programmatisch auch für eine Form des Regietheaters, die in Salzburg Furore machte. Denn Strehler nahm bei den Stücken Heinrich V. und Heinrich VI. nach eigenen dramaturgischen Erwägungen Kürzungen vor, komponierte sie um und kommentierte sie durch andere Dramen Shakespeares, indem er Textpassagen aus Macbeth, König Lear, König Johann und Richard II. in seine Inszenierung integrierte.
Based on the metaphor of “liminality” in literary studies, this paper examines two different approaches to the literary genre of travelogues, using the example of Adelbert von Chamisso‟s Voyage Around the World (1836). One approach, with the help of autobiographical research, sheds light on the author-specific key motifs of “omnipotent time” and the process of aging. In the second approach, the focus shifts to the relationship between literature and natural science, i.e. to Chamisso‟s transitional position in the context of the historicization and dynamization of the sciences and humanities in the 19th century. Rather than thinking of “philology” and “cultural studies” as opposing methods, this article thus suggests a more in-tercessory position for the purpose of a fruitful study of travel literature.
Geistige Wertsteigerung
(2013)
Das Internationale Colloquium "Perspektiven der Germanistik im 21. Jahrhundert" fand vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover statt.
Der Autor hat den Herausgebern den vorliegenden Text nach der Konferenz zur Verfügung gestellt. Er stellt einen Beitrag zur Debatte um den "Akademischen Kapitalismus" in Forum C.2 dar.
Ausgangsfragen: Welche allgemeinen Veränderungen prägen das Fach bzw. generell den geisteswissenschaftlichen Betrieb im Hinblick auf Arbeitsbedingungen und Arbeitsklima, auf institutionssoziologische und mentalitätshistorische Gegebenheiten in den letzten dreißig bis vierzig Jahren? Trifft die Diagnose einer allgemeinen Neoliberalisierung auch auf den akademischen Wissenschaftsbetrieb zu? Und wenn ja: Worin bestehen Chancen und Gefahren dieser Entwicklung? Ist die These vom "akademischen Kapitalismus" (Richard Münch) stichhaltig? Und wenn ja: Wie verändert sich durch diese neuen Vorzeichen auch das Selbstbild des Germanisten zwischen Lehre, Individualforschung und Drittmittelakquise bzw. geisteswissenschaftlicher "Großforschung"? Was hat sich durch die Exzellenzinitiativen des Bundes verändert, und wie ist dieser Wandel zu bewerten: als Segen und/oder Fluch?
Seit der zweiten Hälfte des letzten Jahrhunderts zieht die Übersetzung im Fremdsprachenunterricht (FSU) das Interesse der Fremdsprachendidaktiker auf sich. In den anhaltenden Diskussionen über den Stellenwert der Übersetzung im FSU bestehen aber immer noch verschiedene Meinungen. Die Meinungsverschiedenheiten beruhen vor allem auf diversen miteinander konkurrierenden Lerntheorien und damit auch auf unterschiedlichen methodischen Prinzipien. Im Zusammenhang mit den herrschenden didaktischen Richtungen und mit den unterschiedlichen Lernzielen, die im Fremdsprachenunterricht verfolgt werden können, wird auch die Übersetzung unter mehreren Gesichtspunkten betrachtet und bewertet. Hinsichtlich der Funktion der Übersetzung ist es inzwischen üblich geworden, zwischen zwei Verwendungsweisen zu unterscheiden: Einerseits wird die Übersetzung als ein methodisches Mittel zur Festigung, Erweiterung und Prüfung sprachlicher Fertigkeiten angewendet, andererseits ist sie als eine eigene Fertigkeit selbst ein Übungs- und Unterrichtsziel.
Gewalt in der Schule
(2004)
Unter dem Titel "Vade mecum! Nächste Schritte in den Historischen Grundwissenschaften" fand sich am 8. und 9. April 2016 an der Universität zu Köln eine vor allem aus Doktorandinnen und Doktoranden bestehende Gruppe junger Wissenschaftler zu einer von Stefanie Menke und Lena Vosding organisierten Tagung zusammen. Die als offene Diskussion mit Impulsvorträgen konzipierte Veranstaltung war zugleich das diesjährige Treffen des Netzwerks Historische Grundwissenschaften, eines Zusammenschlusses hilfswissenschaftlich arbeitender Nachwuchswissenschaftler verschiedener Disziplinen und Qualifikationsstufen. Das Netzwerk hat sich zum Ziel gesetzt, einerseits eine Plattform für den Austausch und das Sichtbarmachen der eigenen Projekte zu bieten, andererseits die Perspektive des wissenschaftlichen Nachwuchses in die aktuelle Diskussion um die Zukunft der Historischen Grundwissenschaften einzubringen, die derzeit auch vor dem Hintergrund der Digitalisierung und den Entwicklungen innerhalb der Digital Humanities geführt wird. ...
Forum A.2: Philologie, Textwissenschaft, Medienkunde? Zum Gegenstand der Germanistik : Statement
(2013)
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Philologie, Textwissenschaft, Medienkunde? Zum Gegenstand der Germanistik" in der Sektion "Nach der Theorie – Methoden und Modelle".
Zehn Jahre sind seit der Vereinigung der Bundesrepublik Deutschland und der Deutschen Demokratischen Republik vergangen. Aus zwei "Rationalstaaten" (C. Hacke) ist wieder ein Nationalstaat geworden. Die "Bundesrepublik" bildet auch heute noch einen Teil des Staatsnamens, aber die meisten haben sich wieder angewöhnt, einfach von "Deutschland" zu reden. Trotz aller Beschwörungen der Kontinuitätselemente zwischen alter und neuer Bundesrepublik überwiegt inzwischen die Differenz zwischen beiden. Diese wird in der Unterscheidung zwischen "Bonner" und "Berliner Republik" treffend eingefangen...
Meeting abstract : Deutscher Kongress für Orthopädie und Unfallchirurgie (DKOU 2012), 23.10.-26.10.2012, Berlin.
Fragestellung: Die Behandlung langstreckiger Knochendefekte ist eine große Herausforderung. Die Masquelet-Technik zur Behandlung solcher Defekte ist eine zweizeitige Operationstechnik. Zuerst erfolgt die Insertion eines PMMA (Polymethylmethacrylat)-Zementspacers in den Knochendefekt, der die Bildung einer Membran induziert. Diese Membran enthält Wachstumsfaktoren und regenerative Zellen, die möglicherweise die Knochenheilung unterstützen. Nach einigen Wochen wird der Zementspacer entfernt und der induzierte Membranschlauch mit Beckenkammspongiosa aufgefüllt. Im weiteren Verlauf kommt es zu einer kompletten Knochenheilung. Ziele dieser Untersuchung waren die Etablierung der Masquelettechnik am Rattenmodell und die Definition eines Zeitpunkts, an welchem die Membran eine ausreichende Festigkeit sowie einen signifikanten Gehalt von Vorläuferzellen aufweist.
Methodik: Nach Genehmigung der Experimente wurden die Femura von 24 männlichen SD-Ratten osteotomiert. Die Lücke (10 mm) wurde mit PMMA-Zement aufgefüllt und mittels Miniplatte stabilisiert. Parallel wurden den Versuchstieren gleich große PMMA-Spacer subcutan unter die Rückenhaut implantiert. Nach 2, 4, bzw. 6 Wochen (W) erfolgte die Entnahme der Membranen. Ein Teil der Membran wurde für (immun)histologische Untersuchungen aufbereitet (CD34, vWF, van Giesson), ein Teil für die in vitro Kultur. Auswachsende Vorläuferzellen in vitro wurden über CD34 und STRO-1-Färbung nachgewiesen. Statistik: Mediane, Kruskal-Wallis-Test, p<0,05 ist signifikant.
Ergebnisse und Schlussfolgerungen: Im zeitlichen Verlauf nahmen die Vaskularisierung (vWF-positive Fläche [%]: 2 W: 1,8; 4 W:1.6 vs 6 W: 6,4), die Dicke der Membran ([µm]: 2 W: 350 vs 4W: 517, 6 W: 592) und der Bindegewebsanteil ([µm]: 2W: 201 vs 4W: 324, 6W: 404) signifikant zu. Der Hauptanteil elastischer Fasern war auf der dem Zement zugewandten Seite, Vaskularisierung war eher auf der Weichteil zugewandten Seite zu finden. Der Anteil CD34 positiver Zellen nahm signifikant ab (2W: 5%, 4 W: 4% vs 6 W: 1%). Auswachsende STRO-1 positive Zellen konnten nur in zweiwöchigen Membranen nachgewiesen werden. Ältere Membranen wiesen einen zunehmenden Anteil seneszenter Zellen auf. Subcutan induzierte Membranen waren vergleichbar, wiesen jedoch tendentiell eine geringere Dicke und keine STRO-1 positiven Zellen auf.
Mit dieser Studie wurde erstmalig die Induktion einer Membran nach Masquelet im Rattenmodell etabliert. Es konnte nachgewiesen werden, dass der strukturelle Aufbau sowie die zellulären Komponenten zeitlichen Änderungen unterliegen und der Ort der Induktion Einfluss auf die zellulären Komponenten der Membran hat. Junge Membranen (2W) enthielten CD34 und STRO-1 positive Zellen. 4W-Membranen enthielten nur CD34 positive Zellen wiesen aber einen signifikanten Bindegewebsanteil auf, der für eine erhöhte mechanische Stabilität spricht. Ob 2 bzw. 4 Wochen alte Membranen den Knochenheilungsprozess fördern, muss in weiterführenden Studien untersucht werden.
Der religiöse Pluralismus innerhalb der multikulturellen Gesellschaft erfordert vom Staat das Bemühen, die wechselseitige Achtung nicht nur zwischen Personen mit unterschiedlichen religiösen Glaubensüberzeugungen, sondern auch zwischen Glaubenden und Nicht-Glaubenden sicherzustellen. In diesem Kontext wird es für die vom Staat übernommene Funktion entscheidend sein, rechtzeitig zu beurteilen, ob er eine aktive und positive Rolle als eine Institution spielt, welche dafür sorgt, dass die Religionsfreiheit der Einzelnen und der Gruppen geachtet wird. Im Vorliegenden werden einige Gefahren und Bedrohungen für die Religionsfreiheit in der heutigen Gesellschaft analysiert und eine kritische Betrachtung als Antwort auf diese Krisensituation vorgelegt. Konkret werden die folgenden Punkte erörtert: 1. Der Glaube, daß die Religion nicht mit den Werten einer modernen, liberalen Gesellschaft zu vereinbaren ist. 2. Die Konfessionalisierung des Staates. 3. Der Missbrauch der staatlichen Macht, um die Präferenzen der Bürger durch absichtliche Änderungen im sozialen Kontext zu beeinflussen. 4. Die unnötigen Behinderungen und Beschränkung des Rechts auf Verweigerung aus Gewissengründen, die von einem falschen Verständnisses desselben herrühren. 5. Die Verherrlichung eines falsch verstandenen, radikalen Individualismus. 6. Ein Verständnis des Grundsatzes der Nichtdiskriminierung als ,,Gleichgültigkeit gegenüber den Unterschieden“.
Verleger seien zu 51% Kaufleute - formulierte BERND F. LUNKEWITZ, Eigentümer des Aufbau-Verlages im Eingangsstatement der Podiumsdiskussion, die von MANFRED KÖHLER (FAZ) moderiert wurde. Köhler hatte die Frage an das Podium gerichtet, was eine gute Verlagsgeschichte ausmache und Lunkewitz in seiner Antwort mit dem Aspekt begonnen, der in den herkömmlichen Verlagsgeschichten zumeist vernachlässigt werde. Die gesamte Veranstaltung, der Workshop mit fünf Vorträgen zu einzelnen Verlagen und die abendliche Podiumsdiskussion, brachte letztlich zu Tage, dass ein Treffen der bislang fast hermetisch neben einander her forschenden Verlagshistoriker und Unternehmenshistoriker für beide Seiten ausgesprochen fruchtbar ist. So führten die Gespräche auf dem Podium immer wieder auf die Kernfrage zurück, ob denn Verlage und Medienunternehmen besondere Unternehmen seien, für die der Analyserahmen moderner Unternehmensgeschichte untauglich ist, oder ob es sich im Grunde um ganz normale Unternehmen handele, die eben nicht Waschmaschinen, Autos oder Salpetersäure produzierten, sondern Bücher. Dabei war es eben nicht nur eine Frage der Perspektive, wie man diese Frage beantwortet: Neben Lunkewitz saß mit KLAUS SAUR (Saur-Verlag, München) ein weiterer Verleger auf dem Podium, ergänzt durch zwei aus der Unternehmensgeschichte kommende Historiker, WERNER PLUMPE und JAN-OTMAR HESSE (beide Johann Wolfgang Goethe-Universität Frankfurt am Main) und zwei weitere aus der Verlags- und Buchhandelsgeschichte kommende Wissenschaftler, GEORG JAEGER (LMU München) und REINHARD WITTMANN (LMU München). ...
Bewahren und Erschließen : die deutschsprachige jüdische Presse und das Projekt Compact Memory
(2006)
Jüdische Zeitschriften stellen für die Erforschung des jüdischen Kultur-erbes eine unverzichtbare Quelle dar. Vollständige Ausgaben der Periodika sind auf Grund des schlechten Erhaltungszustandes und der Zerstörungen durch Krieg und Nationalsozialismus nur noch in wenigen Bibliotheken vorhanden, so dass ihre Nutzung schwierig ist. Compact Memory bietet als Datenbank weltweit freien Online-Zugang zu den Zeit-schriften in digitalisierter Form an und stellt ein wichtiges Hilfsmittel für die Erforschung der modernen mitteleuropäisch-jüdischen Geschichte dar. 118 verschiedene Titel mit insgesamt circa 700.000 Seiten, welche die unterschiedlichsten Strömungen des Judentums repräsentieren, sind als Grafiken bzw. als Volltext zugänglich, außerdem kann in einer Suchmaske gezielt recherchiert werden. Mit der Aufnahme in das UNESCO Archives Portal hat Compact Memory internationale Anerkennung erlangt.
Geistig behinderte Personen haben ein erhöhtes Risiko für eine Hörbehinderung. Häufig nicht erkannt und therapiert führt das zu einer reduzierten Lebensqualität. Aus diesem Grunde wurde Healthy Hearing in das Healthy Athletes Programm der Special Olympics mit aufgenommen. Seit der Einführung des Healthy Athletes Programms in die deutschen Special Olympics im Jahre 2004 betreut die Phoniatrie/Pädaudiologie des Universitätsklinikums Frankfurt M. das Projekt "Healthy Hearing". Während der deutschen Special Olympics Sommerspiele 2004, 2006 und 2008 erhielten 1944 Athleten ein Hörscreening nach den internationalen Richtlinien. Das Ergebnis: viele Athleten sind medizinisch unterversorgt. Aus diesem Grunde wurde eine hessische Healthy Athletes Gruppe gebildet, die zur Verifizierung der Prävalenz von geistig behinderten Schülern in einem Pilotprojekt 198 geistig behinderte Schüler (76 Mädchen, 122 Jungen; Altersmedian 12 Jahre, Spanne 6–20 Jahre) einer Frankfurter Schuleinrichtung mit dem Hörscreening des Healthy Athletes Programms untersuchte. Dieses Hörscreening beinhaltet die Otoskopie, die Messung otoakustischer Emissionen und im Falle eines Fails die Tympanometrie bzw. Tonschwellenaudiometrie bei 0,5 kHz, 1 kHz, 2 kHz und 4 kHz. 152 der Schüler konnten so komplett erfasst werden. Davon zeigten 119 ein Pass, 33 ein Fail. 98 erhielten die Empfehlung zu weiteren Kontrollen. Diese Ergebnisse unterstreichen die Wichtigkeit der Einführung eines regelmäßigen Hörscreenings in Schuleinrichtungen für geistig Behinderte.
Schluckstörungen sind häufig Folge von Kopf-Hals-Tumorerkrankungen, deren Prävalenz bis zu 88% aufgeführt wird. Je früher eine Dysphagie diagnostiziert wird, desto geringer ist das Risiko für Sekundärkomplikationen, was die Anzahl "teurer" Fälle senkt und den Patienten die Möglichkeit auf eine zügige Restitution von Lebensqualität bietet! Diese Fakten unterstreichen die Notwendigkeit eines klinischen Behandlungspfades, nach dem die Diagnose auf der Grundlage eines standardisierten und überprüfbaren Workflows erstellt wird. Da die zügige, optimale Behandlung von Dysphagien einen multidisziplinären Zugang erfordert, wurde im Klinikum der Goethe-Universität Frankfurt/Main ein interdisziplinärer Arbeitskreis für Schluckstörungen (IAS) gegründet, der sich aus Phoniatrie, Klinik für HNO und MKG sowie Radiologie zusammensetzt. Im Rahmen eines zweimal wöchentlich durchgeführten Onkoboards, werden zusammen mit der Strahlentherapie und Onkologie, Risikopatienten herauskristallisiert und onkologische Therapieoptionen u.a. im Hinblick auf funktionelles Outcome diskutiert. Bereits präoperativ werden entsprechende Patienten phoniatrisch aufgeklärt und ihre Schluckfunktion via endoskopischer Evaluation nach Langmore-Standard (FEES) untersucht. Ein systematisches Follow-up erfolgt via FEES wenige Tage und 4–6 Wochen postoperativ sowie nach adjuvanter Therapie. Pro Woche wurden so im vergangenen Jahr ca. 3–5 Patienten wöchentlich neu erfasst und über 80 Patienten im Verlauf untersucht und einer adäquaten Therapie zugeführt.
Die Antike bildet einen zentralen Bezugspunkt für Identitätskonstruktionen in den europäischen Kulturen. Das Wissen davon, was Antike ist, ist jedoch keineswegs statisch: "Die Antike" formiert sich historisch stets im Wechselspiel mit dem Selbstverständnis der rezipierenden Kulturen. Diese bipolare Konstruktion griff die interdisziplinäre Tagung "Das Geschlecht der Antike" auf, die Anna Heinze (Berlin) und Friederike Krippner (Berlin) im Juni an der Humboldt-Universität zu Berlin veranstalteten. Sie verfolgte einerseits die Frage, welche Rolle die Kategorie "Geschlecht" bei verschiedenen Epochenentwürfen der Antike spielt, und richtete den Blick andererseits darauf, was die Referenz auf die Antike bei der Konstruktion von Geschlechterverhältnissen in nachantiken Gesellschaften leistet.
Protected Mode
(2005)
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Gegenstand von Harald Hillgärtners Untersuchung ist die Frage nach der Lesbarkeit des Computers, vielmehr seiner System- und Programmcodes. Gilt der Computer einerseits als "Textmaschine", die endlose Schreib- und Leseakte prozessiert, so finden jene Programmabläufe doch zumeist jenseits der für alle zugänglichen Benutzeroberflächen statt, die ihrerseits in immer stärkerem Maß mit Icons – Bildern – arbeiten. Und selbst im Falle von frei zugänglichen Software-Codes ist zu fragen, um welche Art Text es sich hier handelt – ob in diesen Fällen gar von Literatur die Rede sein kann. Insofern ist die Frage nach der Lesbarkeit des Computers nicht nur eine Frage nach der Zukunft des Lesens (geht es um Sinn oder um Information?) sondern vielmehr nach dem (Zu-)Stand unserer Schriftkultur selbst.
Die Orthographie ist ein wichtiger Baustein des Fremdsprachenunterrichts, in der Schreiberwerbsforschung im Fremdsprachenkontext konzentrierte man sich dagegen auf Phänomene der Textgestaltung (z.B. Portman 1991). Es wird eine korpusbasierte Untersuchung von Orthographiefehlern in Texten fortgeschrittener Lernender des Deutschen als Fremdsprache (DaF) vorgestellt. Als Datengrundlage dient das Lernerkorpus Falko (fehlerannotiertes Lernerkorpus), ein Gemeinschaftsprojekt der Freien Universität und der Humboldt Universität Berlin (http://www2.hu-berlin.de/korpling/projekte/falko/FalkoKernBeschreibung.pdf). In diesem Korpus werden sog. Wortschreibungsfehler (vgl. Eisenberg 2004) analysiert werden. Die Untersuchung geht von der Annahme aus, dass sich, abgesehen von direkten Übertragungen, die Beschaffenheit der Orthographie einer Muttersprache (L1) nicht signifikant auf die Lernerorthographie (die Orthographie der Zielsprache) auswirkt. Diese Annahme soll an ausgewählten Wortschreibungsfehlern überprüft werden, so z.B. an fehlerhaften Dehnungs- und Schärfungsmarkierungen englischer DaF-Lernender. Sollte die L1 einen nachweisbaren Einfluss auf die Lernerorthographie haben, so müssten bspw. signifikant mehr Fehler bei der dem Englischen unbekannten Dehnungsgraphie mit Dehnungs-h auftreten als bei der dem Englischen bekannten Schärfungsgraphie mithilfe von Konsonantendopplung im Silbengelenk. Die Ergebnisse der Korpusuntersuchung werden in einem spracherwerbstheoretischen Rahmen diskutiert werden.
Das Medizinstudium und die spätere Berufstätigkeit werden als stressig angesehen; dennoch liegen nur wenige Daten zur Stressbelastung von Medizinstudenten und Ärzten vor. Als Teil einer umfangreichen Erhebung zur Stressbelastung haben wir die Stressbelastung und Resilienz von Frankfurter Medizinstudenten in den ersten Wochen des 1. vorklinischen Semesters erhoben (Trierer Inventar zum chronischen Stress TICS, Resilienz-Skala RS11); an der Studie nahmen 348 von 383 Studienanfängern (90,8%) teil. Übereinstimmend mit Ergebnissen aus dem 5. Semester zeigen die Studenten des 1. Semesters hohe Werte insbesondere in den Teilskalen Überlastung und Überforderung; auffallend sind ebenfalls hohe Werte in den Skalen Soziale Isolation und Summenscore. Ein T-Score (altersnormierter Normalwert = 50) über der 2fachen Vertrauensgrenze findet sich im Summenscore (17,2%), chronische Besorgnis (17,8%), Überforderung (11,2%) und Überlastung (22,7%), während in anderen Skalen entsprechende Werte nur bei 1–5% der Teilnehmer erreicht wurden. Die Skalen Überlastung, Erfolgsdruck, chronische Besorgnis sowie der Summenscore sind weitgehend normalverteilt (Schiefe <0,2), dieser Wert beträgt für die anderen Skalen 0,45–0,65. Zwischen den Unterskalen finden sich Korrelationskoeffizienten >0,5 für Überlastung und Überforderung sowie chronischer Besorgnis, zwischen Überforderung und mangelnder sozialer Anerkennung, sozialer Isolierung und chronischer Besorgnis sowie zwischen sozialen Spannungen, sozialer Isolierung und chronischer Besorgnis. Parallel wurde die Resilienz mit Hilfe des Fragebogens RS11 erhoben (kein Optimum, hohe Werte weisen auf Resilienz hin). Bei einer Maximalpunktzahl von 77 erreichten die Studenten 62,2 +/– 8,8 Punkte, bei einer ausgeprägten rechtsschiefen Verteilung. Zwischen der Stressbelastung und der Resilienz fand sich keine relevante Korrelation, mit einem Maximalwert von –0,267 zwischen dem RS11-Score und der Subskala Überforderung. Die Daten belegen ein bereits zu Studienbeginn vorliegendes hohes Maß an Überlastung und Überforderung; dieser Stress korreliert nicht mit der Fähigkeit, mit Stress adäquat umzugehen (Resilienz).
Wassergefiltertes Infrarot A (wIRA) ist eine spezielle Form der Wärmestrahlung mit hohem Eindringvermögen in das Gewebe bei geringer thermischer Oberflächenbelastung. wIRA wirkt sowohl über thermische und temperaturabhängige als auch über nicht-thermische und temperaturunabhängige Effekte. wIRA erzeugt ein therapeutisch nutzbares Wärmefeld im Gewebe und steigert Temperatur und Sauerstoffpartialdruck im Gewebe sowie die Gewebedurchblutung. Diese drei Faktoren sind entscheidend für eine ausreichende Versorgung des Gewebes mit Energie und Sauerstoff und deshalb auch für alle Prozesse der Regeneration und Heilung, wie Wundheilung und Infektionsabwehr. wIRA vermag Schmerzen deutlich zu mindern (mit bemerkenswert niedrigerem Analgetikabedarf) und eine erhöhte Sekretion (bei Wunden oder z.B. tracheal/bronchial) und Entzündung herabzusetzen sowie positive immunmodulierende Effekte zu zeigen. wIRA kann sowohl bei akuten als auch bei chronischen Wunden einschließlich infizierter Wunden die Wundheilung beschleunigen oder bei stagnierender Wundheilung verbessern. Selbst der normale Wundheilungsprozess kann verbessert werden. wIRA kann zur Therapie von hartnäckigen vulgären Hand- und Fußwarzen (ein Therapiezyklus mit kontinuierlicher Keratolyse mit Salizylsäurepflaster, unblutiger Kürettage, einer wIRA-Bestrahlung von 30 Minuten pro Woche für 6-9 Wochen), bei Herpes labialis, Herpes zoster, Condylomata acuminata, Sklerodermie, Morphea und Akne papulopustulosa eingesetzt werden. wIRA kann zur Resorptionsverbesserung topischer Dermatika und Substanzen (wie Cortison oder lokaler Anästhetika) als Alternative zu einem Okklusivverband verwendet werden. wIRA kann im Rahmen einer photodynamischen Therapie zusammen mit einer oder mehreren Wirkbanden im sichtbaren Bereich und einem topisch aufgetragenen Photosensibilisator bei aktinischen Keratosen eingesetzt werden. Im Rahmen von Physiotherapie, Sportmedizin und Orthopädie kann die klinische Anwendung von wIRA präventiv, therapeutisch, regenerativ oder rehabilitativ erfolgen. wIRA kann eingesetzt werden bei muskulären Verspannungen, Myogelosen, Lumbago, Erkrankungen des rheumatischen Formenkreises, M. Bechterew, Arthrosen, Arthritiden, Kontusionen, Fibromyalgie (vorzugsweise wIRA in Kombination mit Bewegung, d.h. wIRA mit leichter Ergometerarbeit), zur Regeneration nach Sport (wIRA allein oder wIRA in Kombination mit Bewegung), zur postoperativen Rehabilitation und zur Förderung der Lipolyse (wIRA in Kombination mit Bewegung). In der Neonatologie kann wIRA zur Aufrechterhaltung oder Erhöhung der Körpertemperatur und zum Erzeugen eines "Wärmedepots" vor einem erforderlichen Transport des Neugeborenen verwendet werden. In der Onkologie kann wIRA für eine (lokale oder systemische) Hyperthermie in Kombination mit Strahlentherapie oder Chemotherapie eingesetzt werden.
Einleitung Welche Methoden der Leistungssteigerung gibt es eigentlich im Sport? Von körperlicher Aktivität und Training (mit einer Fülle positiver Wirkungen) über Ernährung und Nahrungsergänzungsmittel bis zu unerlaubten Mitteln. Welche Methoden wirken? Was ist sinnvoll? Was ist erlaubt? Was ist überflüssig? Wo kann der einzelne mit seinen eigenen Erwartungshaltungen dazu beitragen, zum Beispiel unrealistischen Leistungsdruck gegenüber Sporttreibenden und damit eine potentielle Dopingproblematik im Ursprung zu vermeiden? Diese Fragen wollte die Veranstaltung „Leistungssteigerung im Sport - Ursachen, Methoden, Bewertungen, Lösungen“ des Arbeitskreises Sportmedizin der Akademie für ärztliche Fortbildung und Weiterbildung der Landesärztekammer Hessen (Prof. Dr. med. Gerd Hoffmann, Prof. Dr. med. Ingeborg Siegfried) und des Hessischen Ärzteblattes (Prof. Dr. med. Toni Graf-Baumann) in Zusammenarbeit mit der Sektion Breiten-, Freizeit- und Alterssport der Deutschen Gesellschaft für Sportmedizin und Prävention (DGSP), der Verbände mit besonderer Aufgabenstellung, Verbände für Wissenschaft und Bildung und Förderverbände (VmbAWBF) im Deutschen Sportbund (DSB) und dem FIFA Medical Assessment and Research Center (F-MARC) in einer bevölkerungsoffenen Informationsveranstaltung am 09.05.2003 und einer Fort- und Weiterbildungsveranstaltung am 10.05.2003 beantworten. Bericht über die Beiträge - Eröffnung - Ursachen für Leistungssteigerung im Sport und Lösungsansätze (Dr. med. Udo Schreiber) - Training, Übertraining, Regeneration, Rehabilitation - Grundsätzliche Überlegungen unter spezieller Berücksichtigung des Bewegungssystems (Dr. med. Udo Schreiber) - Training, Übertraining, Regeneration, Rehabilitation - sportmedizinisch-internistische Aspekte: Wirkung körperlicher Aktivität auf verschiedene Organsysteme (Prof. Dr. med. Gerd Hoffmann) - Muskulatur und Muskelphysiologie (Dr. med. Udo Schreiber) - Auswirkungen körperlicher Aktivität auf das Immunsystem (Prof. Dr. med. Reinhard Bretzel) - Sport trotz Medikamenten und Medikamente wegen Sport (Prof. Dr. med. Bernd Waldecker) - Ernährung und Sport einschließlich sportartspezifischer und trainingsphasenspezifischer Aspekte (Prof. Dr. med. Gerd Hoffmann) - Flüssigkeitssubstitution im Sport (Diplom-Oecotrophologin Dr. Annette Hauenschild) - Nahrungsergänzungsmittel zur Leistungssteigerung im Sport (Dr. med. Kurt-Reiner Geiß) - Leistungssteigernde Mittel und Methoden im Sport; Grenzen zur verbotenen Leistungssteigerung im Sport - Doping im Sport (Prof. Dr. med. Eide-Dittmar Lübs) - Ethische und rechtliche Aspekte verbotener Leistungssteigerung (Prof. Dr. med. Toni Graf-Baumann) - Brauchen wir leistungssteigernde Verfahren? Lösungsansätze (Dr. med. Dierk Heimann)
Ziel des Seminars war es, für die "Volkskrankheit Rückenschmerz" vom sportorthopädisch-traumatologisch-sportmedizinischen, vom internistischen, vom schmerztherapeutisch-neurochirurgischen und vom physiotherapeutischen Standpunkt aus neue, auf physiologisch-pathophysiologischen Kenntnissen basierende Sichtweisen mit Relevanz für Prävention und Therapie des verbreiteten Problems Rückenschmerz zu präsentieren.
Der Rückenschmerz als Folge der biomechanischen Besonderheit des "Zweibeiners" im Zeitalter der Hypomobilisation und Hyperalimentation - Lendenwirbelsäulen- und Halswirbelsäulen-Beschwerden (Dr. med. Udo Schreiber, Frankfurt am Main): Der Rückenschmerz - besonders der tiefe Rückenschmerz - des Menschen ist wahrscheinlich meist durch eine Fehlstatik verursacht. In Deutschland beträgt die Inzidenz von Rückenschmerzen während des Lebens fast 80%. Dr. Schreiber legte dar, dass die anatomische Längendifferenz der Beine zu verschiedenen Pathologien im Halte- und Bewegungsapparat führt. Die pathologischen Veränderungen - z.B. transversaler Schub auf das Ileosakralgelenk - treten meistens auf der längeren Beinseite mit einer Skoliose der Wirbelsäule mit erhöhten Druckbelastungen auf der Konkavseite der Skoliose in den Bandscheiben und mit typischen Blockaden in den verschiedenen Wirbelsäulensegmenten auf. Sinnvolle Diagnostik beinhaltet Anamnese und umfangreiche klinische Untersuchung zum Erkennen von Funktionsdefiziten anstelle von nur bildgebender Diagnostik. Sinnvolle Therapien sind - neben analgetischen Therapien, wie manueller Therapie, Matrix-Rhythmus-Therapie, wassergefiltertem Infrarot A (wIRA), Ohrakupunktur, Magnetfeldresonanztherapie, Mikrostromtherapie, Injektionstherapie - vor allem die therapeutisch-präventiven Maßnahmen Dehnen verkürzter Muskulatur und partieller Ausgleich von Beinlängendifferenzen. Wirtschaftlich gesehen verursacht die Fehlstatik immense indirekte und direkte Krankheitskosten, wobei die aufgezeigten sinnvollen Therapien zielführend und zugleich kostengünstig sind.
Ein ganzheitliches Therapiekonzept mit Matrix-Rhythmus-Therapie, Hyperthermie, Sauerstoff und Entsäuerung - Therapie von muskulo-skelettalen Beschwerden (Dr. med. Bernhard Dickreiter, Nordrach): Die Kosten zur Behandlung von Rückenschmerzen belasten in den vergangenen Jahren zunehmend die Krankenkassen durch Diagnose- und Therapiekosten sowie die Betriebe durch Ausfallzeiten. Rückenschulkonzepte der vergangenen Jahre zeigen aus Sicht von Dr. Dickreiter nicht den gewünschten Effekt. Vielversprechende neue Sichtweisen für den Umgang mit diesem Krankheitsbild ergeben sich aus den aktuellen Ergebnissen der zellbiologischen Grundlagenforschungen und dem daraus resultierenden neuen "Matrix-Therapie-Konzept": Die Ursache der muskulo-skelettalen Beschwerden im Sinne eines myofaszialen, myo-ischämisch-azidotischen und myotendinitischen Schmerzsyndroms wird in der Verspannung der Muskulatur mit einer Energiekrise auf zellulärer Ebene gesehen. Beim neuen Therapiekonzept steht nicht eine Therapiefülle wie bisher im Vordergrund, sondern ein auf Effektivität ausgerichtetes modulares Konzept, welches die zellbiologischen Prozesse auf extrazellulärer Matrixebene gezielt beeinflusst. Wesentliche Bestandteile des Konzepts sind die Matrix-Rhythmus-Therapie als tiefenwirksame Mikroextensionstechnik, die lokale Wärme mit wassergefiltertem Infrarot A (wIRA) bzw. die Infrarot-Ganzkörperhyperthermie, die körperliche Bewegung zur lokalen Verbesserung der Sauerstoffversorgung, die Sauerstofftherapie einschließlich Hyperbarer Oxygenation (HBO) und die orthomolekulare Substitution und "gesunde" Ernährung.
Konservative, interventionelle und operative Verfahren aus der Sicht des Schmerztherapeuten und Neurochirurgen: Stellenwert im Hinblick auf ein integriertes Behandlungskonzept (Dr. med. Volker Ritzel, Offenbach am Main): Mit einem interdisziplinären Therapiekonzept (Hausarzt; Orthopädie, Neurochirurgie, Schmerztherapie, Krankengymnastik/Physiotherapie, Psychotherapie) multimodal mit Nutzung konservativer, interventioneller und operativer Verfahren können heute Rückenschmerzen erfolgreich behandelt werden. Dabei ist besonders auf eine rechtzeitige suffiziente Therapie Wert zu legen (u.a. protektive, antizipierende Analgesie), um die Ausbildung eines Schmerzgedächtnisses mit Chronifizierung und Verselbstständigung des Schmerzes zu vermeiden. Zu den konservativen Therapiemöglichkeiten gehören neben einer medikamentösen Schmerztherapie nach dem WHO-Stufenschema die Transkutane elektrische Nervenstimulation (TENS), Physiotherapie, Psychotherapie, übende Verfahren (Progressive Muskelentspannung nach Jakobsen, Autogenes Training, Göttinger Rücken-Aktiv-Programm GRAP), Ergotherapie, Akupunktur und Balneotherapie. Weitere schmerztherapeutisch-neurochirurgische Verfahren sind die therapeutische Lokalanästhesie, CT-gesteuerte Verfahren, die perkutane Laser-Diskus-Dekompression, denervierende Verfahren, die endoskopische Sequestrektomie, die Vertebroplastie, offen-operative Verfahren, die mikrochirurgische Dekompression sowie Implantatverfahren wie die minimal-invasive zervikale und lumbale Spondylodese. Ambulante/Praxisklinische Operationen können heute in einer neurochirurgischen Praxisklinik im Rahmen des modernen Konzepts der Integrationsversorgung erfolgen.
Rückenschule zur primären, sekundären und tertiären Prävention - Lebensstiländerung, Krankengymnastik/Physiotherapie - im Zeitalter integrierter ambulanter Versorgung (Monika Kremer, Frankfurt am Main): Moderne Therapiestrategien bevorzugen - soweit möglich - ein konservatives gegenüber einem operativen Vorgehen, ein aktives gegenüber einem passiven, ein multimodales gegenüber einem monotherapeutischen Vorgehen. Bewegungs- und trainingstherapeutische Maßnahmen (z.B. Erweiterte Ambulante Physiotherapie EAP als Komplextherapie mit den Bestandteilen Krankengymnastik/Physiotherapie, Physikalische Therapie und Medizinische Trainingstherapie MTT) sind wichtige Bestandteile moderner Rückenkonzepte. Die Arbeitsplatzsituation wird besonders berücksichtigt mit zunehmender Integration von Ergonomie-Trainingsprogrammen. Der Begriff "Präventive Rückenschule" umfasst die Vermittlung und Anwendung wirkungsvoller Alltagsstrategien zur Vermeidung hoher Rückenbelastungen, um der Entwicklung funktioneller und degenerativer Krankheiten vornehmlich im Bereich der Wirbelsäule einschließlich muskulärer Dysbalancen vorzubeugen. Hierzu gehört ein rückengerechtes Alltagsverhalten (z.B. richtiges körpernahes Heben und Tragen). Besonders effektiv sind aktive Trainingsformen zum Muskelaufbau und zur Verbesserung der Ausdauer in Kombination mit verhaltensorientierten Trainingsprogrammen mit dem Ziel der Steigerung von Wohlbefinden und Lebensqualität. Erläutert werden das Konzept des Forschungs- und Präventionszentrums Köln (FPZ), das Kieser-Training, das Baunataler Rücken-Konzept (BRK) und das tergumed®-Rückenkonzept. Häufig können Rückenschmerzen durch rückengerechte Verhaltensweisen sowie präventives und rehabilitatives Rückentraining vermieden werden oder es kann nach ihrem Auftreten rehabilitativ wieder ein schmerzfreier stabiler Gesundheitszustand erreicht werden.
Ziel des Seminars war, sportmedizinische und präventivmedizinische Aspekte zu Fitness und Wellness zu präsentieren und hierbei insbesondere auf die historische Entwicklung der Sportmedizin einzugehen sowie Techniken und Wirkungen verschiedener Massageformen und ganzheitliche asiatische Gesundheitsansätze und Bewegungskünste zu erörtern.
In hermeneutischen Zugangsweisen zu literarischen Texten spielt das Ganze eine doppelte Rolle: Zum einen scheint hermeneutisches Verstehen grundsätzlich nach einer wie auch immer gearteten Form von Ganzheit zu tendieren, sei es nur in irgendeiner Form des Zusammenhanges, sei es als „Sinn des Ganzen“, wie die stärkste Formulierung dieser Tendenz lautet. Zum andern kommt bei literarischen Texten, dies schon bei Aristoteles und dann verstärkt seit der Kunstperiode, die Utopie des ästhetischen Ganzen ins Spiel. Diese doppelte Rolle veranschaulicht zum Beispiel eine aktuelle hermeneutische Publikation des Komparatisten Horst-Jürgen Gerigk („Lesen und Interpretieren“, 2002, 30): „Wir müssen das Ganze kennen, um eine ausserfiktionale Begründung einsehen zu können. Das wiederum bedeutet, dass durch das Denken der poetologischen Differenz immer das Ganze fixiert wird. Ja, der Sinn des Ganzen kann sich nur erschließen, wenn die innerfiktionalen Sachverhalte auf ihre außerfiktionale Begründung angesehen werden.“ Die Postmoderne hingegen hat, in Weiterführung der Moderne, das Ganze, als ästhetische wie als hermeneutische Kategorie ideologiekritisch verworfen und ihr den Befund der Fragmentarizität entgegengehalten. Die Notwendigkeit dieser Kritik soll nicht grundsätzlich bestritten werden. Doch lässt sich das künstlerische Ideal des Ganzen in Produktion und Rezeption von Kunst gänzlich verwerfen? Ist es nicht eher so, dass Spielarten von Ganzheit weiterhin, wenn auch eine theoretisch unbewältigte, weil tabuisierte Rolle spielen? Aus dieser Frage ergibt sich das Forschungsziel, die Kategorie des Ganzen in einem ersten Schritt, von Neuem zu beobachten. Dies soll hier anhand eines konkreten Materials, der zwei Fassungen des „Grünen Heinrich“, geschehen. Die Novellentheorie operiert mit einer bestimmten Spielart von Ganzheit: Eine Novelle soll ein überschaubares, auf einen Punkt zentriertes Geschehen enthalten. Die Formel der „merkwürdigen Begebenheit“ oder die Rede vom Wendepunkt ist Ausdruck dieser Vorstellung, die mit Aristoteles Bestimmung des Dramas eng verwandt ist. Diese Vorstellung eines geschlossenen Handlungs-Geschehens findet sich im „Grünen Heinrich“ thematisiert; so ist davon die Rede, dass eine Handlung in ein erbauliches Ende einmünden sollte (5. Kapitel), und in Äußerungen Kellers zum „Grünen Heinrich“ ist von der „Endabsicht“ die Rede, die er mit dem ganzen Buch verfolge. Dass die literarische Großform, welche das Buch darstellt, den ästhetischen Postulaten der Novellentheorie aber nicht genügen kann und will, wird mehrmals thematisiert und verteidigt. Insbesondere wird dies in der ersten Fassung auch in einem Vorwort thematisch, welches in der zweiten Fassung wegfällt. Die zweite Fassung, welche Keller Ende der 70er Jahre herstellt, stellt den Versuch einer Verbesserung der ersten dar; in der Umschreibung des ganzen Textes in die erste Person dokumentiert sich Kellers Wunsch zur Vereinheitlichung. In welchem Verhältnis steht diese ungewöhnliche zweite Autorisierung mit der zeitgenössischen Novellentheorie und deren Utopie eines künstlerischen Ganzen?
Siegfried Kracauer hat bereits 1947 in seinem Buch „Von Caligari bis Hitler“ davon gesprochen, dass sich der Film spiegelbildlich zur Gesellschaft, aus der er stammt, verhalte. Insofern waren Film und Gesellschaft also immer schon voneinander ent-grenzt: Was im Film gezeigt wird ist ein Reflex dessen, was in der sozialen Wirklichkeit geschehen ist oder gerade geschieht. Das gilt für den Zeichentrickfilm ebenso wie für den Dokumentarfilm, für das Melodram genauso wie für den Horrorfilm. Es ist allein eine Frage des Abstraktionsgrades. Film ist damit wie jede Kunstgattung lso ein Seismograph gesellschaftlicher Phänomene und darüber hinaus ein Medium, das mit seinen Bildern abstrakte Phänomene der Wirklichkeit bildhaft zu konkretisieren in der Lage ist. Dies, seine prinzipiell hohe Verfügbarkeit durch zahlreiche Medien und seine vermeintliche Trivialität, macht ihn zu einer Kunstform, die nicht nur auf Diskurse reagiert, sondern an ihnen teilnimmt, sie sogar initiiert und selbst Gegenstand von Diskursen wird, die seinen Kunstwerk-Charakter manchmal vergessen lassen.
Konventionalisierte Routineformeln sind standardisierte Ausdrücke, die in verschiedenen Situationen der täglichen Kommunikation verwendet werden. Für das Fremdsprachenlernen ist es sehr wichtig, solche Routineformeln und Ausdrücke zu lernen, die in einer bestimmten Situation adäquat sind und erwartet werden. Die Routineformeln werden im Hinblick auf ihre Semantik, Syntax und ihre kommunikative Funktion beschrieben. Abschließend werden konventionalisierte Routineformeln im Tschechischen und im Deutschen im Hinblick auf ihre grammatische Struktur und ihre lexikalischen Komponenten verglichen.
Der (...) Beitrag setzt sich strukturell auf drei Ebenen mit Rolf Hochhuths Dramenpoetik auseinander. Erstens wird die gegenläufige Beziehung zwischen ihrem historisch-adäquaten Gestaltungsanspruch und ihrer literarisch-symbolhaften Überformung analysiert. Zweitens wird Hochhuths Verhältnis zu den für ihn poetologisch bedeutsamen Vorgängern Lessing und Schiller untersucht. Drittens geht es um die Frage, welche Konsequenzen sich aus der in den »Guerillas« formulierten Darstellungsabsicht ziehen lassen, der realen Wirklichkeit durch die Projektion einen neuen (literarischen) Wirklichkeit entgegenzutreten.