Refine
Year of publication
- 2005 (1229) (remove)
Document Type
- Article (540)
- Doctoral Thesis (191)
- Part of Periodical (123)
- Review (107)
- Book (68)
- Part of a Book (57)
- Report (32)
- Working Paper (29)
- Conference Proceeding (25)
- diplomthesis (14)
Language
- German (1229) (remove)
Keywords
- Rezension (21)
- Deutsch (20)
- Deutschland (20)
- Frankfurt <Main> / Universität (20)
- Johann Wolfgang von Goethe (20)
- Biographie (15)
- Literatur (15)
- Vormärz (15)
- Frankfurt <Main> (14)
- Frankfurt (12)
Institute
- Medizin (117)
- Extern (49)
- Rechtswissenschaft (42)
- Präsidium (38)
- Biochemie und Chemie (31)
- Biowissenschaften (27)
- Neuere Philologien (25)
- Physik (25)
- Erziehungswissenschaften (24)
- Geschichtswissenschaften (23)
Die Heilige Schrift der Gemeinde der Sikh ist Adi Sri Guru Grantha Sahibaji oder „der am Anfang stehende Guru in Gestalt des Buches". Guru Govind Singh (1675-1708) setzte kurz vor seinem Tod eine erweiterte Fassung des Adi Grantha als seinen Nachfolger im Guruamt ein. Der Adi Grantha ist ein poetisches Werk, das keinerlei Prosa enthält. Autoren der verschiedenen Teile der Schrift gehörten nur zum Teil der Sikh-Gemeinde an: Guru Nanak, der Gründer der Religion der Sikh, sowie seine Nachfolger Angad, Amar Das, Ram Das, Arun, Teg Bahadur und Govind Singh. Aus anderen Religionen stammen die sogenannten Bhagats (Fromme) wie der islamische Sufi Kabir, ein Weber von Beruf, oder der hochberühmte Krishnadichter Sur Das. Schließlich zählen noch einige Bhatts oder Barden wie Haribans oder Ganga zu den Mitverfassern. Zu dieser multireligösen Verfasserschaft tritt als weitere Besonderheit dieser Heiligen Schrift ihre Vielsprachigkeit. Der Urtext des Adi Grantha ist in seinen verschiedenen Teilen in unterschiedlichen Sprachen und Dialekten abgefaßt (Hindi Sanskrit, Marathi, Persisch, Arabisch usw.). Zwar waren Guru Nanak und seine Nachfolger Panjabi; dennoch sprachen sie ein Idiom, das nach E. Trumpp eine Mischung aus Hindi und Panjabi war. Guru Govind Singh jedoch schrieb in reinem Hindi. Das Alphabet des Adi Grantha ist das Gurmukhi, eine Schrift, die Guru Nanak für die Abfassung seines Schriftteils entwickelt haben soll. Der Adi Grantha setzt sich aus liturgischen Gebrauchstexten, aus Psalmen und Preisgesängen zusammen.
Im Kopftuchstreit wird von konservativer Seite als Argument ins Feld geführt, daß christliche Symbole Vorrang vor denen anderer Religionen haben sollen, weil sich unsere Gesellschaftskultur weltanschaulich vom Christentum herleite. Immerhin wird damit zwar politisch, wenn auch auf negative Weise, anerkannt, daß wir eine multireligiöse Gesellschaft seien, aber dennoch soll die Mehrheitsreligion besondere Privilegien genießen. In vielen Staaten, in denen die Muslime die Mehrheit der Bevölkerung ausmachen, wird übrigens ähnlich gedacht und auch verfahren. Warum tut sich aber unser Staatswesen, das sich doch als Vorreiter der Menschenrechte versteht, immer noch so schwer, alle gesetzestreuen Religionen völlig gleich zu behandeln und allen gesetzestreuen Bürgern das gleiche Recht auf Gestaltung einer individuellen Religionskultur zuzugestehen? Ein Rückgriff auf die christliche Religionsgeschichte soll helfen, dies besser zu verstehen.
In der reformatorischen Tradition steht die zweckfreie Liebe zum Nächsten im Zentrum. Sie hat ihren Grund darin, dass Gott sich den Menschen barmherzig zugewandt und ihr gestörtes Verhältnis zu ihm in Ordnung gebracht hat, was sie von sich aus nicht vermochten. Leben und Sterben Jesu Christi sind der Ausdruck der Barmherzigkeit Gottes. Zweckfreie Liebe zum Mitmenschen. Weil Christen das Himmelreich nach dem Willen Gottes bereits erlangt haben und ihr Verhältnis zu ihm nicht aus eigener Kraft in Ordnung zu bringen vermögen, können sie durch Hilfe für ihre Mitmenschen nichts zu ihrem Heil beitragen. Sie setzten sich für andere ein, weil der barmherzige Gott sie reich beschenkt hat. Darüber hinaus ist weder ein bestimmtes religiöses Bewusstseins, noch rituelle Reinheit, noch der Zugehörigkeit zu einer bestimmten Gruppe, noch eine Missionsabsicht von Nöten.
In meinem Beitrag nehme ich Fragen nach Wissenskonzepten auf, die sich mit neuen Wissensformen und mit der Herstellung von Wissen in außerwissenschaftlichen Kontexten beschäftigen. Ich betrachte Wissen von IT-Professionals als einen Typ von Wissen, der nicht ausschließlich technisch ist, sondern auch andere Wissenssorten enthält. IT-Professionals gelten als als Wissensarbeiter („knowledge workers“) [Schultze 1999, 7] und Professionskulturen („occupational cultures“) mit technowissenschaftlichem Expertenwissen und geteilten Perspektiven von Spezialisten. Der Begriff des Wissensarbeiters wurde verstärkt in postindustriellen Theorien aufgenommen. Diese Theorien prognostizierten die zunehmende Bedeutung menschlicher Intelligenz in den Arbeitsprozessen der entstehenden Wissensökonomie [Bell 1973; Castells 1998] sowie die Herausbildung neuer Beschäftigung für autonome, gebildete Wissensarbeiter [Castells 2000, 257; Drucker 2001; Stehr/Ericson 1992, 5f.]. Techniker bzw. Ingenieure, die eine neue Technologie entwickeln, sowie alle, die an Design, Entwicklung und Verbreitung dieser neuen Technologie beteiligt sind, werden außerdem als Akteure beschrieben, die sich ins Feld soziologischer Analyse bewegen. Sie tun das insofern, als sie auch die Modelle von Gesellschaft oder Welt entwerfen, in der ihre technischen Entwicklungen eingesetzt werden sollen [Callon 1987, 84]. ...
Das Herz des Menschen wurde in der Geschichte lange Zeit als zentrales Organ des Körpers angesehen. Noch heute nimmt es vom emotionalen Aspekt gesehen, eine bedeutende Stellung ein. Herzerkrankungen im Kindesalter werden daher von Patienten und Angehörigen als ernsthafte Bedrohung erlebt. Acht von tausend Kindern werden mit einem Herzfehler geboren, fast 3700 Herzoperationen wurden im Jahr 2004 in der Bundesrepublik Deutschland an Kindern und Jugendlichen bis 17 Jahren durchgeführt. Aufgrund verbesserter Diagnose- und Operationsmöglichkeiten erleben heute über 90% der Kinder mit Herzfehler das Erwachsenenalter. Dieser Verbesserung der Lebensqualität und –dauer folgte eine zunehmende wissenschaftliche Betrachtung der Probleme nach Korrektur eines Herzfehlers. Neben den direkten Folgen der Erkrankung und der Operation, wurden auch die langfristigen Folgen eines operativen Eingriffes für die autonome Regulationsfähigkeit des Herzens untersucht. Ein bedeutendes Hilfsmittel hierfür stellt die Analyse, der durch das vegetative Nervensystem beeinflussten Herzfrequenzvariabilität (HRV) dar. Ein operativer Eingriff am Herzen zerstört autonome Nervenfasern und schränkt die Einflüsse des parasympathischen und sympathischen Anteiles des vegetativen Nervensystems auf das Herz ein. Die Messungen der HRV werden heute auch im Sport zur Trainingssteuerung eingesetzt. Mit ihr lassen sich Belastungseffekte, sowie regenerative Aspekte messen. In zwei Studien wurden Veränderungen der Anpassungsfähigkeit nach operierten Herzfehlern einerseits und Reaktionen des Herzens auf sportliche Belastung und Regeneration andererseits, im Rahmen dieser Dissertation analysiert. Im ersten Teil der Arbeit wurden, im Sinne einer Querschnittstudie, die Veränderungen der HRV bei Kindern und Jugendlichen im Alter zwischen 8 Monaten und 18 Jahren nach operativer Korrektur einer Transposition der großen Arterien (TGA, n = 11), eines Vorhofseptumdefektes (ASD, 13), eines Ventrikelseptumdefektes (VSD, 17), einer Fallot'schen Tetralogie (TOF, 13), eines kompletten Atrioventrikularkanales (CAVC, 5) und nach abgeschlossener Fontan-Zirkulation (totale cavopulmonale Connection, TCPC, 11) untersucht. Die Ergebnisse wurden mit denen einer geschlechts- und altersangepassten Kontrollgruppe (16) verglichen. Die Kurzzeit-HRVRegistrierungen erfolgten im Schlaf mittels Lifecard CF compact Flashcard Holter (Fa. Reynolds). Ein Schwerpunkt bei dieser Untersuchung stellte die Differenzierung zwischen Veränderungen der parasympathischen und der sympathischen Aktivität, mit Hilfe der Spektralanalyse, bei unterschiedlichen Herzfehlern dar. Hierzu wurden die Zeitbereichsparameter „mittlerer Abstand zweier R-Zacken“ (mRR), Standardabweichung (SD) und die „Quadratwurzel des quadrierten Mittelwertes der Summe aller Differenzen zwischen aufeinander folgenden RR-Intervallen“ (rMSSD), sowie die Frequenzbereichsparameter low-frequency (LF) als teilweises Pendant zur sympathischen Aktivität, high-frequency (HF) als Korrelat des parasympathischen Anteiles und total power (TP), ermittelt. Aus letzteren wurden die Quotienten der sympathovagalen Balance (LF/HF) und die normierten Frequenzbereiche (HF/TP und LF/TP) errechnet. Es konnte gezeigt werden, dass die SD (als Parameter der globalen Herzfrequenzvariabilität) bei großer interindividueller Streubreite in allen Patientengruppen gegenüber der Kontrollgruppe reduziert war. Die stärkste Reduktion im Median fand sich dabei in den Gruppen TGA und TCPC, für letztere war auch die größte Streubreite charakteristisch. In allen Patientengruppen, bis auf TGA, fand sich in der LF/HF eine Verschiebung zur sympathischen Aktivität. In einer zweiten Studie wurde bei 20 Patienten der jährlich stattfindenden Skifreizeiten für herzkranke Kinder und Jugendliche (Pädiatrische Kardiologie des Universitätsklinikums Frankfurt und Kinderherzstiftung in Herzstiftung e.V.) ein Orthostasetest zur Evaluierung der Reaktion auf Kreislaufbelastung, im Sinne einer Längsschnittstudie, zu Beginn und am Ende der einwöchigen Freizeit durchgeführt. Im Zusammenhang mit dem Ergebnis einer in der vorhergehenden Nacht, ohne störende Umwelteinflüsse, aufgezeichneten Messung, kann die adaptive Leistung des Herzens auf Kreislaufstress und die Veränderungen aufgrund sportlich-regenerativer Einflüsse während der Skiwoche bestimmt werden. Die Messungen erfolgten analog der in Studie I durchgeführten Methodik. Bei ca. 70% der Kinder zeigte sich eine Verstärkung der nächtlichen TP und eine Zunahme der HF im entsprechenden Teil des Orthostasetests. Bei 10% war es zu einer Abnahme dieser Parameter gekommen, 20% der Kinder zeigten uneinheitliche Resultate der zwei Messungen. Eine knappe Mehrheit der Kinder zeigte einen Anstieg der LF unter Orthostase. Die Ergebnisse der ersten Studie haben gezeigt, dass die Kurzzeitmessung der Herzfrequenzvariabilität in der Lage ist, Veränderungen der autonomen Regulation bei Kindern und Jugendlichen nach Herzoperation darzustellen. Dabei konnte gezeigt werden, dass Eingriffe mit Eröffnung des Vorhof- oder Kammermyokards hauptsächliche eine Reduktion der parasympathischen Aktivität, Switch-Operationen nach TGA mit Durchtrennung der großen Gefäße und Vorhoferöffnung hingegen eine gleichmäßige Reduktion beider Anteile des vegetativen Nervensystems hervorrufen. Die vorwiegende Reduktion parasympathischer Anteile der Herzfrequenzvariabilität bei verschiedenen Herzfehlern, wird in mehreren Studien beschrieben. Häufig beziehen sich diese jedoch nur auf wenige Herzfehler und ein direkter Vergleich der verschiedenen Ergebnisse dieser Studien ist durch unterschiedliche methodische Ansätze nur eingeschränkt möglich. Der Effekt einer gleichmäßigen Reduktion der Herzfrequenzvariabilität bei Patienten mit TGA wurde bisher nicht erwähnt. In der zweiten Studie konnte gezeigt werden, dass sich Veränderungen der Herzfrequenzvariabilität herzkranker Kinder und Jugendlicher während einer einwöchigen Skifreizeit darstellen lassen. Die Mehrzahl der Kinder und Jugendlichen verbesserten ihre Fähigkeit zur Bewältigung von Kreislaufstress, indem sie nach dem Übergang vom Stehen zu liegender Position eine höhere vagale Aktivität aufbauen konnten. Dieses Ergebnis wurde durch eine deutlich verstärkte nächtliche Gesamtvariabilität bestätigt. Veränderungen, die in Übereinstimmung mit der Literatur eine Verbesserung des kardialen Risikos erwarten lassen. Es ist anzunehmen, dass die Ursache für diese Verbesserung in einem multifaktoriellen Geschehen aus körperlicher Aktivität, klimatischen Einflüssen, sowie einem veränderten sozialen Umfeld zu sehen ist. Drei der Kinder zeigten reduzierte Werte am Ende der Woche, welche auf eine verstärkte Stressbelastung schließen lassen. Die Wertigkeit des kontrovers diskutierten Parameters LF bleibt auch in dieser Studie unklar, obgleich ein Trend zu einer schnelleren Adaptation des Kreislaufs beim Übergang vom Liegen zum Stehen ermittelt werden konnte. Insgesamt bestätigen die Ergebnisse der Studie II die Richtigkeit der Durchführung auch provokanter Sportarten mit herzkranken Kindern unter adäquater kardiologischsportmedizinischer Betreuung.
Im Rahmen der vorliegenden Untersuchung sollte ermittelt werden, ob Zahnpasten und Mundspüllösungen abrasive und/oder korrosive Effekte auf Bestandteile festsitzender kieferorthopädischer Apparaturen (Bänder und Brackets) ausüben, und ob diese Effekte – wenn vorhanden – eine klinische Relevanz aufweisen. Insbesondere ging es dabei um die Fragestellung, ob durch die Anwendung der getesteten Mundhygieneprodukte die Oberflächenbeschaffenheit der genannten Bestandteile einer festsitzenden kieferorthopädischen Apparatur im Sinne einer Aufrauung verändert werden würde. Zu diesem Zweck wurden 4 unterschiedliche Zahnpasten und 2 Mundspüllösungen in 2 Versuchsreihen getestet: Im ersten Versuch wurden Molarenbänder für 35 Tage in Testlösungen eingelegt und anschließend auf Veränderungen der Oberflächenbeschaffenheit untersucht. Dies erfolgte per Rasterelektronenmikroskop und Rauigkeitsmessung. Etwaige Substanzverluste sollten mit Hilfe von Gewichtsbestimmung und chemischer Analyse (TXRF-Analyse) der Testlösungen nachgewiesen werden. Im zweiten Versuch wurden Molarenbänder und Brackets in eine Putzmaschine eingespannt und für einen Zeitraum, der einer Behandlungsdauer von 3 Jahren entsprach, die tägliche Reinigung mit Zahnbürste und Zahnpasta-Wassergemisch simuliert. Mundspüllösungen kamen hierbei nicht zum Einsatz. Die Prüfkörper wurden anschließend rasterelektronenmikroskopisch untersucht und einer Rauigkeitsmessung unterzogen. Insgesamt konnte in den durchgeführten Versuchen kein negativer Einfluss der getesteten Mundhygienemittel auf kieferorthopädische Bänder bzw. Brackets im Sinne einer Aufrauung der Materialoberflächen durch korrosive oder abrasive Prozesse festgestellt werden. Die rasterelektronenmikroskopischen Aufnahmen zeigten dahingehend keinerlei sichtbare Veränderungen. Bei den Rauigkeitsmessungen war dagegen sogar ein eher positiver Einfluss – zumindest durch Zahnpastaeinwirkung – zu verzeichnen: Im Putzversuch war bei allen Bändern, bei denen Zahnpasten zum Einsatz kamen, eine Verringerung des Mittenrauwerts Ra zu erkennen, die in einer gewissen Korrelation mit dem RDA-Wert stand. Eine Erhöhung von Ra war nur bei Probe 5 (Zahnbürste ohne Zahnpasta) festzustellen. Dies spricht für einen Politureffekt der Zahnpasten, was im Sinne der Fragestellung als positiv zu bewerten ist (verminderte Plaqueanlagerung, geringere Friktion). Ein ähnlicher Effekt dürfte aufgrund der vergleichbaren Werkstoffeigenschaften auch bei metallischen Brackets zu erwarten sein. Die Oberflächenrauigkeit im Slotbereich und damit die Friktion müssten daher durch die Einwirkung von Zahnpasten ebenfalls verringert werden, so dass auch hier ein positiver Einfluss der Zahnpastenanwendung angenommen werden kann. Im Korrosionstest ermöglichten die Werte der Rauigkeitsmessungen keine definitive Aussage über einen eventuellen korrosiven Einfluss der getesteten Produkte. Dies lag daran, dass zum einen im Rahmen der Versuchsbedingungen keine exakte Reproduktion der Messpunkte möglich war, zum anderen die gemessenen Werte größtenteils innerhalb der Bandbreite fabrikneuer Bänder lagen. Eine leichte Tendenz hin zu einer Homogenisierung der Oberfläche im Sinne eines chemischen „Polishing“ kann jedoch bei 2 der 6 Proben vermutet werden. Die gravimetrische Messung sowie die Ergebnisse der TXRF-Analyse zeigen, dass es allein bei der Meridol-Mundspüllösung zu Korrosionsvorgängen gekommen ist. Ein Substanzverlust von >180 μg und der Nachweis der Legierungsbestandteile Eisen, Chrom und Nickel in der Testlösung lassen diese Aussage zu. Diese Werte sind jedoch nicht von klinischer Relevanz, da die tägliche Aufnahme von Chrom- und Nickelionen durch Nahrung, Trinkwasser und Atemluft weitaus höher ist. Untersuchungen haben ergeben, dass allein durch die Nahrung täglich je über 100 μg Chrom und Nickel aufgenommen werden [61, 64, 71]. Der Anteil, der durch Korrosion von festsitzenden kieferorthopädischen Apparaturen hinzukommen könnte, wäre dagegen verschwindend gering. Man muss beachten, dass die Versuchsbedingungen im Korrosionstest nicht denen beim täglichen Gebrauch dieser Mundhygieneprodukte entsprachen. Die Kontaktzeit der Apparatur bei sachgemäßer Anwendung der Meridol-Mundspüllösung würde bei zweimaligem täglichen Gebrauch von je 30 Sekunden in 3 Jahren ungefähr 18 Stunden betragen (2 x 30 sec x 365 Tage x 3 Jahre), während sie im Korrosionstest bei 35 Tagen lag (=840 Stunden). Eine gleichmäßige Korrosionsrate vorausgesetzt, würde dies bedeuten, dass das getestete Band in 3 Jahren statt 180 μg nur ca. 3,9 μg an Substanz verlieren würde, entsprechend einem Verlust von 0,0036 μg pro Tag. Selbst bei einer kompletten Multiband-Apparatur an 28 Zähnen würden diese Werte gegenüber der täglichen Schwermetallionenaufnahme durch Nahrung und Umwelt nicht ins Gewicht fallen. Es bleibt festzustellen, dass durch den sachgerechten täglichen Gebrauch der getesteten Mundhygieneprodukte keinerlei negativer Einfluss auf die Funktionalität der Apparaturen und auch keine gesundheitliche Gefährdung durch freigesetzte Metallpartikel befürchtet werden muss. So ist weiterhin mit Nachdruck zu fordern, dass Patienten mit festsitzenden Apparaturen nach jeder Mahlzeit eine gründliche Zahnreinigung durchführen, um das Risiko der Entstehung von Entkalkungen, bzw. kariösen Läsionen und Parodontopathien zu minimieren. Diese Schäden stellen nach wie vor die häufigsten Nebenwirkungen bei einer Behandlung mit festsitzenden Apparaturen dar und sind durch eine gute Mundhygiene vermeidbar. Die beobachteten Veränderungen bei der eingangs erwähnten Patientin (S.14, Abb.1-4) können somit nicht auf die verwendeten Mundhygienemittel zurückgeführt werden. Hier scheinen andere Faktoren, wie bspw. eine nicht ausreichende oder falsche Mundhygiene ursächlich gewesen zu sein. Zusätzlich können aber auch die Zusammensetzung des Speichels, dessen pH-Wert und Fließrate, sowie die Bakterienflora der Mundhöhle und spezielle Ernährungsgewohnheiten der Patientin als Kofaktoren eine Rolle gespielt haben. Die Klärung dieser Fragestellungen würde weitergehende Untersuchungen erfordern.
In der Literatur des 16. bis 18. Jahrhunderts finden sich sechs für eine medizinhistorische Analyse geeignete Darstellungen von operativen Eingriffen am Magen: 1521 wurde eine Magenfistel nach perforierender Stichverletzung des Magens operativ versorgt. Die Magenwunde wurde durch 4 Nähte verschlossen, die Laparotomiewunde ebenfalls vernäht. 1602 erfolgte die Entfernung eines verschluckten Messers nach gedeckter Perforation der Messerspitze in die Bauchdecke („der böhmische Messerschlucker“; Operateur: Meister Florian Matthis in Prag). Von dem Chirurgen wurde eine Inzision der Haut über der in der Bauchdecke tastbaren Messerspitze durchgeführt. 1635 wurde ein verschlucktes Messers durch Laparotomie und Gastrotomie operativ entfernt („der preußische Messerschlucker“; Operateur: Chirurg Daniel Schwabe in Königsberg/Pr.). Die Magenwunde wurde nicht genäht, es wurden nur Hautnähte angelegt. 1678 wurde eine Magenfistel nach abdomineller Schußverletzung durch ein „blechernes“ Röhrchen versorgt, das als Drainage nach außen funktionierte (Operateur: Chirurg Matthäus Gottfried Purmann [1649-1711] in Stralsund). 1692 erfolgte eine schrittweise Extraktion (über 6 Wochen) eines verschluckten Messers, das sekundär in die Bauchdecken gedeckt perforiert war („der Hallische Messerschlucker“; Operateur: Dr. med. Wolfgang Wesener in Halle). Es wurde eine Inzision des Bauchdeckenabszesses durchgeführt. 1720 wurde ein verschlucktes Messer mit einer Zange durch Laparotomie und Gastrotomie entfernt („die ermländische Messerschluckerin“; Operateure: Dr. med. Heinrich Bernhard Hübner und der Chirurg Johann Horch bei Rastenburg/Pr.). In allen publizierten Fallberichten überlebten die operierten Patienten den Eingriff. Mit Ausnahme der ältesten Operation [1521] wurden alle Berichte von den Operateuren bzw. von an der Operation direkt beteiligten Ärzten verfaßt. Die Eingriffe wurden zunächst von Handwerkschirurgen [1635, 1678], später [1692, 1720] auch von studierten Ärzten (medici) durchgeführt. Die Indikation zur Operation wurde aber immer von den akademisch ausgebildeten „Medici“ gestellt. Als Nahtmaterial wurde bei den geschilderten Operationen „Seide“ verwendet [1643,1692]. Als Instrumente werden neben „Messer“ zur Inzision der Bauchdecken bzw. des Magens, „Zangen“ [1635, 1720] und „krumme Nadeln“ [1635] erwähnt. In einem Fall wurden sogar Haltefäden zur Fixierung des Magens vor der Gastrotomie angelegt [1635]. Der Zugangsweg zur Bauchhöhle durch die einzelnen Schichten der Bauchwand wurde anatomisch begründet durchgeführt [1635, 1678, 1720]. Spezielle Angaben zur perioperativen Schmerzbehandlung werden nicht gemacht, es wurden aber verschiedene alkoholhaltige Heilpflanzenextrakte („innerlich und äußerlich Artzneyen“) angewendet [1692]. Warum wurden die Eingriffe am Magen erst Ende des 19. Jahrhunderts häufiger durchgeführt, obwohl das operative Können, das anatomische Verständnis und das dazu notwendige Instrumentarium bereits seit dem 17. Jahrhundert vorhanden gewesen sind und in mindestens sechs Einzelfällen auch erfolgreich eingesetzt wurde? Im Zeitalter der Humoralpathologie, die bis in das 19. Jahrhundert hinein die vorherrschende Krankheitstheorie in Mitteleuropa gewesen ist, hatte eine chirurgische Behandlung von „inneren“ Magenerkrankungen noch keine theoretische Begründung. Krankheiten infolge Säfteungleichgewichte lassen sich nicht operativ behandeln. Die Chirurgie beschränkte sich als „Wundarznei“ daher vorwiegend auf die Versorgung von Wunden und von Verletzungen. Dazu gehörten auch Magenverletzungen von außen (perforierende Stichverletzungen, Schußverletzungen) oder von innen (gedeckte Perforation durch das verschluckte Messer). Erst die Durchsetzung eines lokalistischen, organbezogenen Denkens („Organpathologie“, „Zellularpathologie“) in der Medizin war die entscheidende theoretische Voraussetzung für eine Chirurgie von inneren Erkrankungen. Hinzu kamen in der zweiten Hälfte des 19. Jahrhunderts ein vermehrtes Wissen über Schmerzbekämpfung (Narkose mit Chloroform oder Äther) und Antisepsis (Asepsis), die das Risiko von Wundinfektionen und Peritonitis deutlich herabsetzten.
Interpret und kreativer Lückenfüller : wie optische Illusionen in der Großhirnrinde entstehen
(2005)
Optische Täuschungen sind nicht nur kuriose Beispiele dafür, wie leicht unser ahrnehmungsapparat »ausgetrickst« werden kann, sie werden seit langem von Psychologen und Kognitionsforschern genutzt, um das visuelle System und seine neurophysiologischen Prinzipien zu erforschen. Auch Scheinbewegungen gehören zu diesen Täuschungen: Sie entstehen durch den schnellen Wechsel statischer Bilder. Frankfurter Wissenschaftler des Max-Planck-Instituts für Hirnforschung konnten mit Hilfe der funktionellen Magnetresonanztomografie zeigen, wie das Gehirn die Illusion einer Bewegung erzeugt, obwohl der gebotene Reiz nur aus benachbarten, abwechselnd aufblinkenden Quadraten bestand. Hier wird nicht nur das konstruktive Prinzip deutlich, mit dem das visuelle System arbeitet, mehr noch: Die Großhirnrinde betätigt sich als »kreativer Lückenfüller«, der aktiv fehlende Sinnesdaten zu »plausiblen« Gesamteindrücken ergänzt.
Die Wahrnehmung von Objekten gelingt uns jeden Tag unzählige Male – zumeist rasend schnell und problemlos. Obwohl fast immer mehrere unserer Sinne gleichzeitig bei ihrer Wahrnehmung angesprochen werden, erscheinen uns diese Objekte dennoch als ganzheitlich und geschlossen. Für die neuronale Verarbeitung eines bellenden Hundes zum Beispiel empfängt die Großhirnrinde zumindest Eingangsdaten des Seh- und des Hörsystems. Sie werden auf getrennten Pfaden und in spezialisierten Arealen mit aufsteigender Komplexität analysiert. Dieses Funktionsprinzip der parallel verteilten Verarbeitung stellt die Wissenschaftler aber auch vor das so genannte »Bindungsproblem«: Wo und wie werden die Details wieder zu einem Ganzen – zu einer neuronalen Repräsentation – zusammengefügt? Am Institut für medizinische Psychologie der Universitätsklinik Frankfurt untersuchen Neurokognitionsforscher die crossmodale Objekterkennung mit einer Kombination modernster Verfahren der Hirnforschung und kommen dabei den Ver - arbeitungspfaden in der Großhirnrinde auf die Spur.
Muss das Strafrecht, vor allem der Schuldbegriff, wegen aktuellen Erkenntnisse der Hirnforschung in einem neuen Licht gesehen werden? Wenn unsere Entscheidungen und Handlungen durch neurologische Prozesse vollständig kausal vorherbestimmt sind, bleibe für die Willensfreiheit kein Raum. Und wenn der Wille nicht frei ist, dann könne ein Täter für eine Straftat auch nicht verantwortlich sein; denn er hätte in der gleichen Situation nicht anders handeln, also die Straftat auch nicht unterlassen können. Wird die Freiheit der Person so fundamental in Frage gestellt, steht freilich das Recht insgesamt zur Disposition.
Warum die von Leonardo da Vinci gemalte »Mona Lisa« so viele Betrachter fasziniert, hat als eines der größten Rätsel der Kunst jahrzehntelang die Phantasie von Wissenschaftlern, Schriftstellern und Kunstliebhabern beflügelt. In der jüngeren Kunstgeschichte war eine solche Frage allerdings kaum von Interesse. Heute nun beanspruchen Vertreter anderer Disziplinen, die Wirkung solcher Meisterwerke objektiv erklären zu können ...
Der simulierte Säugling : Neuroinformatiker erforschen, wie Babys lernen, Blicke zu verfolgen
(2005)
Als Voraussetzung für die experimentellen Arbeiten wurde am Mineralogischen Institut in Frankfurt eine Hochdruckpresse mit einer Multi-Anvil-Apparatur vom Walker-Typ aufgebaut und kalibriert. Diese Arbeiten nahmen einen beträchtlichen Teil der Promotionszeit ein. In einer Reihe von Hochdruck-Experimenten wurde dann die maximale Löslichkeit von Aluminium und den Seltenerd-Elementen Lanthan, Gadolinium und Lutetium in den Phasen des CaSiO3-Systems im Druckbereich zwischen 2.0 und 13.0 GPa untersucht. Unsere Experimente ergaben eine Zunahme der maximalen Löslichkeit mit steigendem Druck, von Wollastonit über Ca-Walstromit, Larnit + Si-Titanit bis Ca-Perowskit. Ca-Perowskit zeigt extrem hohe SEE-Konzentrationen mit einem Maximum bei den mittleren SEE. In den anderen Phasen nimmt die Löslichkeit mit zunehmender Kompatibilität der SEE zu. Innerhalb der Stabilitätsfelder zeigte sich keine signifikante Druck- oder Temperatur-Abhängigkeit der maximalen Löslichkeit. Anhand der Mikrosonden-Analysen konnte gezeigt werden, dass der Einbau von Al und SEE in Ca-Walstromit nicht über eine gekoppelte Substitution erfolgt, sondern wahrscheinlich über eine Defektstruktur. Dies deckt sich mit unseren TEM-Untersuchungen an diesen synthetischen Produkten, die eine hohe Dichte an planaren Baufehlern mit leicht erhöhten SEE-Konzentrationen ergaben. In allen Ca-Silikat-Phasen lag die maximale Löslichkeit der Seltenen Erden höher als die Konzentration in natürlichen Proben. Damit steht fest, dass die in Einschlüssen gemessenen SEE-Gehalte „primär“ sind und sich nicht durch etwaige Entmischungen im Zuge einer Anpassung der Kristallstruktur an die veränderten P,T-Bedingungen verändert haben. Entmischungen in Form einer SEE-reichen Phase würden eine an LSEE extrem angereicherte Quelle voraussetzen. Ein Vergleich unserer Subsolidus-Experimente mit CaSiO3-Einschlüssen in Diamanten aus Guinea zeigt, dass einige mit bis zu 0.13 Gew.% Al2O3 an Aluminium gesättigt sind. Diese Tatsache ist besonders interessant bei der Interpretation Alhaltiger Einschlussphasen. Neben absoluten Spurenelement-Konzentrationen sind Verteilungskoeffizienten äußerst wertvolle Hilfsmittel bei der Bewertung natürlicher Proben. Die in der Literatur bestehenden Datensätze wurden mit unseren Kristall/Schmelz-Verteilungskoeffizienten bzw. Verteilungskoeffizienten zwischen Ca-Silikatphasen erweitert. Verteilungskoeffizienten der Seltenerd-Elemente zwischen Ca-Walstromit und Karbonat sind um eine Größenordnung höher als Ca-Walstromit/Schmelz-Verteilungskoeffizienten und zeigen eine größere Steigung zwischen den MSEE und den SSEE (Lu/Gd). Die Seltenen Erden verhalten sich sowohl in Larnit als auch in Si-Titanit inkompatibel, wobei DX/L La für Larnit etwa 0.1 und für CaSi2O5 etwa 0.002 ist, d.h. auch, dass die LSEE im Vergleich zu Si-Titanit bevorzugt in Larnit eingebaut werden. Al verhält sich in Si-Titanit Zusammenfassung 147 kompatibel (DX/LAl=4) und in Larnit leicht inkompatibel. Diese Ergebnisse decken sich mit Analysen an natürlichen Proben. Die SEE-Verteilungskoeffizienten zwischen Ca-Perowskit und Schmelze liegen mit Ausnahme von La über eins und zeigen in Übereinstimmung mit Literaturdaten ein Maximum bei Gd. Für Granat konnte gezeigt werden, dass der Einbau der SEE und Si in MgO-haltigen Kristallen in Abhängigkeit von Druck und Startzusammensetzung über eine Ca SEE2 Mg2 Si3O12- Komponente bzw. über eine Ca3 MgSi Si3O12-Komponente mit 6-fach koordiniertem Silizium erfolgt. In zahlreichen Experimenten kristallisierte eine neue Ca-SEE-Silikat-Phase mit Feldspat-Stöchiometrie. Dabei handelt es sich offenbar um ein Mischkristallsystem mit einem Endglied, in das vorwiegend die leichten SEE eingebaut werden und in einem zweiten mit vorwiegend schweren SEE. Ab einem Druck von etwa 10.0 GPa trennt ein Solvus die beiden Endglieder voneinander. In der Literatur ist bisher nur ein CaLa2Si2O8-Endglied beschrieben worden. In einigen Experimenten mit P und Li wurde zusätzlich untersucht, ob diese Elemente zur Rekonstruktion der Bildungsbedingungen von Diamanten verwendet werden können. Dabei zeigte sich, dass die max. Löslichkeit von Li in CaSiO3 näher an den natürlichen Probenzusammensetzungen liegt und damit möglicherweise Potential für die Rekonstruktion von Bildungsbedingungen hat. In einem weiteren Teil dieser Arbeit wurde die Kinetik retrograder Reaktionen im CaSiO3-System untersucht. Die für die In-Situ-Experimente mit Synchrotron-Strahlung notwendigen Versuchsaufbauten wurden von uns entwickelt und die entsprechenden Entwicklungsschritte und technischen Probleme ausführlich beschrieben. Anhand von Entlastungsexperimenten wurden die Disproportionierung von Ca-Perowskit zu Larnit + Si-Titanit und die Rekombination zu Ca-Walstromit bei unterschiedlichen Temperaturen und unter dem Einfluss von Wasser untersucht. Aufgrund der wenigen verwertbaren Daten, die uns vorliegen, konnten zwar keine Aktivierungsenergien berechnet werden, es sind aber aufgrund unser Beobachtungen folgende Feststellungen zu treffen: Die Reaktion von Ca-Perowskit zu Larnit + Si-Titanit erfolgt bei gleicher Temperatur offenbar um Größenordnungen schneller als die sich bei niedrigen Drucken anschließende Rekombination zu Ca-Walstromit. Dies deckt sich mit Beobachtungen an natürlichen Proben, bei denen Larnit und Si-Titanit teilweise unvollständig zu Ca-Walstromit reagierten. Dadurch erscheint es eher unwahrscheinlich, dass amorphes CaSiO3 in Diamanten ein direktes Umwandlungsprodukt von Ca-Perowskit ist. Aber auch für die in der Literatur beschriebene Amorphisierung von Ca-Walstromit-Einschlüssen (Stachel 2000) noch innerhalb des umgebenden Diamanten ließ sich durch unsere In-Situ-Entlastungsexperimente nicht stützen. Eine Amorphisierung von Ca-Walstromit beobachteten wir nur bei einer Untersuchung am TEM, wo die Phase sehr instabil war und selbst in einem Kryohalter rasch unter dem Einfluss der Elektronenstrahls amorphisierte. Die Beugungs-Spektren, die nach einer Druckentlastung im Ca-Walstromit-Stabilitätsfeld aufgenommen wurden, unterschieden sich trotz der CaSiO3-Chemie der neu gebildeten Phase deutlich von unseren Ca-Walstromit-Referenz-Spektren, so dass die Umwandlung möglicherweise über eine metastabile Zwischenstufe erfolgt. Vor dem Hintergrund von unterschiedlichen, in der Literatur beschriebenen Strukturtypen von Ca-Walstromit wäre eine systematische Untersuchung der Struktur innerhalb des gesamten Stabilitätsfeldes wichtig.
Die vorliegende Arbeit ist der Fragestellung nachgegangen, ob sich die Gedächtnisleistung, insbesondere die von älteren Menschen, durch Gedächtnistraining verbessern lässt. Dabei sollen Verhaltensdaten und EEG-Daten, die simultan mit der Bewältigung einer Gedächtnisaufgabe erhoben wurden, korreliert werden. Untersucht wurden zwei verschiedene Gruppen. Zum einen Mild Cognitive Impairment Patienten und zum anderen eine altersähnliche Kontrollgruppe. Unter Mild Cognitive Impairment (MCI) versteht man eine leichte kognitive Beeinträchtigung des Gedächtnisses, welche aber die Kriterien einer Demenzmanifestation noch nicht erfüllt. Die Diagnosekriterien für MCI sind nicht einheitlich. Ein häufiges Kriterium wurde von Petersen (1999) definiert und ist die objektive Beeinträchtigung des Gedächtnisses ohne weitere kognitive Einbußen. Die Leistungsfähigkeit des Gedächtnisses/Gedächtnissubsystems muss dabei mindestens 1,5 Standardabweichungen schlechter sein, als die einer alters- und ausbildungsgleichen Population. Etwa 16-34 % aller 65 jährigen leiden unter dieser Form der kognitiven Beeinträchtigung. Schätzungen ergeben, dass 70 % der demenziellen Erkrankungen innerhalb von 2-3 Jahren aus einer MCI hervorgehen. Veränderungen des EEGs bei Patienten mit der Alzheimer'schen Demenz (AD) und MCI-Patienten wurden in den letzten Jahren untersucht, insbesondere Untersuchungen der EEG-Spontanaktivität, da diese vor allem bei den AD-Patienten leichter zu realisieren sind. Auffällig ist ein allgemein „langsamer“ werdendes EEG bei den Demenz-Patienten. Vor allem im okzipitalen Bereich ist ein Verlust des Alpha-Blocks beim Öffnen der Augen zu registrieren. In einem sehr frühen Stadium der AD ist meist noch kein verändertes EEG zu verzeichnen, ebenso bei MCI-Patienten. Eine beobachtbare Veränderung der EEG-Oszillationen könnte aber für eine frühe Diagnose der Krankheit und somit auch für eine frühe Behandlungsmöglichkeit von Bedeutung sein. Das Elektroenzephalogramm misst elektrische Potentiale, die im Gehirn durch „Neuronenaktivität“ verursacht werden und hat eine besonders gute zeitliche Auflösung (in ms Bereich) dafür aber eine schlechte räumliche. Die schlechte räumliche Auflösung ist dadurch zu begründen, dass man beim EEG „nur“ Oberflächenpotentialänderungen registrieren kann und dadurch nicht die Quelle der Potentiale lokalisieren kann. Die hohe zeitliche Auflösung des EEGs ermöglicht es aber die neuronale Aktivität während und auch nach der Kodierung sensorischer Informationen (z.B. visuelle Stimulation, wie in dieser Arbeit) zu beobachten. In vorliegender Arbeit wurde untersucht, ob gesunde, ältere Menschen im Vergleich zu Patienten mit leichter Gedächtnisstörung, beim Bewältigen einer Gedächtnisaufgabe, unterschiedliche Hirn-Aktivitäten aufweisen und inwieweit ein Gedächtnistraining von vier Wochen die Gedächtnisleistung der Probanden/Patienten aber auch das EEG-Aktivitätsmuster verändern kann; ob das Gedächtnis also auch im Alter oder sogar bei Dysfunktionen durch Training verbessert werden kann. Dabei galt gerade dem frontalen Bereich besonderes Interesse, da diesem Bereich für das Gedächtnissystem eine besondere Relevanz zugeschrieben wird. Eine delayed matching to sample Aufgabe wurde für visuelle Stimulation, Testung des Arbeitsgedächtnisses und für das kognitive Training durchgeführt. Die neuropsychologischen Daten wurden hierfür mit den EEG-Daten korreliert.
Leben und Werk des aus Münzenberg/Hessen stammenden Algebraikers Konrad Landvogt (um 1500) hat Menso Folkerts 1992 in einer grundlegenden Untersuchung erstmals in Umrissen skizziert. Hauptsächlich gestützt auf vier Handschriften, die in der Universitätsbibliothek Uppsala aufbewahrt werden, faßte er zusammen, was sich aus diesen Quellen über die (ungedruckt gebliebenen) mathematischen Schriften Landvogts und über seinen Lebensumkreis (Studium in Erfurt, persönliche Beziehungen nach Arnsburg, Friedberg, Mainz, Worms) ermitteln läßt. Wie Folkerts selbst betonte, war es ihm nicht möglich, in jeder Hinsicht abschließende Nachweise zu bieten; weitere Detailstudien seien notwendig. Als Beitrag dazu verstehen sich die folgenden Ergänzungen.
Vom 19. bis 20.9.2003 fand in Worms eine vom Stadtarchiv und der Domgemeinde St. Peter organisierte wissenschaftliche Tagung aus Anlass des 500. Todestages des Bischofs Johann von Dalberg (1482–1503) statt, bei der Referenten ganz unterschiedlicher Richtungen das Leben, das Wirken und die Zeitumstände in den Jahren um 1500 am Mittelrhein und vor allem in der Bischofsstadt Worms und ihrem Umland beleuchtet haben. Die Tagung stieß auf starkes Interesse, wurde doch mit Johann von Dalberg eine bedeutende, facettenreiche Persönlichkeit näher betrachtet, die in einer für die Stadt und die Region außerordentlich wichtigen und ereignisreichen Zeit wirkte und dessen Leben zahlreiche, bis heute greifbare Spuren in Worms und seinem Umland hinterlassen hat. Dankenswerterweise waren die Referenten bereit, ihre Beiträge für einen Sammelband zur Verfügung zu stellen, den wir hiermit der Öffentlichkeit vorlegen. Selbstverständlich können die Beiträge nur ausgewählte Aspekte beleuchten und bei weitem kein umfassendes Bild der Person, ihrer Verflechtungen und Verbindungen sowie der Zeit um 1500 für Stadt und Bistum Worms bieten. Allerdings zeigt sich in den Beiträgen ein weites Spektrum der Beschäftigung mit dem Bischof und seiner Zeit, neue Sichtweisen und Fragestellungen der jüngeren Forschung lassen sich ausmachen, Wege für die weitere Beschäftigung werden aufgezeigt. Wert gelegt wurde auf eine gute Bebilderung des Bandes; seiner verbesserten Nutzbarkeit soll das beigegebene Orts- und Personenregister dienen. Inhaltsverzeichnis Vorwort S. V Burkard KEILMANN, Johann von Dalberg und das Bistum Worms S.1 Gerold BÖNNEN, Zwischen Konflikt und Zusammenleben: Bischof Johann von Dalberg und die Stadt Worms S.41 Peter WALTER, „Inter nostrae tempestatis Pontifices facile doctissimus“. Der Wormser Bischof Johannes von Dalberg und der Humanismus S. 89 Joachim KEMPER, Die Wormser Klosterlandschaft in der Zeit des Johann von Dalberg S. 153 Rüdiger FUCHS, Zu Inschriften des Bistums Worms zur Zeit Bischof Johanns von Dalberg S. 169 Winfried WILHELMY, Zwischen Krummstab und Schnabelschuh. Kunstpolitik und Stiftungswesen an Rhein und Main im Zeitalter Johanns von Dalberg S. 187 Hanns HUBACH, Johann von Dalberg und das naturalistische Astwerk in der zeitgenössischen Skulptur in Worms, Heidelberg und Ladenburg S. 207 Register S. 233
Exempel in Vers- oder Prosaform, in lateinischer Sprache oder in volkssprachlichen Versionen sind aus den späteren Jahrhunderlen des Mittelalters in hoher Zahl überliefert. Neben den großen eigenständigen Exempla-Kompilationen waren es vor allem Enzyklopädien, Chroniken, Predigtsammlungen und Erbauungsschriften, die eine Vielzahl von Exempeln in sich aufnahmen und in ihren Bereichen weitergaben. J.-TH. WELTER hat der Gattung bereits 1927 einen umfassenden literaturgeschichtlichen Überblick gewidmet. Für elementare, auf Einzeltexte gerichtete Nachforschungen stellte F. C. TUBACH mit dem 1969 veröffentlichten 'Index exemplorum' einen nützlichen Wegweiser bereit. TUBACHS Werk hat auch zur näheren Bestimmung des im folgenden mitgeteilten kleinen Handschriftenfundes beigetragen. ...
Wie kaum ein anderer hat Sartre die Freiheit des Menschen betont und gegen die Zwangsvorstellung angeschrieben, der Mensch sei determiniert. Kann die Freiheit sich selbst zum Wert erheben? Zum hundertsten Geburtstag Jean-Paul Sartres sind dessen Entwürfe für eine Moralphilosophie auf Deutsch erschienen.
Ist die Willensfreiheit eine Illusion oder können wir auch anders? Eine Auseinandersetzung mit den neueren Ergebnissen der Hirnforschung von Hanko Uphoff. Anstatt zuzugestehen, dass man bisher keine Erklärung für eine vollgültige Freiheit habe, leugnet man sie lieber, da sie nicht ins angelegte Raster passt. Wenn die Folgerungen, die aus experimentellen Ergebnissen der Hirnforschung gezogen werden sollen, offensichtlich die Gestalt absurder Stilblüten annehmen, sollten die Akteure überlegen, ob sie nicht anders fragen müssten, anstatt die Wirklichkeit zu vergewaltigen.
Ausbildung in Evidenzbasierter Medizin am Universitätsklinikum Frankfurt am Main : meeting abstract
(2005)
Einführung: Obwohl international die Integration der Evidenzbasierten Medizin (EbM) in die klinische Medizin und in die Ausbildung voranschreitet, ist die Verbreitung im deutschen Klinikalltag eine fortbestehende Herausforderung. Vor allem ist die Vernetzung der theoretischen Lerninhalte mit den klinisch-praktischen Fertigkeiten eine weit verbreitete Schwierigkeit. Die neue Ärzteapprobationsordnung bietet Möglichkeiten für innovative Konzepte im medizinischen Curriculum. Sowohl die systematische Informationssuche als auch die kritische Bewertung und Anwendung medizinischer Informationen sind wichtige Kernkompetenzen der ärztlichen Tätigkeit. Zum Wintersemester 03/04 wurde in Frankfurt das erste curriculare Seminar EbM als Teilfach des Querschnittsbereiches I (Epidemiologie, Med. Biometrie und Med. Informatik) auf der Basis des peer-teaching eingeführt und wissenschaftlich begleitet.
Methoden: Für alle Studierenden des 2. klinischen Semesters wird in Kleingruppenseminaren an 4 Terminen ein Basiskurs EbM nach den Kriterien des Deutschen Netzwerkes für Evidenzbasierte Medizin e.V. durchgeführt. Dabei werden die Module Vierteilige Frage, Internetrecherche, Diagnose und Therapie erarbeitet. Ein individuelles Fallbeispiel (klinische Fragestellung) wird von jedem Studierenden selbständig mit allen Schritten der EbM bearbeitet. Jede Seminararbeit wird im Rahmen eines journal clubs von dem Studierenden vorgestellt und in der Kleingruppe diskutiert. Während des ersten unterrichteten Semesters erhielt jeder Seminarteilnehmer zu Seminarbeginn und zum Seminarende einen Testfragebogen mit 20 Fragen, sowie zum Ende einen anonymisierten Fragebogen mit der Bitte um Einschätzung. Die anonymisierten Fragebogen werden seitdem weiter in jedem Semester eingesetzt.
Ergebnisse: Es wurden im Durchschnitt nach dem Seminar 7,48 (99% KI 6.61-8.36) Fragen mehr als vor dem Seminar richtig beantwortet. Der Kurs wurde im Median mit der Note gut eingeschätzt (Weberschock et al 2005, im Druck). Die Auswertungen der Einschätzungen der nachfolgenden Semester zeigten noch bessere Ergebnisse.
Schlussfolgerung: EbM ist in der medizinischen Ausbildung sehr gut durchführbar und wird mit den richtigen didaktischen Konzepten auch voll akzeptiert. Vor allem die Fähigkeit, medizinische Informationen korrekt zu bewerten und sie klinisch fachgerecht anzuwenden ist eine essentielle Kompetenz für die ärztliche Tätigkeit und bedarf den sichern Umgang mit den Methoden und Medien.
Ausblick: Die Vernetzung der theoretischen Aspekte bei der medizinischen Informationsverarbeitung mit der klinischen Anwendung der gewonnenen Erkenntnisse ist für die Ausbildung in EbM ein essentieller Bestandteil. Um die Lehrenden auf diese Aufgabe adäquat vorbereiten zu können, werden in naher Zukunft in Zusammenarbeit mit dem Deutschen Netzwerk Evidenzbasierte Medizin (DNEbM), der Arbeitsgemeinschaft der wissenschaftlich medizinischen Fachgesellschaften (AWMF) und der Gesellschaft für medizinische Ausbildung (GMA) Train-the Teacher-Seminare veranstaltet. Diese Seminare sollen einerseits die didaktischen Methoden und Fertigkeiten der EbM-Lehrenden weiter ausbauen und andererseits eine Brücke zwischen theoretischen Lerninhalten und klinischen Bezügen schlagen.
Die medizinische Ausbildung wird gegenwärtig zunehmend mit E-Learning-Elementen angereichert. Die Orientierung in der in verschiedenste Netze zersplitterten Lernlandschaft erweist sich häufig als problematisch und zeitaufwändig, und dies bereits innerhalb einzelner Universitäten und Fachbereiche. "FAUST" - Frankfurter Ausbildungs - und Studienangebote der Medizin im virtuellen Raum (http://www.med.uni-frankfurt.de/faust/index.html) - löst dieses Problem. FAUST bietet einfache und schnelle Zugangsmöglichkeiten zu allen instituts- und klinikeigenen elektronischen Informationsquellen (z. B. Vorlesungsskripte) und E-learning Projekten (e!uro; fanatomic.de; HistoPathOnline, E-learning-Academy) sowie zu überregionalen medizinischen Lernplattformen (z. B. k-med, LaMedica), die in Frankfurt entwickelt bzw. mitentwickelt wurden und bereits curricular eingesetzt werden. Schneller Zugang wird auch zum Lernmanagementsystem WebCT vermittelt, das zunehmend zur Kommunikation, strukturierten Präsentation von E-Content sowie zur Durchführung elektronischer Klausuren eingesetzt wird. Das Portal wurde von einem im E-Learning erfahrenen Team (Kliniker, Vorkliniker, Designer, Informatiker) mit Mitteln des Lehr- und Studienausschusses entwickelt. Es ist seit dem Sommersemester 2005 freigeschaltet. FAUST versteht sich zudem als Anlaufstelle für Lehrende des Fachbereichs Medizin, die am E-Learning interessiert sind. Sie können Beratung bei didaktischen und technischen Fragen, sowie Unterstützung bei der Realisierung ihrer Projekte erhalten. FAUST möchte auf diesem Wege die Vernetzung der E-Learning-Akteure unterstützen.
Kurzfassung Vortrag: Fächerübergreifende Lehre und verpflichtende Fortbildung (CME) für Ärzte erfordern innovative Lernmethoden. Eine Lösung wird teilweise in der Nutzung elektronischer Medien gesehen. Unklar ist jedoch, wie konkret eine Umsetzung in der Aus-, Fort- und Weiterbildung im Fach Allgemeinmedizin bisher erfolgte, welche Chancen und Möglichkeiten es gibt und wie die weitere Entwicklung aussehen kann. Um einen Überblick über die aktuellen E-Learning-Aktivitäten zu erhalten, formierte sich eine universitäts- und bundesländerübergreifende Initiative. In drei Phasen soll die Grundlage für die Entwicklung einer Strategie für die effektive Nutzung elektronischer Lehr- und Lernmedien für das Fach Allgemeinmedizin geschaffen werden: Phase 1 - Nationales Expertentreffen (Juli 2005 in Frankfurt): Diskussion von Erfahrungen, Problemen und Möglichkeiten des Einsatzes elektronischer Medien in der Allgemeinmedizin. Phase 2 - Gründung eines Netzwerks: Zusammenarbeit, Koordination und gegenseitige Unterstützung bei der Entwicklung von E-Learning-Modulen. Phase 3 - Evaluation von E-Learning in der Allgemeinmedizin: systematische qualitative und quantitative Untersuchungen. Im Rahmen eines Workshops sollen die Erfahrungen aus dem Expertentreffen mit Lehrenden und Fortbildenden aus anderen Fachbereichen diskutiert werden. Kooperationen über die Allgemeinmedizin hinaus können weitere Synergien schaffen. Der Workshop dient dem Austausch über Chancen und Limitationen entsprechender Angebote.
Aus Mitteln der Universitätsbibliothek und mit Unterstützung der Gesellschaft der Freunde der Stadt- und Universitätsbibliothek konnte ein ungewöhnliches und wertvolles Stück für die Sammlungen im Archivzentrum erworben werden. Es handelt sich um den originalen Entwurf zu einem Exlibris für die gemeinsame Bibliothek Max Horkheimers und Friedrich Pollocks, das der Künstler Ott-Heinrich Strohmeyer 1919 geschaffen hat. Schon die Tatsache, daß die beiden damals noch jungen Wissenschaftler dem utopischen Plan einer gemeinsamen Freundschaftsbibliothek anhingen, ist mit diesem Stück Kleingraphik eindrucksvoll belegt. Der Künstler ist ein bedeutender Vertreter des Expressionismus und das uns nun vorliegende Blatt bietet ein gediegenes Beispiel der eher ins esoterische zielenden Kunst dieser Zeit. Daß die marxistischen Denker sich damit repräsentiert fühlten, entbehrt nicht einer gewissen Ironie.
Während seiner mittlerweile über 30jährigen Auseinandersetzung mit dem Porträt gelangte Vollrad Kutscher zu der Erkenntnis, dass es unmöglich ist, in unserer Zeit ein gültiges Bild von sich selbst und in der Folge von anderen zu erstellen. Dass Kutscher dennoch immer wieder Porträts herstellt, zeigt einen Widerspruch auf, der sich leitmotivisch durch die Arbeiten zieht und in ihnen selbst formal manifestiert ist. ...
Qualitatives Denken : John Deweys Erfahrungsbegriff zwischen Erkenntnislehre und Kunsttheorie
(2005)
Inhalt: Vorwort S. 4 Einleitung: John Deweys Radikalität. Eine Erinnerung S. 10 Erstes Kapitel: Implosionen des Empirismus 1.1 Rorty als Apologet und Kritiker Deweys S. 42 1.2 Darwin als Anstoß der Philosophie S. 58 1.3 Die Naturalisierung der menschlichen Intelligenz S. 64 1.4 Brandoms Pragmatismus: Phänomenalismus in Bezug auf Wahrheit S. 75 1.5 Peirce und Dewey als Antipoden? S. 85 Zweites Kapitel: Der Mythos des Gegebenen 2.1 Sellars’ Attacke gegen den Empirismus S. 93 2.2 Inferentialismus und Handlungstheorie S. 101 2.3 Common Sense als Kritik S. 105 Drittes Kapitel: Nach dem Ende der Gewißheit 3.1 Der Dualismus von Theorie und Praxis S. 112 3.2 Raum der Gründe und Raum der Handlungen S. 116 3.3 Qualitatives Denken S. 127 Viertes Kapitel: McDowell und Dewey über Erfahrung und Natur Zur Rehabilitierung des Erfahrungsbegriffs S. 145 4.1 Kohärenz und Kausalität in Davidsons Kritik des Empirismus S. 151 4.2 Die Konstruktion der zweiten Natur S. 160 4.3 Physiologie des Verstehens: Deweys Kritik am Behaviorismus S. 168 Fünftes Kapitel: Erfahrung als Kunst 5.1 Erfahrungen und eine Erfahrung S. 185 5.2 Die kommunikative Dimension expressiven S. 198 Verhaltens 5.3 Hermeneutische Aspekte einer expressiven Theorie der Erfahrung S. 212 Literaturnachweis S. 233 Lebenslauf S. 240 Erklärung S. 242
Die vorliegende Studie richtet ihr Augenmerk auf die Diagnostik bzw. den Nachweis der Masern-Immunität. Es werden zwei anerkannte Testmethoden miteinander verglichen. Dabei geht es um den Masern-Virus-Neutralisationstest (NT) als „Goldstandard“ der Diagnostik und den Anti-Masern-Virus-IgG-Enzymimmunoassay (EIA). Eine Korrelationsuntersuchung wurde anhand von 199 Proben eines ausgewählten Patientenkollektivs und von 437 Plasmapoolproben durchgeführt. Dabei wiesen beide Kollektive deutliche Unterschiede bezüglich der Korrelation zwischen Masern-Virus-Neutralisationstest und Anti-Masern-Virus-IgG-Enzymimmunoassay auf. Die 199 Patientenseren zeigten einen höheren Korrelationskoeffizient von rho=0,86 als die Daten der insgesamt 437 Plasmapoolproben rho=0,56. Obwohl die Ergebnisse der beiden Testverfahren positiv miteinander korrelieren, ist eine eindeutige Zuordnung der Werte nicht möglich. Nach Errechnung der Inter-Rater-Reliabilität, die eine gute Übereinstimmung bei den Daten des Patientenkollektivs aufwies, wird deutlich dass eine Unterscheidung zwischen qualitativer und quantitativer Auswertung sinnvoll ist. Außerdem wurde zusätzlich noch eine computergestützte epidemiologische Untersuchung von insgesamt 1.717 Masern-IgG Befunden des Instituts für Medizinische Virologie Frankfurt aus dem Zeitraum vom 01.01.2001 bis zum 30.11.2004 durchgeführt. Die Ergebnisse des Enzymimmunoassays wurden zur Ermittlung der altersspezifischen durchschnittlichen Anti-Masern-Virus-IgG-Titer, der Masern-Antikörper-Prävalenz sowie der Gesamtschutzraten herangezogen und spiegeln die Masern-Immunität im Raum Rhein-Main wider.
Bei dieser Arbeit handelt es sich um eine retrospektive, klinische Studie, die die Bedeutung prognostischer Faktoren beim Morbus Hodgkin behandelt. Das Patientenkollekiv umfasst 136 Patienten, die an Morbus Hodgkin erkrankt sind. Mittels der bisher verwendeten und damals etablierten Risikofaktoren und der Stadienklassifikation nach Ann Arbor erfolgte eine prognostische Einteilung, anhand deren das jeweilige Chemotherapieprotokoll festgelegt worden ist. Zunächst wurden die Patienten anhand ihrer Risikofaktoren in zwei Gruppen untergliedert, die prognostisch günstigere, EBOEP I-Gruppe und die prognostisch ungünstigere EBOEP II-Gruppe. Nach Einführung des EEP-Protokolls wurde eine dritte Patientengruppe gebildet, die sich, genau wie die EBOEP I-Gruppe, in einem günstigen Stadium befand und nun nach dem EEP-Schema behandelt wurde. Der Vergleich der prognostischen Einteilung nach den Risikofaktoren mit dem neu entwickelten prognostischen Index nach Hasenclever et. al führte zu einem überraschenden Resultat. Nach der alten Einteilung anhand der Risikofaktoren zeigen beide EBOEP-Gruppen nahezu gleiche Ergebnisse mit 2,16 und 2,59 Risikofaktoren pro Patient für EBOEP I und EBEOP II. Die EEP-Patienten haben ein günstigeres Ergebnis mit 1,17 Risikofaktoren pro Patient. Verwendet man den neuen geprüften Prognostischen Index zur Einteilung derselben Patienten, erhält man andere Werte. Hierbei zeigen die Patienten der EBOEP I- und der EEP-Gruppe ähnliche prognostische Eigenschaften mit einem prognostischen Index pro Patient mit 1,48 bzw. 1,43 für die jeweiligen Gruppen. Betrachtet man sich nun das rezidivfreie Überleben nach 5 Jahren erkennt man deutlich schlechtere Ergebnisse der EEP- im Gegensatz zur EBOEP I-Gruppe. Auch die Resultate der Überlebenswahrscheinlichkeit nach 5 Jahren ist für das EEP-Patientenkollektiv ungünstiger. Dies bedeutet, dass die vermeintlich prognostisch günstigere Patientengruppe schlechtere posttherapeutische Ergebnisse zeigt. Der Grund dafür liegt darin, dass anhand der Einteilung nach den alten Risikofaktoren eine günstige Prognose erwartet worden ist und die Patienten eine weniger intensive Chemotherapie erhielten. Nach dem neuen prognostischen Index jedoch zeigten die Patienten der EEP-und der EBOEP I-Gruppe kaum Unterschiede. Die Bedeutung prognostischer Faktoren liegt darin, eine adäquate prognostische Einteilung treffen zu können, um die entsprechenden, der Krankheit angepassten, Therapiekonzepte anzuwenden. Weniger intensive Chemotherapien, die die Gefahren einer Zytostatika - bedingten Leukämie oder das Auftreten von Zweittumoren reduzieren, sind allerdings erstrebenswert für die Patientenkollektive mit einer gesicherten günstigen Prognose, die auch mit dieser geringer dosierten Therapie zuverlässig geheilt werden können.
Edmund Weber : im Ruhestand ; [evangelischer Theologe an der Universität Frankfurt, geb. 1939]
(2005)
Sammeln aus Leidenschaft und Forschen aus Passion : das Frobenius-Institut an der Universität
(2005)
Die Afrika-Sammlung der Universitätsbibliothek Johann Christian Senckenberg ist im deutschsprachigen Raum hinsichtlich der Breite der betreuten Fächer und Länder einmalig. Ihre Größe und Geschlossenheit machen sie zu einer der ersten Anlaufstellen für WissenschaftlerInnen zum Raum Afrika.
Irmtraud D. Wolcke-Renk : [Leiterin der Afrika-Abteilung der Universitätsbibliothek] gestorben
(2005)
Ziel: Ziel der vorliegenden klinisch-experimentellen in vitro Studie war es, die Scherhaftfestigkeit von Kompositproben an humanem Dentin, vermittelt durch zwei selbstkonditionierende Adhäsive, unter simuliertem Dentinliquorfluß zu überprüfen. Material und Methode: Die Scherhaftfestigkeitstests wurden mit insgesamt 60 humanen kariesfreien Molaren durchgeführt. Das Dentin wurde parallel zur Okklusalfläche freigelegt und aus einem Zahn jeweils eine 800 mikrom dicke Dentinscheibe geschnitten. Nach dem Polieren (600 grit SiC) wurden die Dentinadhäsive und der Kunststoff unter simuliertem Dentinliquorfluß (60 cm H2O) auf die Dentinscheiben aufgebracht. Getestet wurden die Dentinadhäsive Clearfil SE Bond (SE) und Adect (AD). In Gruppe 1 wurden beide Adhäsive laut Herstellerangaben aufgetragen, in Gruppe 2 wurde zusätzlich vorher mit Phosphorsäure geätzt. Die Proben wurden anschließend einem Thermocycling ausgesetzt (5°C/ 55°C,5000x) und die Scherhaftfestigkeitswerte mit einer Vorschubgeschwindigkeit von 5 mm/min ermittelt. Ergebnisse: Es ergaben sich keine statistisch signifikanten Unterschiede in der Scherhaftfestigkeit in den einzelnen Präparategruppen. Die Mittelwerte für SE und AD nach Anwendung laut Herstellerangaben lagen bei 7 bzw. 6 MPa und unterschieden sich nicht signifikant. Mit vorheriger Phosphorsäureätzung beliefen sich die Werte bei SE auf 6 MPa und bei AD auf 6,8 MPa. Schlussfolgerung: In der vorliegenden Untersuchung konnte gezeigt werden, daß mit SE und AD vergleichbare Verbundfestigkeitswerte erreicht werden können. Eine zusätzliche Phosphorsäureätzung des Dentins veränderte die Haftfestigkeit nicht signifikant.
Das Ziel der vorliegenden Untersuchung war die Analyse der Eignung von vier unterschiedlichen topischen Anästhesiemethoden für die Kleinschnittkataraktchirurgie. Hierzu wurden 100 Patienten (41 Frauen, 59 Männer, Durchschnittsalter: 67,3 Jahre) randomisiert vier gleich großen Gruppen zugewiesen: A: Ophtocain®-Tropfen + intrakamerale Anästhesie mit 1ml unkonserviertem Lidocain 1%, B: Ophtocain®-Tropfen, C: Xylocain®-Gel 2% + intrakamerale Anästhesie mit 1 ml unkonserviertem Lidocain 1%, D: Xylocain®-Gel 2%. Die vier Gruppen unterschieden sich nicht statistisch signifikant bezüglich Bulbuslänge, Vorderkammerlänge, Dioptrien, Operationsdauer und Phakointensität (d.h. Geräteleistung * Zeit). An Hand der perioperativen Überwachung des systolischen und diastolischen Blutdrucks sowie der Pulsfrequenz zeigten sich keine Unterschiede zwischen den vier Gruppen. Bei der Auswertung der subjektiven Eindrücke der Patienten mittels einer zehnstufigen visuellen Analogskala traten bei insgesamt fünf Patienten aus allen vier Gruppen Missempfindungen oder Schmerzen des Grades 2 oder mehr auf. Es bestanden keine statistisch signifikanten Unterschiede zwischen den Gruppen. Die bivariate Analyse zeigte einen signifikanten Zusammenhang zwischen Bulbuslänge, Schmerzen und Anästhesiemethode: Nur bei Patienten mit einer Bulbuslänge über 25 mm senkte die zusätzliche intrakamerale Anästhesie das Schmerzrisiko. Die multiple logistische Regression zeigte, dass eine höhere Phakointensität die Wahrscheinlichkeit eines intraoperativen Druckempfindens senkt. In allen vier Anästhesiegruppen traten bei der Mehrheit der Patienten transiente Epithelödeme auf. Auffällig war, dass Descemet-Falten ausschließlich bei drei Patienten der Gruppe A (Tropf- und intrakamerale Anästhesie) auftraten. Die Kleinschnittkataraktchirurgie unter topischer Anästhesie mit/ohne intrakamerale Anästhesie stellt für kooperative Patienten eine sichere und effektive Alternative zu herkömmlichen Anästhesieverfahren dar, die dem erfahrenen Operateur vorbehalten sein sollte. Die Verwendung gelförmiger Zubereitungen ist der Tropfanästhesie gleichwertig, bietet allerdings zusätzlich den Vorteil einer besseren Gleitfähigkeit und eines verringerten Risikos der Corneaaustrocknung.
Verschiedene Studien haben sich mit dem Spontanverlauf intrakranieller Aneurysmen beschäftigt mit dem Ziel, Risikofaktoren für eine Ruptur für die Nutzen-Risiko-Abwägung der primärpräventiven Aneurysmabehandlung zu identifizieren. Beachtung fand dabei in erster Linie die Größe und Lokalisation der Aneurysmen. Die Analyse der Aneurysmamorphologie spielte bei den Untersuchungen bisher eine untergeordnete Rolle, war sie doch mit der digitalen Subtraktionsangiographie nur unzureichend zu beurteilen. Durch die Entwicklung der 3D-Rotationsangiographie Ende der neunziger Jahre wurde die Form von Aneurysmen detailgenau erfaßbar. Im klinischen Alltag wird Aneurysmen mit unregelmäßiger Morphologie von den beurteilenden Neuroradiologen und Neurochirurgen ein erhöhtes Rupturrisiko zugeschrieben. Mit dem Ziel diese subjektive Einschätzung mittels einer systematische Formanalyse zu überprüfen, untersuchten wir im Rahmen einer prospektiven Pilotstudie die Form rupturierter (46) und nichtrupturierter (45) intrakranieller Aneurysmen an 70 konsekutiven Patienten. Neben der subjektiven Beurteilung durch zwei erfahrene Neuroradiologen unternahmen wir den Versuch, meßbare morphologische Daten zu erheben. Dazu verwendeten wir ein digitales, auf der Fourier-Analyse basierendes Bildanalysesystem. Die Darstellung der Aneurysmen erfolgte mit Hilfe der 3D-Rotationsangiographie. In der 3D-Darstellung fand sich eine Unregelmäßigkeit der Oberfläche bei 78% der rupturierten und bei 42% der nichtrupturierten Aneurysmen (p<0,05). Die quantitative Formanalyse zeigte bei rupturierten Aneurysmen einen kleineren Rundheitsfaktor (p<0,02) und höhere Werte der Fourieramplituden 2, 3 und 7 (p<0,025) als bei nichtrupturierten Aneurysmen. Diese Kriterien deuten auf eine unregelmäßigere Form rupturierter Aneurysmen hin. Unsere Formanalyse ergab signifikante Unterschiede zwischen rupturierten und nichtrupturierten Aneurysmen. Die Fourier-Analyse erwies sich dabei als hilfreiche Methode, um diese Formunterschiede quantitativ zu dokumentieren. Die Ergebnisse dieser Pilotstudie müssen jedoch anhand von Untersuchungen mit größerer Fallzahl sowie einer multiplanaren quantitativen Formanalyse überprüft werden.
Die Theorie der Quantenelektrodynamik (QED) starker Felder sagt vorher, dass sich unter dem Einfluss sehr starker elektromagnetischer Felder der Vakuumzustand verändert. Überschreitet das äußere (im einfachsten Fall elektrostatische) Feld eine gewisse kritische Stärke, dann kommt es zur spontanen Erzeugung von Elektron-Positron-Paaren und im Gefolge zur Ausbildung eines geladenen Vakuums. Charakteristisch dafür sind gebundene Elektronenzustände mit einer Bindungsenergie von mehr als der doppelten Ruhenergie. Dieser Effekt wurde bisher meist für sphärisch symmetrische Systeme untersucht, insbesondere für das Coulombpotential eines schweren Kerns. In der vorliegenden Arbeit wird erkundet, wie sich das überkritische Phänomen beim Übergang von sphärischer zu zylindrischer Geometrie verhält. Dazu werden die Lösungen der Dirac-Gleichung für Elektronen im elektrostatischen Potential eines langen dünnen geladenen Zylinders ("geladener String") berechnen und darauf aufbauend das überkritische Phänomen untersucht. Da das logarithmische Potential eines unendlich langen Strings unbegrenzt anwächst, sollten alle Elektronzustände überkritisch sein (Möglichkeit des Tunnelns durch den Teilchen-Antiteilchen-Gap). Die Zentralladung sollte sich dann mit einer entgegengesetzt geladenen Hülle aus Vakuumelektronen umgeben und damit neutralisieren. Um diese Phänomene quantitativ zu beschreiben untersuchen wir die Lösungen der Poisson-Gleichung und der der Dirac-Gleichung in Zylindersymmetrie. Zunächst wird eine Reihenentwicklung für das elektrostatische Potential in der Mittelebene eines homogen geladenen Zylinders von endlicher Länge und endlichem Radius hergeleitet. Anschließend benutzen wir den Tetraden- (Vierbein-) Formalismus zur Separation der Dirac-Gleichung in Zylinderkoordinaten. Die resultierende entkoppelte radiale Dirac-Gleichung wird in eine Schrödinger-artige Form transformiert. Die gebundenen Zustände werden mit der Methode der uniformen Approximation, einer Variante der WKB-Näherung, berechnet und ihre Abhängigkeit von den Parametern Stringlänge, Stringradius und Potentialstärke wird studiert. Die Näherungsmethode wird auch benutzt, um den überkritischen Fall zu untersuchen, bei dem sich die gebundenen Zustände in Resonanzen im Antiteilchen-Kontinuum verwandeln. Der zugehörige Tunnelprozess wird studiert und die Resonanz-Lebensdauer abgeschätzt. Schließlich wird das Problem der Vakuumladung und Selbstabschirmung angegangen. Die Vakuumladung wird durch Aufsummation der Ladungsdichten aller überkritischen (quasi-)gebundenen Zustände berechnet. Die Vakuumladung tritt als Quellterm in der Poisson-Gleichung für das elektrostatische Potential auf, welches wiederum die Wellenfunktionen bestimmt. Auf die volle selbstkonsistente Lösung dieses Problems wird verzichtet. Wir zeigen jedoch dass die Vakuumladung wie erwartet gross genug ist, um eine Totalabschirmung des geladenen Strings zu bewirken.
Atherosklerotische Stenosen der Karotiden sind eine häufige Erkrankung mit variablem Verlauf und stellen durch ihre potentielle Emboligenität einen wichtigen Risikofaktor für zerebrale Ischämien dar. Klinische und paraklinische Parameter helfen, das individuelle Schlaganfallrisiko bei Patienten mit hochgradigen ACI-Stenosen einzuschätzen, das unmittelbar nach einem thrombembolischen Ereignis besonders hoch ist. Als histomorphologisches Korrelat dieser "Vulnerabilität" wird die Ruptur der fibrotischen Deckplatte der Plaque propagiert, die häufiger bei symptomatischen Patienten nachzuweisen ist. Sie korreliert mit der Infiltration der Gefäßwand durch aktivierte Leukozyten, die über molekulare und zelluläre Interaktionen die Zell- und Bindegewebskomposition der Plaque verändern können. Die strukturelle Integrität atherosklerotischer Läsionen beruht auf der extrazellulären Vernetzung von kollagenem Bindegewebe, das überwiegend von phänotypisch veränderten glatten Gefäßmuskelzellen produziert wird. Eine Hypothese besagt, dass die im Rahmen der Inflammation stattfindende Zunahme proapoptotischer Mediatoren über eine Ausdünnung der zellulären und bindegewebigen Strukturen zu einem Verlust an mechanischer Stabilität führt und somit eine symptomatische Ruptur begünstigt. Da der Nachweis einer Ruptur mit Exponierung des thrombogenen nekrotischen Kerns allerdings nur in einem Teil der symptomatischen Plaques und umgekehrt auch in einem Teil der asymptomatischen nachgewiesen werden kann, ist aber bislang unklar, ob o.g. Abläufe in der humanen Karotis-Atherosklerose tatsächlich mit einer klinischen Relevanz einhergehen. In der vorliegenden Arbeit wurde daher das Auftreten der Apoptose von glatten Gefäßmuskelzellen (mittels DNA in situ end labeling Technik, TUNEL-Färbung) in 38 prospektiv gesammelten Endarterektomie-Präparaten hochgradiger Karotisstenosen quantitativ erfasst und statistisch in Beziehung gesetzt zu Parametern der Plaque-Instabilität, klinisch definiert durch kürzliche (< 60 Tage zurückliegende) ischämische Ereignisse (n=19) und histopathologisch definiert über den Nachweis einer Plaque-Ruptur (n=14). Außerdem wurde eine morphometrische Analyse der einzelnen Plaque-Komponenten durchgeführt und deren Ergebnisse zu den zellulären und klinischen Parametern in Beziehung gesetzt. Die Morphometrie ergab keine signifikanten Unterschiede zwischen symptomatischen vs. asymptomatischen und rupturierten vs. unrupturierten Plaques was die Größe der fibrotischen Deckplatte, die durchschnittliche Dicke (Kern-Lumen-Distanz) und die dünnsten bzw. dicksten Stellen der Deckplatte anbelangt. Anzahl und Konzentration apoptotischer glatter Muskelzellen war deutlich (p<0,001) erhöht in symptomatischen, klinisch instabilen, Karotisplaques. Allerdings waren die Apoptose-Raten in Präparaten, die eine Plaque-Ruptur aufwiesen, nicht signifikant erhöht. Darüber hinaus fand sich kein Hinweis darauf, dass erhöhte Apoptose-Raten zu einem quantifizierbaren Verlust glatter Gefäßmuskelzellen in der fibrotischen Deckplatte führen. Auf dem Boden dieser Ergebnisse kann gefolgert werden, dass erhöhten Apoptose-Raten glatter Gefäßmuskelzellen in der humanen Atherosklerose offenbar eine tragende Bedeutung bei der Entwicklung thrombembolischer Ereignisse zukommt. Allerdings wird die Annahme, dass erhöhte Apoptose-Raten über einen Verlust an glatten Gefäßmuskelzellen Einfluss auf die morphometrischen Eigenschaften der fibrotischen Deckplatte atherosklerotischer Karotis-Läsionen nehmen und zu deren Ausdünnung führen durch die vorliegende Untersuchung nicht gestützt. Vielmehr scheint es plausibel, dass die Apoptose glatter Muskelzellen im Rahmen inflammatorischer Prozesse Einfluss auf die Komposition der Karotisplaque nimmt und so über eine Desintegration der zellulären und bindegewebigen Bestandteile zu reduzierter mechanischer Widerstandskraft und Rupturneigung führt.
Wert/Preis
(2005)
Von der "Gesellschaft" zur "Vergesellschaftung" : zur deutschen Tradition des Gesellschaftsbegriffs
(2005)
Der Begriff der "Weltgesellschaft" hat in den letzten Jahren im Zusammenhang mit der Globalisierungsdebatte eine bemerkenswerte Renaissance erfahren. Mit ihm kommen wieder unterschiedliche nationale Traditionen des Gesellschaftsbegriffs in den Blick, wie sie seit Beginn des 19. Jahrhunderts die Geschichte der Soziologie prägen. In dem vorliegenden Aufsatz wird der Versuch unternommen, die deutsche Tradition des Gesellschaftsbegriffs ausgehend von der Aufklärungsphilosophie Immanuel Kants und der ihr zugrunde liegenden Vision einer "Weltbürgergesellschaft" bis hin zu den soziologischen Klassikern Ferdinand Tönnies, Georg Simmel und Max Weber zu rekonstruieren. Es wird dabei zum einen der Versuch gemacht, die weltgesellschaftlichen Implikationen zu verdeutlichen, die innerhalb dieser Tradition des Gesellschaftsbegriffs zum Ausdruck kommen. Zum anderen werden die Gründe benannt, die Simmel und Weber dazu veranlaßt haben, den Begriff der "Gesellschaft" durch den der "Vergesellschaftung" zu ersetzen und das mit diesem ursprünglich verbundene Konstrukt einer autonomen Gesellschaftsgeschichte schließlich ganz zugunsten einer höchst anspruchsvollen Version von Universalgeschichte aufzugeben.
Chats spielen im eLearning eine kontroverse Rolle: einerseits werden sie oftmals als virtuelle Plauderecken gesehen und es wird ihnen keine wesentliche Rolle in netzbasierten Bildungsangeboten zugesprochen, andererseits stellen sie in einigen virtuellen Veranstaltungsangeboten ein wichtiges Kommunikationselement dar und tragen zum sozialen Zusammenhang der lernenden Gruppe bei. Ob Chats im Rahmen von eLearning erfolgreich eingesetzt werden können, hängt von den Zielsetzungen der Veranstaltung, dem jeweiligen Kontext und den eingesetzten didaktischen Methoden ab. Es muss gelingen, die besonderen medialen Eigenschaften des Chats gewinnbringend in den Bildungsangeboten einzusetzen – wobei mit Gewinn nicht ein monetärer, sondern ein didaktischer Mehrwert bezeichnet wird. Dieser Beitrag widmet sich den Einsatzmöglichkeiten des Chats im eLearning: auf der Basis von Beispielen und Erfahrungen zum Einsatz dieses Mediums in virtuellen Hochschulveranstaltungen werden Gestaltungsempfehlungen abgeleitet und Anwendungsszenarien in der Hochschullehre und der beruflichen Bildung beschrieben.
Der Artikel untersucht Wahrnehmungsformen des Kapitalismus bei ex-sowjetischen Migranten nach ihrer Auswanderung nach Deutschland. Dabei konzentriere ich mich auf ihre Erfahrungen mit materiellen Gütern im allgemeinen und mit Konsum von Nahrung im besonderen. In der vorliegenden ethnographischen Studie stütze ich mich auf Interviews und teilnehmende Beobachtung, die ich zwischen 2002 und 2004 mit 45-60jährigen Migranten durchgeführt haben, die im Zeitraum zwischen 1990 - 1995 ausgewandert sind. Alle Befragten kommen aus zwei der europäischen Republiken der ehemaligen SU: Russland und Ukraine. Es handelt sich bei ihnen um eine Gruppe hochqualifizierter jüdischer Migranten.2 Da sie allerdings nicht religiös gebunden sind, spielt ihre Zugehörigkeit zum Judentum eine viel geringere Rolle als ihre sowjetische Erfahrung und ihre Zugehörigkeit zu den gebildeten Schichten der sowjetischen Intelligenz. Wahrscheinlich gilt das hier beobachtete Phänomen ganz allgemein für die ex-sowjetischen Migrantengruppen. ...
Qualitätsmanagement in der Arztpraxis : Begleitung eines Managementprojekts im Ärztenetz MQLD
(2005)
Im Jahr 2000 wird im MQLD (Medizinisches Qualitätsnetz Langen-Dreieich), einem Ärztenetz in Südhessen, das Modellprojekt "Personalentwicklung und Mitarbeiterschulung" auf der Basis der DIN EN ISO 9001:2000 entwickelt, das Arbeitsbereiche wie Praxismanagement, Patientenservice und Kommunikation mit den Patienten durch themenbezogene Trainingseinheiten, aufbauend auf den Ergebnissen einer fragebogenbasierten Patienten- und Mitarbeiterbefragung, verbessern soll. Das Projekt wird von der Kassenärztlichen Vereinigung (KV) Hessen mitfinanziert und von der Firma Medizin-QM durchgeführt. Es ist als "dynamisches Modell" konzipiert und damit vergleichbar mit anderen QM-Systemen (QM = Qualitätsmanagement) wie EPA (Europäisches Praxisassessment) oder dem System der Berlin-Chemie. Ziel der vorliegenden Untersuchung ist es, das QM-Projekt als Beginn einer dynamischen Entwicklung darzustellen, die Ergebnisse der einzelnen Schritte zu diskutieren und die Bedeutung des Projekts für das Umfeld von QM in der ambulanten Krankenversorgung zu erörtern. • Der Projektplan dient als Grundlage. Er definiert grundlegende Fragen zu Bearbeitungsobjekt, Projektzielen, Zusammenhang zwischen Projekt und Qualitätspolitik der Einrichtung, Evaluation, Verantwortlichkeit, Kooperation, Zeitplan, Logistik, Ablauf, Dokumentation und Integration der Ergebnisse in den Alltag. Die Kontinuitätseinführung von QM fehlt im Plan des MQLD-Projekts. Dadurch bleiben Projektziele wie die systematische Verbesserung der Netzkommunikation und die kontinuierliche Steigerung der Mitarbeiterleistung unerreicht. • Ein Projekt muss an die gegebene Infrastruktur angepasst werden. Das MQLDProjekt erreicht dies durch die Erstellung des Praxisprofils und zum Teil mittels der oben angeführten Ergebnisse der Ärzte-, Mitarbeiter- und Patienten-Befragung. • Eine Teilnahmequote von 17% der Praxen (9 von 53) ist zu gering. Die Quote kann in zukünftigen Projekten erhöht werden durch die Setzung positiver Teilnahmeanreize wie zum Beispiel Bonitätsregelungen, durch die Überzeugung, dass QM zur Verringerung des Arbeitsaufwands führt und durch optimale Information potentieller Projektteilnehmer. • Die Teilnahmequote der Mitarbeiter liegt mit 66% (31 von 47) im akzeptablen Bereich. Sie korreliert eng mit der Motivationsfähigkeit des Arztes. QM muss als Unternehmenskultur gelebt und Führungsaufgabe werden. • Die Zahl der teilnehmenden Patienten liegt mit 528 (verteilt auf acht Praxen) im unteren Akzeptanzbereich einer Stichprobengröße. In mindestens zwei Praxen ist die Patientenzahl mit 29 beziehungsweise 36 aber deutlich zu gering. Die Auswahl einer ausreichend großen und möglichst repräsentativen Patientenstichprobe von mindestens 50 bis 100 Patienten aus jeder Praxis und die Verteilung der Fragebögen müssen in Zukunft systematisch erfolgen, das heißt beispielsweise durch ein fortlaufende Ausgabe der Bögen inklusive eines frankierten Rückumschlags im Rahmen eines persönlichen Gesprächs. • Aufgrund besserer Vergleichbarkeit der Ergebnisse, insgesamt geringeren Zeit- und Organisationsaufwands, besserer Standardisierungsmöglichkeiten und wegen der Möglichkeit der Bearbeitung größerer Zahlen sind Fragebögen als quantitative Erhebungsinstrumente qualitativen Erhebungsinstrumenten wie beispielsweise Focus-Group-Discussions vorzuziehen. Die mangelhafte Erfassung unterrepräsentierter Gruppen, die Informationsfilterung und Praxisferne durch schriftliche Meinungsäußerung und die zeitlich verzögerte Rückmeldung müssen dafür in Kauf genommen werden. Fragebögen müssen dabei valide, reliabel, diskriminierungsfähig und einheitlich sein. Die eingesetzten Bögen erfüllen diesen Anspruch nicht. So ist auch der anzustrebende Vergleich der Ergebnisse mit externen Daten (Querschnittstudie) nicht möglich. • Mitarbeiterbeteiligung in Form von Befragung, Beurteilung und Schulung mit Fokussierung auf die Schwerpunkte Weiterbildung und Organisation der Arbeit ist essentiell für eine erfolgreiche Personalführung und führt zu qualitätsbewußten Mitarbeitern. Sie ist eines der Schlüsselelemente des modernen QM. Die Beurteilungsfähigkeit der Ärzte muss vor einer Mitarbeiterbeurteilung sichergestellt werden. • Eine Patientenbefragung ist als Teil des QM-Schlüsselelements ´Kunden´- Orientierung ein essentieller Bestandteil eines Projekts. • Die Schulungsveranstaltungen werden an die spezifischen Gegebenheiten und an die Befragungsergebnisse angepasst. Geschult werden die Bereiche Praxismanagement, Patientenservice und Marketing, Kommunikation mit den Patienten, Personalbeurteilung und -entwicklung und Netzkommunikation. • Die Durchführung der Schulungsveranstaltungen wird von den Teilnehmern für ausreichend bis mangelhaft befunden. Die angekündigten Lehrmethoden werden nicht eingesetzt. Die didaktische Qualität der Ausbilder ist daher sicherzustellen. • Im Vergleich mit anderen QM-Systemen zeigen sich Kompatibilitäten von Grundkonzepten, Themenschwerpunkten und einzelnen Bausteinen. Validierung und Zertifizierung des MQLD-Projekts sind jedoch unzureichend. Abschließend ist zu betonen, dass es sich beim QM-Projekt des MQLD um ein Modell handelt, das für die künftige QM-Arbeit in der Arztpraxis weiterentwickelt und optimiert werden muss. Es stellt lediglich die Basis der Entwicklung weiterer QM-Projekte dar.