Refine
Document Type
- Doctoral Thesis (14)
Has Fulltext
- yes (14)
Is part of the Bibliography
- no (14)
Keywords
- Demenz (2)
- Alternsforschung (1)
- Betriebliche Gesundheitsförderung (1)
- Büroangestellte (1)
- Computerkompetenz (1)
- Dehnen (1)
- Dementia (1)
- Einwilligungsfähigkeit (1)
- Entscheidungsassistenz (1)
- Forensische Osteologie (1)
Institute
Größere Knochendefekte, Pseudarthrosen oder verzögerte Frakturheilungen erfordern
die Transplantation von autologer Spongiosa mit dem Nachteil schmerzhafter
Entnahmedefekte. Die biologische Wertigkeit alternativer und osteokonduktiv
wirkender Knochenersatzmaterialien sollte in der vorgelegten Arbeit in vitro beurteilt
werden. Hierbei sollten Adhäsion und Funktion mesenchymaler Stammzellen (MSC)
und endothelialer Progenitorzellen (EPC) alleine und in Co-Kultur untersucht werden.
Während die MSCs auf Scaffolds die Knochenneubildung fördern können, wird
angenommen, dass die zusätzliche Verwendung von EPCs die Gefäßeinsprossung
zusätzlich fördert. Zur Anwendung kamen Tutoplast® als humaner Knochenersatz,
Cerabone® als boviner Knochenersatz, drei verschiedene Tricalciumphophate (ß-TCP:
Chronos® und Vitoss®; -TCP BioBase®) und ein mit Silikon-beschichtetes
Hydroxylapatit (Actifuse®). Hierzu wurde die Zahl der adhärenten Zellen auf den
verschiedenen Matrices fluoreszenzmikroskopisch ermittelt. Außerdem wurde die
metabolische Aktivität der Zellen auf den Knochenersatzstoffen mit dem MTT-Test
untersucht sowie mittels RT-PCR nachgewiesen, ob sich die Zellen weiter
differenzieren und ihre Fähigkeit beibehalten. Darüberhinaus wurden die einzelnen
Knochenersatzstoffe in der Zusammenschau mit den adhärenten Zellen
elektronenmikroskopisch bewertet.
Grundsätzlich konnten erhebliche Unterschiede sowohl zwischen den einzelnen
Knochenersatzstoffen als auch zwischen den untersuchten Zellpopulationen
festgestellt werden. Bei alleiniger Besiedlung mit MSCs ist festgestellt worden, dass
Tutoplast® die höchsten Adhäsionsraten, gekoppelt mit einer guten
Stoffwechselaktivität im MTT-Test und bei der Expression der osteogenen Proteine
cbfa-1 und Osteocalcin aufweist. Diese Ergebnisse wurden durch die REM bestätigt, die
eine fibrillenähnliche Struktur von Tutoplast® zeigt und somit eine fast flächige
Adhäsion ermöglicht. Chronos® zeigt als einziges Knochenersatzmaterial ebenfalls eine
gute Adhäsion, Funktion und Morphologie, während die anderen Tricalciumphophate,
Actifuse® und Cerabone® deutlich abfielen.
Interessanterweise findet sich bei der reinen EPC-Gruppe ein ganz anderes Ergebnis.
Hier zeigt Actifuse® eine sehr gute Zelladhäsion, gefolgt von Biobase®. Dies bestätigt
sich auch im MTT-Test und bei der mRNA-Expression endothelialer Proteine, wie dem
von Willebrandt Faktor und VEGF. Die Ergebnisse der Co-Kultur zeigen hingegen
wiederum Tutoplast® und Chronos® mit guten Ergebnissen, interessanterweise aber
auch Actifuse® und Biobase® mit deutlicher Überlegenheit gegenüber den allseits
schlecht abschneidenden Produkten Cerabone® und Vitoss®. Während Tutoplast® und
Chronos® in der Co-Kultur höhere Anteile an MSCs aufwiesen, konnte bei Actifuse®
und Biobase® ein relativ hoher Anteil an EPCs festgestellt werden. Alleine bei Chronos®
konnte ein synergistischer Effekt der Co-Kultur in Bezug auf die adhärenten Zellzahl
festgestellt werden, die gegenüber der Einzelkultur über die Zeit stabil blieb. In der
Summe sind die Zelladhäsionen, -funktionen und Genexpressionen bei den vier
wirksamen Knochenersatzmaterialien in dieser Gruppe statistisch nicht
unterschiedlich.
Die Ergebnisse zeigen, dass bei der Verwendung von osteokonduktiven
Knochenersatzmaterialien deren spezifische Auswirkungen auf die Zelladhäsion und
Funktion berücksichtigt werden muss. Sowohl die Funktion der EPCs im Hinblick auf
eine vaskulären Anschluss des neugebildeten Knochens wie auch der MSCs im Hinblick
auf eine osteogene Differenzierung sollten optimal sein. Die in dieser Studie
festgestellten Effekte konnten bereits in einer in vivo Studie an einem critical size
Femurdefektmodell bestätigt werden, indem die kombinierte Anwendung von EPCs
und MSCs auf Chronos® die beste Frakturheilung zeigte.
Abschließend kann festgehalten werden, dass man bei der Verwendung des richtigen
Scaffolds mit den geeigneten Zellen einen adäquaten Knochenersatz induzieren kann,
der mittelfristig zu einer Vermeidung der schmerzhaften Entnahme von Spongiosa aus
dem Beckenknochen führen kann.
In der vorliegenden Arbeit wird die Einbindung der Navigation in die operative Versorgung der Femurfrakur beschrieben und mit der konventionellen Methode verglichen. Die Marknagelung ist eine von Prof. Dr. G. B. G. Küntscher in den 40er Jahren des 20ten Jahrhunderts entwickelte Behandlung zur Bruchversorgung und Durchführung von Arthrodesen. Die Navigation ist eine Variante der computer-assistierten Chirurgie. Diese Technologien haben in den 90er Jahren des 20ten Jahrhunderts Einzug in die Operationssäle gehalten. Die Navigationssysteme erfahren eine fortwährende Entwicklung und Ausweitung des Einsatzgebietes. Sie konnten sich bis jetzt jedoch nicht, trotz der Möglichkeiten, gegenüber den bisherigen konventionellen Entwicklungen im Bereich der intramedullären Marknagelversorgung durchsetzen. Den Vorzügen der Navigation, der Reduktion der Strahlenbelastung und Erhöhung der Präzision, werden hohe Anschaffungskosten, eine lange Einarbeitungszeit, längere Vorbereitungs- und Operationszeiten und der personelle Mehraufwand gegenüber gestellt. Ein ausführlicher Vergleich der Navigation mit dem konventionellen Verfahren existiert in der Fachliteratur bis jetzt nur auf einzelne Arbeitsschritte bezogen, wie z.B. dem Vorgang der distalen Verriegelung. In unseren Untersuchungen wurden 22 Patienten mit der Navigation versorgt. Die konventionelle Methode wurde bei 12 Patienten verwendet. Alle entscheidenden Schritte der Femurmarknagelversorgung, die Nageleintrittsbestimmung, die Frakturreposition und die distale Verriegelung wurden in der Dauer und Strahlenbelastung erfasst, ebenso die Gesamtoperationszeit und Gesamtstrahlenbelastung einander gegenübergestellt und mit den vorhandenen Daten in der Fachliteratur verglichen. Die Verwendung der Navigation hat den Arbeitsschritt des Nageleintritts verlängert (23,3 min vs 14,8 min). Gegenüber der konventionellen Methode konnte eine Reduktion der Röntgenzeit um 22 % (0,39 min vs 0,5 min) bei diesem Vorgang beobachtet werden. Die navigierte Frakturreposition dauerte im Durchschnitt 25,1 min vs 16,8 min bei der konventionellen Methode. Die Strahlenbelastung konnte um 70 % auf 0,39 min vs 1,28 min gesenkt werden. Die Rate der geschlossenen Frakturrepositionen lag bei 86 % gegenüber 67 % bei dem konventionellen Vorgehen. Die distale Verriegelung mit zwei Bolzen konnte mit der Navigation in 28,9 min vs 13,9 min bei der konventionellen Methode durchgeführt werden. Die Röntgenzeit wurde mit Hilfe der Navigation um 50 % reduziert (0,39 min vs 0,78 min). Die Präzision bei der distalen Verriegelung konnte mit dem Verfahren der Navigation gegenüber der konventionellen Methode und dem strahlendurchlässigen Winkelgetriebe nur geringfügig gesteigert werden (93 % bei 44 Bolzen vs 91 % bei 23 Bolzen). Die Gesamtoperationszeit der navigierten Fälle war durchschnittlich 43,2 min länger als die konventionell behandelten Fälle (150,1 min vs 106,9 min). Die Gesamtstrahlenzeit konnte mit der Navigation gegenüber der konventionellen Methode um 37,5 % gesenkt werden (2,5 min vs 4 min). Die Vorteile der Navigation zeigten sich vorallem bei der Frakturreposition. Hier konnte die Strahlenbelastung deutlich gesenkt werden (70 %, 0,39 min vs 1,28 min). Die Rate der erfolgreichen geschlossenen Manöver wurde gegenüber der konventionellen Methode gesteigert (86 % vs 67 %).
Bei der distalen Verriegelung haben wir eine Reduktion der Dauer einer Bohrung mit Navigation um 14 % gegenüber der konventionellen Methode mit dem strahlendurchlässigen Winkelgetriebe festgestellt (3,6 min vs 4,2 min, gemessen Haut-inzision und Bohrung bis Gegencorticalis). Die Gesamtstrahlenzeit für den Vorgang der distalen Verriegelung mit zwei Bolzen und sich anschließender Lagekontrolle zeigte sich mit der Navigation um 50 % redziert (0,39 min vs 0,78 min). Ein zeitlicher Mehraufwand wurde durch die Vorbereitung der Navigation bei allen Arbeitsschritten festgestellt.
Die Extrauteringravidität (EUG) ist eine relativ häufige und bei zu spätem Erkennen schwerwiegende bis tödliche Anomalie der Schwangerschaft. Rund 2 % aller Schwangerschaften befinden sich extrauterin, z. B. im Eileiter, im Eierstock oder in der Bauchhöhle. Das Symptomspektrum kann vielfältig sein und reicht u. a. von Symptomfreiheit bis hin zu Schockzuständen durch innere Blutungen. Die maternale Sterblichkeit lag zu Beginn des letzten Jahrhunderts noch sehr hoch, da die Diagnose nicht oder zu spät gestellt wurde bzw. keine adäquate Therapie verfügbar war. Durch sensible Schwangerschaftstest, welche die β-Untereinheit des hCGs nachweisen, und den transvaginalen Ultraschall können heute pathologische Schwangerschaftsverläufe früh detektiert und ebenso früh interveniert werden. Je nach Fortschritt und Lokalisation der EUG stehen verschiedene Therapiemöglichkeiten zu Verfügung. Ambulant kann eine einmalige Methotrexatinjektion erfolgen. Auch chirurgische Methoden sind eine Therapieoption.
In dieser Arbeit wurden die 8.040 Publikationen, die zwischen 1900 und 2012 zum Thema EUG erschienen sind und ins Web of Science aufgenommen wurden, szientometrisch analysiert, um quantitative und qualitative Aussagen bezüglich der Publikationen und dem Forschungsverhalten treffen zu können. Quantitativ wurden u. a. die Publikationsleistung einzelner Länder, Autoren und Fachzeitschriften sowie verschiedene Kooperationen evaluiert. Die qualitative Beurteilung betrachtete neben Zitationszahlen, Zitationsraten und modifizierten H-Indizes auch Impact-Faktoren (IF). Eine derartige Untersuchung existiert zum jetzigen Zeitpunkt nicht.
Im betrachteten Zeitraum sind die Publikations- und Zitationszahlen stetig gestiegen. Dies lässt auf ein gestiegenes wissenschaftliches Interesse für EUGen schließen. Außerdem ist über die Jahre auch die Anzahl der Autoren pro Publikation gestiegen, was auf eine vermehrte Zusammenarbeit zwischen Autoren, Institutionen und Ländern hindeutet. Als meistpublizierend kristallisierten sich die USA heraus. Auch bezüglich des modifizierten H-Index`, der erhaltenen Zitierungen und der meisten Institutionen, die das Thema EUG beforschen, sind die USA führend. Im Gegensatz dazu ist Israel mit einem weitaus geringeren BIP unter den 5 meistpublizierenden Ländern zu finden. Israels Publikationszahl pro BIP zeigt, dass die Forschung einen hohen Stellen¬wert hat, aus der qualitativ hochwertige Ergebnisse resultieren, was durch die hohe Zitationsrate und den modifizierten H-Index untermauert wird. Unter den Zeitschriften sind Fertility and Sterility, American Journal of Obstetrics & Gynecology und Obstetrics & Gynecology quantitativ die Spitzenreiter. Werden jedoch qualitative Parameter wie der IF betrachtet, siedeln sich die genannten Periodika im hinteren Drittel ein. Im Gegensatz zu Journalen mit hohen IF, wie das New England Journal of Medicine (IF = 51,658) und The Lancet (IF = 39,060) haben die meistpublizierenden Journale ein eingeschränktes Themengebiet, was erheblichen Einfluss auf den IF hat. Unter den 15 meistpublizierenden Fachjournalen werden 14 in englischer Sprache veröffentlicht. Nur die Fachzeitschrift Geburtshilfe und Frauenheilkunde publiziert deutschsprachige Fachbeiträge. Parallel dazu sind mehr als 92 % der Veröffentlichungen in Englisch publiziert worden. Ursächlich hierfür sind unter anderem die Vorauswahl, die vom WoS getroffen wird und die Anerkennung der englischen Sprache als Sprache der Wissenschaft. Mit Abstand die meisten Publikationen wurden im Themengebiet Obstetrics & Gynecology veröffentlicht. Da die EUG ein gynäkologisches Krankheitsbild ist, ist dies wenig verwunderlich. Weltweit führende Institution hinsichtlich der Publikationen ist die University of London. Mit 168 Publikationen reihen sich die weltbekannten amerikanischen Universitäten aus Pennsylvania, Yale und die Harvard University hinter der britischen Einrichtung ein. Hinsichtlich der Zahl der Zitierungen liegt die Londoner Universität hinter dem Center for Disease Control, das in den USA angesiedelt ist. Unter den Autoren genießt der Amerikaner Kurt T. Barnhart (81 Publikationen) großes Ansehen. Diese Veröffentlichungen wurden über 1.000 Mal zitiert. Sein modifizierter H-Index von 19 wird von Hervé Fernandez (mod. H-Index 24) noch übertroffen. Mit 79 Publikationen reiht er sich hinter Barnhart ein. Durch die Genderanalyse wird ersichtlich, dass weitaus weniger Frauen als Autoren in Erscheinung treten, wobei nur ca. 22 % der Autorennamen ihrem Geschlecht zugeordnet werden konnten.
Diese szientometrische Analyse zum Thema EUG liefert einen Überblick über die quantitative und qualitative Entwicklung der internationalen Forschung zeigt die wissenschaftliche Anerkennung auf, interpretiert Ergebnisse und hinterfragt sie kritisch.
Verletzungen der Fingerkuppen stellen einen häufigen Grund für die Vorstellung in der Notaufnahme dar. Während viele Verletzungen konservativ behandelt werden können, benötigen einige Patienten eine operative Versorgung. Dabei kommen verschiedene operative Verfahren zur Anwendung, darunter eine Fingerkuppenrekonstruktion mit einer neurovaskulären Insel-Lappenplastik.
Ziel der neurovaskulären Insel-Lappenplastik ist die Wiederherstellung einer taktil sensiblen und wieder belastungsfähigen Fingerkuppe ohne ein Längendefizit des Fingers.
In der vorliegenden Studie wurden Langzeit-Behandlungsergebnisse mit einer mittleren Nachuntersuchungsdauer von 105 Monaten bei 28 Patienten mit 29 durch neurovaskuläre Insel-Lappenplastiken rekonstruierten Fingerkuppen in der Berufsgenossenschaftlichen Unfallklinik Frankfurt am Main erfasst. Die untersuchten Patienten hatten zum Zeitpunkt der Verletzung ein Durchschnittsalter von 38,4 Jahren. Es handelte sich überwiegend um männliche und berufstätige Patienten.
Es wurden nur Fingerkuppenverletzungen mit freiliegenden Knochen (Allen-Klassifikation Zone III und IV) operativ versorgt. In unserer Studie traten am häufigsten die Verletzungen am Mittelfinger, Zeigefinger und Ringfinger auf. Die Mehrheit der Fingerkuppenverletzungen geschah in Folge eines Arbeitsunfalls, die Arbeitsunfähigkeitsdauer betrug ca. 6,1 Wochen. Die maximale Größe eines neurovaskulären Insel-Lappen lag bei 6 x 3,5 cm.
Alle Patienten waren mit den Behandlungsergebnissen anhand der numerischen Rating-Skala und des DASH Fragebogens bezüglich Funktionalität sowie dem ästhetischen Outcome zufrieden und würden sich wieder operieren lassen.
Die Sensibilität konnte anhand der Zwei-Punkte-Diskrimination sowie Semmes-Weinstein Monofilament-Testes als gut bewertet werden und normale physiologische Werte erreichen. Die Narbe war überwiegend weich und in der Mehrheit der Fälle entsprach sie anhand der Vancouver Scar Scale Werte annähend der normalen Haut. Zwei Drittel der Patienten gaben keine Schmerzen in Ruhe an. Die Hälfte der Patienten gaben Schmerzen unter Belastung anhand der numerischen Rating-Scala an.
Trotz der hohen Anzahl von Krallennagelbildungen in 56,5 % und einer Differenz der Nagellänge bzw. Form waren alle Patienten mit dem Erhalt des Nagels zufrieden und haben dies subjektiv nicht als störend empfunden.
Als besonders beeinträchtigend wurde eine Kälteempfindlichkeit von 48,3 % Patienten beschrieben.
Der Mittelwert der Fingerkraft im Schlüsselgriff mit Hilfe des Pinch-Gauge zwischen Daumen und den vier Fingerspitzen im Wechsel wurde bei fast allen Messungen an den gesunden Fingern gering größer gemessen ohne eine statistisch signifikante Differenz. Die Messung der Handkraft mittels Jamar-Dynamometer ergab ein Defizit von 8,8 % (Vergleich betroffene zur gesunden Hand).
Bei drei von 24 Patienten hat sich eine Beugekontraktur im Interphalangealgelenk von 5°, 15°, 20° und bei einem von 22 Patienten im distalen Interphalangealgelenk von 10° gebildet. Zum Nachuntersuchungszeitpunkt wurden durch die Untersucherin ein Hoffmann-Tinel- Zeichen in 24,1 % und Druckschmerz in 17,2 % im Bereich der verletzten Fingerkuppe festgestellt. Subjektiv empfand kein Patient diese Symptome als störend und alle berufstätigen Patienten konnten ihre vor dem Unfall ausgeübte Tätigkeit wieder aufnehmen. Diese Studie konnte belegen, dass die Defektdeckung der Fingerkuppenverletzungen mit Hilfe von neurovaskulären Insel-Lappenplastiken ein sehr gutes ästhetisches und funktionelles Ergebnis mit einer fast identischen Hautqualität erzielt. Mit dieser Methode konnte eine Wiederherstellung des Weichteilgewebes der sensiblen Fingerkuppe auch bei großflächigen Defekten der Fingerkuppe erreicht werden. Die subjektive Patientenzufriedenheit mit dieser Rekonstruktionsmethode ist hoch.
Muskelskelett-Erkrankungen (MSE) bei Büroangestellten sind häufig mit einer höheren Muskelspannung und einer eingeschränkten Bewegungsreichweite assoziiert. Ein hohes präventives Potential haben daher Dehntrainings, da durch eine muskuläre Relaxation die Muskelspannung reduziert werden kann und gleichzeitig auf psychischer Ebene eine Möglichkeit zur Entspannung geboten wird. Auch im Rahmen von Maßnahmen der betrieblichen Gesundheitsförderung (BGF), die im Kontext der Arbeitsmedizin immer mehr an Bedeutung gewinnt, stellen Dehntrainings einen erfolgsversprechenden Ansatz dar. Allerdings sind die bislang überprüften Ansätze sehr zeitaufwendig, was zu einem erheblichen Verlust an Arbeitszeit führt. Ein Dehnprogramm mit geringem Zeitaufwand ist das gerätegestützte „five-Business“ Dehntraining, bei dem in fünf Übungen ganze Muskelketten intensiv gedehnt werden. Da das Gerät individuell einstellbar ist, ist die Trainingsintensität standardisiert und gleichzeitig individualisiert. Ziel dieser Studie war daher das five-Business“ Dehntraining auf seine Wirksamkeit hinsichtlich einer Verbesserung der Beweglichkeit, der Lebensqualität und von MSE zu evaluieren. Im Rahmen dieser Dissertation wurde in der ersten Publikation zunächst eine konkrete Methode erarbeitet, die anschließend als 12-wöchige Intervention bei Büroangestellten (Training zwei Mal wöchentlich für je 10 Minuten) umgesetzt wurde. Für die zweite Publikation wurden Veränderungen in der Beweglichkeit im Anschluss an die Intervention und deren Abhängigkeit von soziodemographischen und anthropometrischen Faktoren analysiert. Dazu wurden fünf Beweglichkeitstests verwendet: der Finger-Boden-Abstand und die Lateralflexion wurden mit einem Maßband evaluiert, während die Gelenkwinkel beim modifizierten Schultertest nach Janda, dem modifizierten Thomas Test und der Retroflexion des Rumpfes nach Janda mit einem digitalen Inklinometer gemessen wurden. Insgesamt nahmen 216 (79w; 137m) Probanden im Alter von 44,81 ± 10,55 Jahren freiwillig an der Studie teil. Die Probanden waren 1,76 ± 0,09 m groß und wogen 78,03 ± 15,11 kg. Die mittleren Unterschiede zeigten, dass die Probanden im Schultertest (rechts: 2,1 ± 7,7°, p = 0,001; links: 2,7 ± 10,11°, p = 0,001), in der nach Janda modifizierten Retroflexion des Rumpfes (5,4 ± 8,6°, p<0,001), im Finger-Boden-Abstand (-1,9 ± 4,0 cm, p<0,001) und in der Lateralflexion relativ zur Körpergröße (rechts: -0,004 ± 0,01, p = 0,002; links: -0,004 ± 0,01, p<0,001) Zuwächse im Bewegungsausmaß erzielten. Im Thomas Test zeigten die Probanden eine Abnahme der Flexibilität (rechts: -2,1 ± 4,5°, p<0,001; links: -1,2 ± 4,7°, p = 0,001). In allen Tests zeigten die Effektstärken geringe bis mittlere Effekte (d = 0,24 - 0,62). Probanden mit unterdurchschnittlicher Beweglichkeit im Prä-Test zeigten die höchsten Beweglichkeitszuwächse. Weder Alter, Körpergröße, Gewicht, Body-Mass-Index (BMI) noch Geschlecht hatten einen signifikanten Einfluss auf die Beweglichkeitsveränderungen. Insgesamt kann für das „five-Business“ Dehntraining resümiert werden, dass es effektiv zur Beweglichkeitssteigerung beiträgt. Der vergleichsweise geringe Zeitaufwand ist ausreichend, um insbesondere bei unterdurchschnittlicher Flexibilität zu einem Gewinn an Bewegungsreichweite beizutragen. Da weder soziodemographische noch anthropometrische Faktoren die Beweglichkeitsveränderungen signifikant beeinflussten, kann das „five-Business“ Dehntraining auch bei heterogen zusammengesetzten Kollektiven angewendet werden. Somit ist es als wirksame Dehnintervention als BGF Maßnahme für schreibtischgebundenen Büroangestellte einsetzbar.
Hintergrund. Die Achtung der individuellen Autonomie ist eines von vier medizinethischen Prinzipien, das im Kontext von Medizin und Forschung insbesondere in Bezug auf die informierte Einwilligung einer Person thematisiert wird. Menschen mit Demenz können aufgrund innerer oder äußerer Faktoren in ihrer Einwilligungsfähigkeit beeinträchtigt sein, was zu einer Einschränkung ihres Rechts auf Selbstbestimmung führen kann. Im diesbezüglichen Spannungsfeld zwischen Fürsorge und Autonomie soll Entscheidungsassistenz zur Ermöglichung selbstbestimmter Entscheidungen beitragen.
Zielrichtung der Arbeit. Ziel der vorliegenden Dissertation ist die Definition, Implementierung und Evaluation von Entscheidungsassistenzmaßnahmen für Menschen mit Demenz, um deren Autonomie in Entscheidungsprozessen zu unterstützen. Drei Teilprojekte umfassen die Ermittlung des internationalen Forschungsstands zu Entscheidungsassistenz bei Demenz, die Definition und Pilotierung von Unterstützungstools in der Praxis und die Analyse des individuellen Erlebens der vereinfachten Aufklärungsgespräche durch Menschen mit Demenz.
Methode. Im ersten Teilprojekt wurde eine am PRISMA-Standard orientierte systematische Literaturrecherche in Medline und PsycINFO durchgeführt. Die extrahierten relevanten Informationen wurden inhaltlich systematisiert. Aufbauend auf diesen Ergebnissen wurden im zweiten Teilprojekt konkrete Unterstützungstools definiert und in reale Aufklärungsgespräche (Lumbalpunktion) implementiert. Die Tools wurden in der Pilotierung in der Praxis sowie in einem iterativen Diskussionsprozess mit Experten weiterentwickelt. Im dritten Teilprojekt wurde das individuelle Erleben der Teilnehmer der vereinfachten Aufklärungsgespräche mittels problemzentrierter Interviews untersucht und die Daten einer qualitativen Inhaltsanalyse unterzogen.
Ergebnisse. Die Datenbankrecherche ergab initial 2348 Treffer. Nach Screenings der Titel, Abstracts und Volltexte konnten 11 Artikel eingeschlossen werden. Vier der eingeschlossenen Studien sind Interventionsstudien, die übrigen sieben qualitative Interviewstudien. Die identifizierten Unterstützungsmaßnahmen wurden zunächst den beiden Kategorien Interventionen und Strategien und anschließend unter Zuhilfenahme des Konzepts des Contextual Consents fünf komplexitätssteigernden Dimensionen einer Entscheidungssituation zugeordnet (individuelle, soziale, medizinische, informationelle und Folgendimension). Darauf aufbauend wurden im zweiten Teilprojekt acht Entscheidungsassistenzmaßnahmen abgeleitet: (1) Gesprächsstruktur, (2) Elaborierte klare Sprache, (3) Ambiente / Raumgestaltung, (4) Stichwortlisten, (5) Prioritätenkarten, (6) Visualisierung, (7) Vereinfachte schriftliche Einverständniserklärung sowie (8) Personenzentrierte Haltung des Entscheidungsassistenten (1-7: Tools, 8: Grundeinstellung). Die Tools zielen überwiegend auf eine Komplexitätsreduktion in der informationellen Dimension unter Berücksichtigung der fähigkeitsbezogenen und der bedürfnisbezogenen individuellen Dimension ab. Durch Anpassungen der Informationsdarbietung oder der kommunikativen Interaktion im Gespräch dienen sie mehrheitlich der Förderung des (Informations-) Verständnisses. Die Analyse der qualitativen Daten im dritten Teilprojekt zeigt, dass die Erfahrung der vereinfachten Aufklärungsgespräche durch drei übergreifende Themen gekennzeichnet ist. Die Kategorie Formalität versus Informationsgewinn illustriert die individuelle Bedeutung des Aufklärungsgesprächs für die Teilnehmer und deren Bewertung des Prozesses der informierten Einwilligung. Die Kategorie Wahrnehmung der Unterstützung skizziert die Bewertungen der angewandten Unterstützungstools durch die Teilnehmer. Die Kategorie Der Wahrheit ins Auge sehen müssen stellt dar, dass die erlebte Situation des vereinfachten Aufklärungsgesprächs wesentlich durch die Verdachtsdiagnose Demenz bestimmt ist, die im Rahmen aller Aufklärungsgespräche besprochen wurde.
Fazit. Bislang gibt es wenig empirische Forschung zu Entscheidungsassistenz für Menschen mit Demenz und Unterstützungsmaßnahmen werden überwiegend unsystematisch entwickelt und angewendet. Die Wirksamkeit einzelner Unterstützungsmaßnahmen kann aufgrund fehlender Interventionsstudien selten beurteilt werden. Unterstützungsmaßnahmen zielen überwiegend auf eine Komplexitätsreduktion in der Informationsdarbietung und im kommunikativen Interaktionsprozess ab, wobei sie kognitive Beeinträchtigungen und Interaktions-/ Entscheidungsbedürfnisse von Menschen mit Demenz berücksichtigen. Die definierten Tools können als erste konkret handhabbare Werkzeuge verstanden werden, die das strukturierte Leisten von Entscheidungsassistenz für Menschen mit Demenz erleichtern sollen. Sie sind übertragbar auf verschiedene Entscheidungssituationen. Eine Bewertung der Wirksamkeit der definierten Tools sollte in weiteren Entscheidungssituationen und mit größeren Stichproben weiteruntersucht werden. Die Ergebnisse der Evaluation liefern jedoch erste Hinweise darauf, dass einige Teilnehmer sich von einzelnen Tools unterstützt gefühlt haben und die anvisierte Komplexitätsreduktion in der informationellen Dimension in einigen Fällen erfolgreich war. Eine wesentliche Komplexitätssteigerung in der untersuchten Entscheidungssituation entstand durch die negative Emotionen auslösende Vermittlung einer potentiellen Demenzdiagnose (Folgendimension). Dieses Ergebnis impliziert, dass die definierte „verständnisfördernde Toolbox“ um Unterstützungsmaßnahmen zur emotionalen Entlastung von Menschen mit Demenz erweitert werden muss, da davon ausgegangen werden kann, dass vielfältige Entscheidungssituationen für Menschen mit Demenz emotional hoch belastend sind.
Die in den letzten Jahrzehnten erfolgten Entwicklungen im Bereich der Informations- und Kommunikationstechnologien (IKT) haben beinahe alle Teilbereiche der Gesellschaft erreicht (OECD, 2000) und so können Alltag, Beruf, aber auch soziale Interaktionen benannt werden (Autor, Levy, & Murnane, 2003). Das technologiebasierte Problemlösen stellt ein relevantes Kompetenzkonstrukt dar, wobei die empirische Validierung der Testwertinterpretation noch aussteht. „Technologiebasiertes Problemlösen ist die Kompetenz, digitale Technologien, Kommunikationshilfen und Netzwerke erfolgreich für die Suche, Vermittlung und Interpretation von Informationen zu nutzen.“(OECD, 2009; zitiert nach Rammstedt, 2013). Ziel einer Konstruktvalidierung ist es theoretische Annahmen – sowie nomologische Netze – mit empirischen Belegen zu prüfen und somit Aussagen über die Gültigkeit der Testwertinterpretationen treffen zu können (vgl. Messick, 1995). Zu diesem Zweck wurden die folgenden fünf Leithypothesen aufgestellt:
1. Im technologiebasierten Problemlösen können Teilsequenzen durch Routinen im Umgang mit IKT bewältigt werden.
Mit dem Ziel der Analyse von Lösungsprozessen wurden Prozessdaten aus dem Feldtest der PIAAC-Studie genutzt und automatisierbare Teilschritte (beispielsweise Schließen eines Popups) analysiert. Eine schnelle Bearbeitung dieser Teilschritte wurde auch mit einer höheren Lösungswahrscheinlichkeit des Problems assoziiert. Die Testwerte des technologiebasierten Problemlösens spiegeln die bildungsbiographischen Lernerfolge wider, die zu einem routinierten Umgang mit IKT führen.
2. Durch die Entstehungsgeschichte von IKT begründet, bestehen Differenzen im technologiebasierten Problemlösen.
Entstehung moderner IKT legt eine Differenzierung von drei Kohorten nahe (orientiert an lernintensiven Phasen der Kindheit und Jugend):
- Erlebten die Entstehung und Verbreitung von Hardware (geboren 1946-1966)
- Begleiteten die Verbreitung von Computersoftware und dessen Nutzung (geboren 1966-1981)
- Nutzung und Gestaltung digitaler Inhalte des Internets (geboren 1981-1995)
Erwartungsgemäß unterscheiden sich die Kohorten im technologiebasierten Problemlösen – genauer in der Nutzung von Routinen im Lösungsprozess und im erreichten Kompetenzniveau. Ältere Kohorten benötigten im Mittel mehr Zeit für Teilschritte, die durch Routinen bearbeitet werden können und sie erreichten im Mittel niedrigere Kompetenzniveaus. Obwohl Lesekompetenzen eine wesentliche Bedeutung im technologiebasierten Lösen von Problemen haben, können sie die Kohortenunterschiede nicht umfassend aufklären. Weil ältere Personenkohorten während ihrer formellen Ausbildungsphasen IKT – wie sie heute verwendet werden – nicht nutzen konnten, haben informelle Lerngelegenheiten eine wesentliche Bedeutung. So profitieren ältere Personen von einem regelmäßigen, beruflichen oder privaten Umgang mit diesen Technologien. Die Testwerte des technologiebasierten Problemlösens spiegeln entstehungsgeschichtlich begründete Kohortenunterschiede wider, welche durch lebenslange, formelle und informelle Lerngelegenheiten minimiert werden können.
3. Der Umgang mit IKT ist – begründet durch deren Entstehungsgeschichte – eher weniger Teil der formellen und schulischen Bildung.
Technologiebasiertes Problemlösen wird weniger in formellen und schulischen Lerngelegenheiten erworben, als andere Kompetenzen wie beispielsweise mathematische und Lesekompetenzen. Folglich wurden für das technologiebasierte Problemlösen kleinere Differenzen zwischen hohen, mittleren oder niedrigen Bildungsabschlüssen erwartet und konnten empirisch anhand der PIAAC-Daten belegt werden. Vorteile von Personen mit einem hohen Bildungsabschluss konnten durch höhere Lesekompetenzen erklärt werden. Die Testwerte des technologiebasierten Problemlösens bilden entstehungsgeschichtlich begründete Unabhängigkeiten des Kompetenzkonstruktes ab, das zumeist nicht schulisch erworben wurde.
4. Technologiebasiertes Problemlösen ist ein eigenständiges Kompetenzkonstrukt, das Parallelen zu mathematischen und Lesekompetenzen aufweist.
Mathematische und Lesekompetenzen stehen in einem Zusammenhang mit dem Umgang mit IKT und somit auch mit dem technologiebasierten Problemlösen. Die Leseanteile am technologiebasierten Problemlösen werden als größer eingeschätzt, als die der mathematischen Kompetenz und stärkere Effekte durch Lesekompetenz konnten empirisch
nachgewiesen werden. Die Annahme der Eigenständigkeit des technologiebasierten Problemlösens wird im Weiteren dadurch gestützt, dass der alltägliche Umgang mit mathematischen und Leseinhalten weniger stark mit ihm assoziiert ist, als der Umgang mit IKT. Nomologische Netze zwischen technologiebasiertem Problemlösen und mathematischen sowie Lesekompetenzen konnten empirisch gestützt werden und die Annahme der Eigenständigkeit des Kompetenzkonstruktes bestärkt.
5. Die Nutzung von IKT – als Lerngelegenheit verstanden – und andere Lerngelegenheiten sowie Indikatoren erfolgreichen Lernens können zum technologiebasierten Problemlösen beitragen.
Lebenslanges Lernen ist ein Teil der menschlichen Natur und in diesem Rahmen dienen verschiedenste formelle und informelle Lerngelegenheiten dem Erwerb von Wissen und Kompetenzen (Dohmen, 2001). So erreichen Personen im technologiebasierten Problemlösen ein höheres Kompetenzniveau, wenn sie regelmäßig privaten oder beruflichen Umgang mit IKT hatten. Neben diesen informellen Lerngelegenheiten steht auch die Teilnahme an Weiterbildungen in einem positiven Zusammenhang mit der technologiebasierten Bewältigung von Problemen. Des Weiteren hat eine positive Einstellung gegenüber dem Lernen neuer Inhalte einen Einfluss auf die technologiebasierte Problemlösekompetenz. Die Testwerte des technologiebasierten Problemlösens spiegeln die Lernerfolge durch das lebenslange Lernen wider, die durch verschiedene bildungsbiographische Merkmale – insbesondere formelle und informelle Lerngelegenheiten – befördert werden.
Das technologiebasierte Problemlösen in der Operationalisierung der PIAAC-Studie lässt eine konstruktrepräsentative Testwertinterpretation zu und ermöglicht somit eine differenzierte Beschreibung von Kompetenzen im Umgang mit IKT.
Die vorliegende Dissertation befasst sich mit dem Umstieg von papierbasiertem (PBA) auf computerbasiertes Assessment (CBA), insbesondere in Large-Scale-Studien. In der Bildungsforschung war Papier lange Zeit das Medium für Assessments, im Zuge des digitalen Zeitalters erhält der Computer aber auch hier Einzug. So sind die großen Bildungsvergleichsstudien, wie PISA (Programme for International Student Assessment) oder PIAAC (Programme for the International Assessment of Adult Competencies), und nationalen Studien über Bildungsverläufe und -entwicklungen im Rahmen des NEPS (Nationales Bildungspanel) bereits umgestiegen oder befinden sich im Prozesses des Umstiegs von PBA auf CBA. Findet innerhalb dieser Studien ein Moduswechsel statt, dann muss die Vergleichbarkeit zwischen den Ergebnissen der unterschiedlichen Administrationsmodi gewährleistet werden. Unterschiede in den Eigenschaften der Modi, wie beispielsweise im Antwortformat, können sich dabei auf die psychometrischen Eigenschaften der Tests auswirken und zu sogenannten Modus Effekten führen. Diese Effekte wiederum können sich in Unterschieden zwischen den Testscores widerspiegeln, sodass diese nicht mehr direkt miteinander vergleichbar sind. Die zentrale Frage dabei ist, ob es durch den Moduswechsel zu einer Veränderung des gemessenen Konstruktes kommt. Ist dies der Fall, so können Testergebnisse aus unterschiedlichen Administrationsmodi nicht miteinander verglichen und die Ergebnisse aus dem computerbasierten Test nicht analog zu den Ergebnissen aus dem papierbasierten Test interpretiert werden. Auch Veränderungen, die aus Messungen zu verschiedenen Zeitpunkten und mit unterschiedlichen Modi resultieren, lassen sich dann nicht mehr beschreiben. Es kann jedoch auch Modus Effekte geben, die zwar nicht das gemessene Konstrukt betreffen, aber sich beispielsweise in der Schwierigkeit der Items niederschlagen. Solange aber das erfasste Konstrukt bei einem Moduswechsel unverändert bleibt, können diese Modus Effekte bei der Berechnung der Testscores berücksichtigt und die Vergleichbarkeit gewährleistet werden. Somit ist, nicht nur im Hinblick auf gültige Trendschätzungen, der Analyse von Modus-Effekten ein hoher Stellenwert beizumessen. Da die bisherige Befundlage in der Literatur zu Modus-Effekten sowohl hinsichtlich der Stärke der gefundenen Effekte, als auch in Bezug auf die verwendeten Methoden sehr heterogen ist, ist das Ziel des ersten Beitrags dieser publikationsbasierten Dissertation, eine Anleitung für eine systematische Durchführung einer Äquivalenzuntersuchung, speziell für Large-Scale Assessments, zu geben. Dabei wird die exemplarisch dargelegte Modus-Effekt-Analyse anhand von zuvor definierten und in ihrer Bedeutsamkeit belegten Kriterien auf der Test- und Item-Ebene illustriert. Zudem wird die Möglichkeit beschrieben, auftretende Effekte anhand von Eigenschaften des Administrationsmodus’, beispielsweise des Antwortformats oder der Navigationsmöglichkeiten innerhalb des Tests, zu erklären. Im zweiten und dritten Beitrag findet sich jeweils eine empirische Anwendung der im ersten Beitrag beschriebenen schematischen Modus-Effekt-Analyse mit unterschiedlicher Schwerpunktsetzung. Dazu wurden die Daten eines Leseverständnistests aus der Nationalen Begleitforschung von PISA 2012 sowie zweier Leseverständnistests im NEPS, die jeweils sowohl papier- als auch computerbasiert administriert wurden, analysiert. Das Kriterium der Konstrukt-Äquivalenz steht dabei als wichtigstes Äquivalenz-Kriterium im Fokus. Zusätzlich wurde Äquivalenz in Bezug auf die Reliabilität und die Item-Parameter (Schwierigkeit und Diskrimination) untersucht. Im zweiten Beitrag wurden darüber hinaus interindividuelle Unterschiede im Modus-Effekt in Bezug zu basalen Computerfähigkeiten und zum Geschlecht gesetzt. Der dritte Beitrag fokussiert die Item-Eigenschaften, die als mögliche Quellen von Modus-Effekten herangezogen werden können und bezieht diese zur Erklärung von Modusunterschieden in die Analyse mit ein. In beiden Studien wurde keine Evidenz gefunden, dass sich das Konstrukt bei einem Wechsel des Administrationsmodus ändert. Lediglich einzelne Items wiesen am Computer im Vergleich zum PBA eine erhöhte Schwierigkeit auf, wobei sich der größte Teil der Items als invariant zwischen den Modi erwies. Für zwei Item-Eigenschaften wurde ein Effekt auf die erhöhte Schwierigkeit der Items am Computer gefunden. Interindividuelle Unterschiede im Modus-Effekt konnten nicht durch basale Computerfähigkeiten oder das Geschlecht erklärt werden.
Diese Dissertation leistet einen wesentlichen Beitrag zur Systematisierung von Äquivalenzuntersuchungen, insbesondere solchen in Large-Scale Assessments, indem sie die wesentlichen Kriterien für die Beurteilung von Äquivalenz herausstellt und diskutiert sowie deren Analyse methodisch aufbereitet. Die Relevanz von Modus-Effekt Studien wird dabei nicht zuletzt durch die Ergebnisse der beiden empirischen Beiträge hervorgehoben. Schließlich wird der Bedeutung des Einbezugs von Item-Eigenschaften hinsichtlich der Beurteilung der Äquivalenz Ausdruck verliehen.
Die Digitalisierung weiter Teile der Lebenswelt ist vor allem mit der Verbreitung und extensiven Nutzung des Smartphones verknüpft. Eine Mehrzahl der älteren Menschen in Deutschland nutzt Smartphones selbstverständlich im Alltag. Die vorliegende Studie adressiert erstens wie stark sich das Smartphone bereits in den Alltag älterer Menschen als vergleichsweise neue Technologie eingeschrieben hat. Im Mittelpunkt steht dabei, welche Funktionen genutzt werden, wie oft und wann zum Smartphone gegriffen wird und welche Gemeinsamkeiten und Unterschiede in der Nutzung identifizierbar sind. Darüber hinaus wird zweitens der Zusammenhang zwischen alltäglicher Smartphonenutzung, Medienkompetenz und technikbezogenen Einstellungen in den Blick genommen. Drittens geht die Studie der Frage nach inwiefern die Smartphonenutzung mit zentralen Variablen der Lebensqualität im Alter, der sozialer Eingebundenheit sowie dem subjektiven Wohlbefinden assoziiert ist. Die vorliegende Arbeit ist eine quantitativ empirische Studie, die einem mikrolängsschnittlichem Design folgt. Zur Beantwortung der Forschungsfragen wurden objektive Nutzungsdaten, Daten aus einem ambulanten Assessment sowie Daten eines querschnittlichen Fragebogens kombiniert. Die Ergebnisse zeigen, dass die Befragten älteren Menschen im Hinblick auf Nutzungsdauer, -intensität als auch inhaltlicher Vielfalt hohe inter- als auch intraindividuelle Unterschiede aufwiesen. Gemeinsamkeiten der Nutzung waren die Kommunikation oder Alltagsorganisation. Das Smartphone wurde aber auch zum Spielen oder für gesundheitsbezogene Handlungen genutzt. Gleichzeitig ging eine zeitlich intensive auch mit einer inhaltlich breit gefächerten Nutzung einher. Die Unterschiede in der Nutzung konnten primär durch technikbezogene Einstellungen und deklarative Wissensbestände zu Computer und Smartphone erklärt werden. Intensivnutzer wiesen positivere Einstellungen gegenüber Technik auf und verfügten über höhere Wissensbestände. Trotz intensiver Nutzung des Smartphones zur Kommunikation zeigte sich kein klarer Zusammenhang mit sozialer Eingebundenheit und subjektivem Wohlbefinden. Vielmehr konnte in diesem Kontext die wahrgenommene Qualität der erlebten sozialen Beziehungen als zentraler Prädiktor identifiziert werden. Zusammengenommen zeigte sich eine tiefe Integration des Smartphones in den Alltag älterer Smartphonenutzer.
Diese retrospektive Arbeit aus 7 Jahren Schockraumdiagnostik hatte zum Ziel das diagnostische Potential des Glascow Coma Scales (GCS), des Unfallmechanismus, der Unfallschwere und der klinischen Untersuchung in Bezug auf die Indikationsstellung der Ganzkörper-Computertomographie (GKCT) bei polytraumatisierten Kindern zu untersuchen.
Dazu wurden 100 Kinder, die in dem Zeitraum zwischen Juli 2007 und November 2016 einer GKCT unterzogen wurden, strukturell in Bezug auf Alter, Geschlecht, Unfallmechanismus, Unfallschwere, initiale GCS-Werte und bei Aufnahme, Ergebnisse der klinischen Untersuchung und FAST-Sonografie, ISS und Dosimetrie analysiert. Korrelationen zwischen allen klinischen Variablen und detektierter Pathologien in der GKCT wurden berechnet.
Das mittlere Alter betrug 9,13 ± 4,4 Jahre (72% männliche und 28% weibliche Patienten). Bei 71% aller Patienten konnten relevante Verletzungen in der GKCT nachgewiesen werden. Mit 43% war der Kopf/Hals-Bereich am häufigsten betroffen. Es zeigte sich keine signifikante Korrelation zwischen dem Unfallmechanismus und der Verletzungsschwere, gemessen anhand des ISS (p>0,1), auch nicht zwischen der Unfallschwere und der Verletzungsschwere. Jedoch erschienen schwere Traumata nach mildem Unfallhergang und ohne Auffälligkeiten in der klinischen Untersuchung unwahrscheinlich. In diesen Fällen sollten selektive CT-Untersuchungen einzelner Körperregionen der GKCT vorgezogen werden, um die Strahlenexposition zu reduzieren. In diesem Zusammenhang zeigte der GCS-Wert bei Aufnahme ein gutes diagnostisches Potential in Bezug auf kraniozerebrale Pathologien. Daher empfehlen wir die Durchführung einer kranialen CT ab einem GCS-Wert von ≤ 13. Bezogen auf andere Körperregionen war der GCS nicht als zuverlässiger Index dienlich. Die Kombination aus Unfallschwere, äußeren Verletzungserscheinungen und dem thorakalen Auskultationsbefund eignete sich am besten zur Identifikation von thorakalen Pathologien. Im Bereich des Abdomens zeigten die Ergebnisse der FAST-Sonografie in Kombination mit muskulärer Abwehrspannung die besten Vorhersagewerte. Keine der getesteten Variablen ergab alleinstehend einen signifikanten Vorhersagewert für die diagnostizierten Pathologien in der GKCT. Auf Grund dessen sollte die Indikation zur GKCT bei polytraumatisierten Kindern stets individuell und anhand der Ergebnisse aller klinischer Variablen und Untersuchungen gestellt werden. Weitere Studien erscheinen sinnvoll, um die Auswirkung der diagnostizierten Pathologien in der GKCT auf das Notfallmanagement, die Interventionsbedürftigkeit und das finale Outcome der Kinder zu untersuchen.