Refine
Year of publication
- 2003 (5) (remove)
Document Type
- Diploma Thesis (5) (remove)
Language
- German (5) (remove)
Has Fulltext
- yes (5)
Is part of the Bibliography
- no (5)
Keywords
- Demenzerkrankung (1)
- Musiktherapie (1)
Institute
- Informatik (2)
- Physik (2)
- Geowissenschaften (1)
- Psychologie (1)
Bisher wurden im deutschsprachigen Raum keine experimentellen Studien zur Wirksamkeit von Musiktherapie bei Demenzerkrankungen durchgeführt. Aus klinisch bedingten Umständen wurde ein Vergleich zwischen Musiktherapie und Biografiearbeit gewählt. Ihm liegt ein einfaktorieller Zufallsguppenversuchsplans mit Vorher-Nachher-Messung zugrunde. Es wurden mögliche Effekte der beiden psychologischen Interventionsformen auf Demenzerkrankungen im mittleren Stadium hinsichtlich des Schweregrades der Demenz, des Ausmaßes der kognitiven Beeinträchtigungen, der Stärke der Alltagskompetenz sowie des Grades der nichtkognitiven Begleitsymptomatik untersucht. Den Rahmen bildete eine Gedächtnissprechstunde, eine spezielle ambulante Einrichtung zur Diagnostik, Therapie sowie Beratung und Begleitung von Demenzerkrankungen. Die Stichprobe bestand aus 21 PatientInnen zwischen 55 und 84 Jahren. 12 davon waren weiblich (57%), die anderen neun männlich (43%). 12 der PatientInnen litten an einer Demenz bei Alzheimer-Krankheit (57%), sechs an einer vaskulären Demenz (29%), zwei an einer frontotemporale Demenz (9%). Bei einer Person (5%) ließ sich der Verdacht auf eine Demenzerkrankung im Verlauf der 15-wöchigen Behandlung nicht bestätigen, sondern sie erhielt die Diagnose einer anhaltenden depressiven Störung. Da es sich bei der Untersuchung wegen fehlender Vergleichsuntersuchungen zur Wirksamkeit psychologischer Interventionsverfahren eher um eine explorative Studie handelte, wurde ein Schwerpunkt auf die Darstellung der deskriptiven Ergebnisse gelegt. Die zur Absicherung durchgeführten inferenzstatistischen Berechnungen ergaben für die Musiktherapie keine Hinweise auf einen bedeutsamen Effekt in Bezug auf die genannten Symptome der Demenzerkrankung. Hingegen zeigte sich für die Biografiearbeit eine signifikante Wirksamkeit in Bezug auf den Schweregrad der Demenzerkrankung. Der Effekt erfolgte sogar in Richtung einer Verbesserung. U.a. wegen der geringen Probandenzahl ist insgesamt von einer eingeschränkten Aussagefähigkeit der inferenzstatistischen Ergebnisse auszugehen. Zudem eignete sich die Global Deterioration Scale (GDS) als Erhebungsinstrument zur globalen Einstufung des Schweregrades nur bedingt zur Veränderungsmessung und erwies sich als anfällig für eine mögliche Verzerrung von Ergebnissen. Doch insgesamt können die erhobenen Daten auch vorsichtig für beide psychologische Interventionsformen in der Art interpretiert werden, dass trotz des bekanntermaßen progredienten Verlaufs von Demenzerkrankungen keine weiteren signifikanten Veränderungen, also auch keine Verschlechterungen über einen Zeitraum von vier Monaten aufgetreten sind. Dies konnte auch auf deskriptiver Ebene bestätigt werden: So blieb in der Biografiearbeit-Gruppe mit ihren in der Tendenz noch leichten Störungen bei allen erfassten Verhaltensmerkmalen das vor der Intervention vorhandene Niveau erhalten und mit Ausnahme des Bereichs der Alltagskompetenzen zeigten sich in allen anderen Symptombereichen in Einzelfällen leichte Verbesserungen. Dies entspricht Befunden aus vergleichbaren Interventionsstudien. Im Vorher-Nachher-Vergleich war für die Musiktherapiegruppe das Niveau hinsichtlich des Schweregrades der Demenz, der kognitiven Störungen und der Alltagskompetenzen auch als unverändert anzusehen. Verbesserungen traten hier in Einzelfällen besonders in den alltagsbezogenen kognitiven Fähigkeiten auf. Dies ist um so erstaunlicher und als nicht erwartungsgemäß zu bezeichnen, da in der Musiktherapiegruppe in kognitiver Hinsicht schon eher schwere Störungen vorlagen. Aus diesen objektiv am Patienten festgestellten kognitiven Verbesserungen ergab sich eine Diskrepanz zu der hauptsächlich mit Hilfe von Fremdbeurteilung gewonnenen unveränderten Einstufung des Schweregrades. Diese wurde im Zusammenhang mit der zusätzlich in der Exploration erfassten geringeren Belastbarkeit der zugehörigen Angehörigen im Umgang mit den leicht erhöhten nichtkognitiven Störungen diskutiert.
Funktionale Programmiersprachen weisen viele Eigenschaften auf, die zur modernen Softwareentwicklung benotigt werden: Zuverlässigkeit, Modularisierung, Wiederverwendbarkeit und Verifizierbarkeit. Als schwer vereinbar mit diesen Sprachen stellte sich die Einbettung von Seiteneffekten in diese Sprachen heraus. Nach einigen mehr oder weniger gescheiterten Ansätzen hat sich mittlerweile fur die nichtstrikte funktionale Sprache Haskell der monadische Ansatz durchgesetzt, bei dem die Seiteneffekte geschickt verpackt werden, so dass zumindest IO-behaftete Teile eines Haskell-Programms dem klassischen imperativen Programmierstil ähneln. S. Peyton Jones bringt dieses in [Pey01, Seite 3] auf den Punkt, indem er schreibt "...Haskell is the world's finest imperative programming language." Dies ist einerseits vorteilhaft, denn die klassischen Programmiertechniken können angewendet werden, andererseits bedeutet dies auch eine Rückkehr zu altbekannten Problemen in diesen Sprachen: Der Programmcode wird unverständlicher, die Wiederverwendbarkeit von Code verschlechtert sich, Änderungen im Programm sind aufwendig. Zudem erscheint die monadische Programmierung teilweise umständlich. Deshalb wurde im Zuge der Entwicklung in fast jede Implementierung von Haskell ein Konstrukt eingebaut, dass von monadischem IO zu direktem IO führt. Da dieses nicht mit dem bisherigen Ansatz vereinbar schien, wird es als "unsafe" bezeichnet, die entsprechende Funktion heißt "unsafePerformIO". Zahlreiche Anwendungen benutzten diese Funktion, teilweise scheint die Verwendung zumindest aus Effizienzgründen unabdingbar. Allerdings ist die Frage, wann dieses verwendet werden darf, d.h. so angewendet wird, dass es nicht "unsicher" ist, nur unzureichend geklärt. Das Zitat in Abbildung 1.1 gibt wenig Aufschluss über die korrekte Anwendung, zumal immer wieder Diskussionen entstehen, ob die Verwendung von unsafePerformIO in diesem oder jenem Spezialfall korrekt ist.
In dieser Arbeit wurden Ergebnisse der Untersuchungen mit Synchrotronstrahlung, welche mit Hilfe der COLTRIMS-Methode gewonnen wurden, an Wasserstoff H2 und Deuterium D2 vorgestellt. Dabei wurde im Besonderen der Zerfall von doppelt angeregten repulsiven Zuständen der Moleküle betrachtet. Die Dissoziation der Moleküle, die auf solche Zustände angeregt worden sind, beginnt sofort. Zu einem gewissen Zeitpunkt findet die Autoionisation statt, dabei spiegelt die Aufteilung der Gesamtenergie auf KER und Elektronenenergie direkt den internuklearen Abstand der Kerne wider. So kann der Zeitpunkt der Autoionisation bestimmt werden. Die Messung der KERs entspricht hierbei dem Ablesen einer Stoppuhr, die bei der Absorption des Photons gestartet wurde. Die Autoionisation wird durch die Bewegung der Nukleonen induziert, weshalb die Autoionisationsbreite stark vom internuklearen Abstand abhängt. Dies zeigt sich in den beobachteten Strukturen der KER-Verteilung. In dieser Arbeit konnte erstmals auch die Winkelverteilung der Autoionisations- Elektronen gemessen werden. Dabei wurde eine starke Abhängigkeit vom KER und damit vom Zerfallskanal beobachtet. Bei einer Photonen-Energie von 30 eV zeigte sich ein deutlicher Isotopeneffekt bei Wasserstoff. Dieser kann nicht durch direkte Ionisation erklärt werden. Deshalb wird angenommen, dass durch Autoionisation hervorgerufen wird. Hierbei spielen die unterschiedlichen Massen der Isotope eine Rolle. Es konnte nachgewiesen werden, dass die Autoionisation der beiden Isotope bei unterschiedlichen Kernabstnden stattfand. Die gezeigten Winkelverteilungen wurden nicht erklrt. Bei einer Photonen-Energie von 36 eV wurden die KER-Spektren von Wasserstoff und Deuterium untersucht. Die KER-Spektren, in welchen erstmals die Endzustnde H+ + H(n = 1) und H+ + H(n = 2) voneinander getrennt werden konnten, zeigten eine ausgeprägte Struktur. Die Mechanismen, die einzelne Maxima in den Strukturen hervoruft, wurden ausführlich dargestellt. Bei der Untersuchung wurden die Winkelverteilungen für diese Maxima im KER-Spetrum zu Hilfe genommen. Die gemessenen Winkelverteilungen spiegeln den Drehimpuls des emittierten Elektrons wider. In den Ergebnissen sind überraschende und bisher noch nicht erklärte Beitrge von delta-ml = +/- 2 beobachtet worden. Es wurden die Winkelverteilungen von emittierten Elektronen bei Ereignissen, die im Endzustand H+ +H(n = 2) enden, für verschiedene Photonen-Energien untersucht. Dabei wurde festgestellt, dass die Winkelverteilungen bei niedrigen Photonen-Energien um 36 eV anisotrop, mit einem Maximum entlang der molekularen Achse, sind. Bei zunehmenden Photonen-Energien werden die Winkelverteilungen um ca. 45 eV isotrop. Bei höheren Energien werden sie wieder anisotrop, weisen hier jedoch ein Maximum entlang der Polarisationsachse auf. Die Ergebnisse wurden mit denen von Ito et al. [ito00], welcher nur Photonen-Energien im Bereich von 45 eV bis 72 eV untersuchte, verglichen. Sie stimmen sehr gut berein, was darauf zurckschlieen lsst, dass die beobachteten Verteilungen hauptschlich durch direkte Photoionisation auf die angeregten Zustände und des H+2 -Ions erklären lassen. Die um 36 eV beobachtete Anisotropie könnte durch die nicht hundertprozentige Polarisation des Photonenstrahl der Beamline hervorgerufen worden sein.
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
In den modernen Schwerionenexperimenten möchte man den Zustand der Materie unter extremen Bedingungen, wie sie in der frühen Phase unseres Kosmos herrschten, physikalisch untersuchen. Bei hoher Temperatur und Materiedichte wird ein Zustand postuliert, in dem Quarks, die unter den heute in der Natur vorkommenden Bedingungen auf Grund des Confinements in Hadronen gebunden sind, als quasi freie Teilchen existieren können. Eine spezielle Observable, die man dabei betrachtet, ist die Seltsamkeit. Aus früheren Messungen weiss man, dass die relative Häufigkeit einfach seltsamer Teilchen bei Kern-Kern-Reaktion gegenüber Proton-Proton-Reaktionen erhöht ist und eine andere Energieabhängigkeit zeigt. Zudem ist die Seltsamkeitsproduktion auch abhängig von der Systemgröße. Das kanonische, statistische Modell nach Redlich und Tounsi [7] sagt einen zunächst steilen Anstieg der Produktion von seltsamen Teilchen mit wachsender Systemgröße voraus, der aber bei großen Systemen immer flacher wird. Diese Diplomarbeit beschäftigt sich mit der Xi- und Xi+-Produktion in Blei-Blei-Stößen bei 40 A GeV. Bei dieser Analyse wird die Xi -Multiplizität in Abhängigkeit von der Kollisionszentralität und damit der Systemgröße untersucht. Zusätzlich wird die Xi- -Produktion in zentralen Blei-Blei-Stößen bei 40 A GeV mit Messungen bei anderen Energien verglichen und damit ihre Energieabhängigkeit der Xi- -Produktion untersucht. Die verwendeten Daten wurden während einer Strahlzeit im Herbst 1999 vom Experiment NA49 am SPS am CERN aufgenommen. Es wurden zwei Datensätze mit 7%igem Anteil am totalen Wirkungsquerschnitt und zwei Datensätze mit minimaler Einschränkung (minimum bias) durch den Trigger verwendet. Für die Analyse wurden aus diesen Daten 387.616 minimum bias und 577.605 zentrale Ereignisse ausgewählt. Die minimum bias Daten werden in verschiedene Zentralitätsklassen eingeteilt. Die Xi- (Xi+)-Hyperonen werden von NA49 nicht direkt detektiert. Stattdessen werden Kandidaten aus den Tochterteilchen (Lambda (Antilambda) und Pi - (Pi+)) des schwachen Zerfalls rekonstruiert. Die Häufigkeit der Hyperonen wird dann mit Hilfe statistischer Methoden extrahiert. Diese Methode liefert nicht nur die gewünschten Kandidaten sondern auch einen großen kombinatorischen Untergrund, den man durch geeignete, geometrische Einschränkungen reduzieren kann. Dazu wird eine Signifikanzstudie für die entsprechenden geometrischen Größen durchgeführt und auf diese Weise die besten Einschränkungsbedinungen gefunden. Da das NA49-Experiment auf Grund seiner Geometrie nicht den kompletten Phasenraum erfassen kann und die Effizienz, mit der Teilchen detektiert werden, begrenzt muss auf diese Effekte korrigiert werden. Um diese Korrektur zu bestimmen führt eine Simulation durch. Man simuliert Xi- -Hyperonen und überprüft, wie viele mit gleichen Verfahren, das man zur Datenbestimmung verwendet, in jedem Phasenraumbereich wiedergefunden werden können. Unter Verwendung dieser Korrektur erhält man die Transversalimpulsspektren bei mittlerer Rapidität für Xi- in vier verschiedenen Zentralitätsklassen. Aus diesen Spektren lässt sich die Anzahl der Xi- -Hyperonen bei mittlerer Rapidität pro Kollision ermitteln. Sie steigt von 0,12+-0,01 bei peripheren Stößen auf 1,23+-0,07 zu zentralen Stößen hin an. Zudem kann man aus der Steigung der pt-Spektren den Temperaturparameter T berechnen. Dieser bewegt sich im Bereich von 226 bis 292 MeV, zeigt aber keine eindeutige Zentralitätsabhängigkeit.....