Refine
Year of publication
- 1997 (18) (remove)
Document Type
- Doctoral Thesis (18) (remove)
Language
- German (18) (remove)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18)
Keywords
- Anwendungssystem (1)
- Azteken (1)
- Blei (1)
- CD-ROM (1)
- Cauchy-Anfangswertproblem (1)
- Cortés, Hernán (1)
- Datenmodell (1)
- Dimension 2 (1)
- Dirichletsche L-Reihe; Nullstelle (1)
- Eroberung Mexikos (1)
Institute
- Physik (6)
- Medizin (5)
- Mathematik (4)
- Geschichtswissenschaften (1)
- Informatik (1)
- Neuere Philologien (1)
Analyse der hadronischen Endzustandsverteilungen in ultra-relativistischen Blei-Blei-Kollisionen
(1997)
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen der hochangeregten hadronischen Kernmaterie führen möglicherweise zu einem Übergang in eine partonische Phase ohne Einschluß der Quarks und Gluonen in Hadronen (Quark-Gluon Plasma). Dieser Kontinuumszustand der Quantenchromodynamik wird in der frühen Anfangsphase des Universums bei sehr hohen Temperaturen und im Inneren von Neutronensternen bei einem Vielfachen der Grundzustandsdichte von Kernmaterie erwartet. Im Herbst 1994 wurden am europäischen Kernforschungszentrum CERN im Rahmen des NA49-Experimentes zentrale 208Pb + 208Pb - Kollisionen am SPS bei einer Einschußenergie von 158 GeV pro Nukleon untersucht. Die Daten wurden in einer der Spurendriftkammern (VTPC2) aufgenommen, die zur präzisen Messung des Impulses in einem Magnetfeld positioniert wurde. Aus diesem Datenensemble wurden in dieser Arbeit 61000 Ereignisse in Hinblick auf die Produktion negativ geladener Hadronen (h-) und die Endzustandsverteilungen der an der Reaktion teilnehmenden Nukleonen (Partizipanten) analysiert. Die Phasenraum-Akzeptanz der VTPC2 erstreckt sich für die negativ geladenen Hadronen im Rapiditätsintervall yPi = [3.2 5.0] und für die Netto-Protonen bei yp = [3.0, 4.4] über den Transversalimpuls-Bereich von p..=[0.0 2.0] GeV/c. Die statistischen Fehler der vorgestellten Ergebnisse reduzieren sich durch die große Statistik zu << 1%, die systematischen Fehler der Impulsmessung liegen im Bereich <= 2%. Die Korrektur auf Ineffizienzen des verwendeten Spur-Rekonstruktionsalgorithmus ist mit der lokalen Spurdichte und der Ereignismultiplizität korreliert und trägt wesentlich zum systematischen Fehler bei: für die negativ geladenen Hadronen im Bereich von 5%, für die Netto-Protonen 15-20%. Die Untersuchung der Effekte hoher Raumladungsdichten in verschiedenen Zählgasen der Spurendriftkammern führte zu einer Optimierung der Betriebsparameter der Detektoren und damit zu einer Reduzierung der Zahl saturierter Auslesekanäle. Die erhöhte Effizienz der Spurpunkt-Rekonstruktion verbesserte die Zweispurauflösung auf 100% bei einem mittleren Abstand von 2 cm zwischen zwei benachbarten Spuren, die Ortsauflöosung in der VTPC2 liegt im Bereich von 270-350 Mikrom in longitudinaler und transversaler Richtung und die relative Impulsauflösung beträgt dp/p exp 2 ~ 2 x 10 exp (-4) (GeV/c) exp (-1). Die in zentralen Blei-Blei-Stößen produzierten negativ geladenen Hadronen weisen mittlere Transversalimpulse von <p..> ~ 366 MeV/c bei y Pi = 4.3 bis <p..> ~ 300 MeV/c bei y Pi auf; für die Netto-Protonen fällt der aus dem mittleren Transversalimpuls berechnete Temperaturparameter von 275 MeV bei midrapidity bis zu 230 MeV bei yp = 4.3 ab. Im Vergleich mit anderen Stoßsystemen als Funktion der Anzahl produzierter Teilchen wird ein leichter Anstieg von <p..> beobachtet. Die Rapiditätsabhängigkeit des mittleren Transversalimpulses der produzierten h- in Nukleon-Nukleon- und zentralen Schwefel-Schwefel-Reaktionen ist mit denen der untersuchten Pb-Kollisionen in Form und Breite der Verteilung vergleichbar. Die Analyse der Transversalimpuls-Spektren von h- und (p-anti-p) fürt zu inversen Steigungsparametern von <T Pi> ~ 165 MeV und <T Pi> ~ 255 MeV, die teilweise über der von Hagedorn vorhergesagten Grenztemperatur eines hadronischen Gases liegen. Zudem zeigen die Spektren des invarianten Wirkungsquerschnittes deutliche Abweichungen von dem in einem thermischen Modell erwarteten exponentiellen Verlauf bei kleinen und großen <p..>. Innerhalb eines hydrodynamischen Modells sind diese Abweichungen vom idealen Verlauf mit einer kollektiven transversalen Expansion kompatibel, die mittleren transversalen Flußgeschwindigkeiten betragen <v..> ~ 0.6 c, die Ausfriertemperaturen <T PI, f0> ~ 95 MeV und <T P, f0> ~ 110 MeV. Die im Vergleich zu Nukleon-Nukleon-Stößen in Schwerionenreaktionen erhöhte Produktion von h- bei kleinen Transversalimpulsen wird in allen betrachteten y Pi -Intervallen zu 10-20% bestimmt. Im Gegensatz zu Messungen des NA44-Experimentes mit <h->/<h+> = 1.8 kann aus dem Verhältnis des invarianten Wirkungsquerschnittes von negativ zu positiv geladenen Hadronen bei kleinen transversalen Energien nur eine moderate Erhöhung um <h->/<h+> = 1.2 festgestellt werden, was auf keinen signifikanten Coulomb-Effekt durch eine mitbewegte positive Ladung schließen läßt. Die Erweiterung der Akzeptanz der (p - anti p)-Rapiditätsverteilung in der VTPC2 durch Messungen der MTPC bei großen Rapiditäten führt zu einer mittleren Gesamtmultiplizität von 151 +- 9 an der Reaktion teilnehmenden Protonen pro Ereignis. Der durchschnittliche Rapiditätsverlust der Projektilprotonen beträgt <delta y> = 1.99 +- 0.19, für zentrale Kollisionen des S+S-Systems ergibt sich ein um 20% niedrigerer Wert. Das Verhältnis der Dichte der hochkomprimierten Materie im Reaktionsvolumen zur Grundzustandsdichte von Kernmaterie ist im Rahmen von Modellvorhersagen rho/rho ~ 7.3. Der mittlere Energieverlust pro Nukleon im Schwerpunktsystem wurde bei einer zur Verfügung stehenden Eingangsenergie von sqrt(s) = 8.6 GeV/Nukleon zu <dE> exp (cms) N = 5.4 GeV ermittelt: die Stopping Power ergibt P = 63 %. Aus der Baryonen-Dichte bei midrapidity läßt sich in einem einfachen 2-Flavour Modell das baryo-chemische Potential zu mü-B = 182 MeV berechnen. Die ermittelte Gesamtmultiplizität der h- beträgt 716 +-11, die Breite einer angepaßten Gauß-Verteilung ist mit Rhp -Pi = 1.37 um 40% breiter als die dn/dy-Verteilung einer stationären, thermisch emittierenden Quelle: zusammen mit Messungen der Quellgrößen und einer longitudinalen Expansionsgeschwindigkeit innerhalb der HBT-Analyse ergibt sich das Bild einer elongierten, longitudinal boost-invariant expandierenden Quelle. Die dn/dy-Verteilungen der h- aus <N + N>- und Pb+Pb-Reaktionen zeigen die Andeutung eines Plateaus um die Schwerpunktsrapidität, was auf eine Teilchenproduktion gemäß dem Bjorken-Bild entlang eines zylinderförmigen Reaktionsvolumens schließen läßt. Die Zahl der produzierten negativ geladenen Hadronen pro Partizipant beträgt in den analysierten Ereignissen <h->/<N B - AntiB> = 1.88 und steigt im Vergleich mit den Werten aus den symmetrischen Stßsystemen <N+N> und S+S leicht an. Die im Reaktionsvolumen deponierte Energie aus dem Energieverlust der partizipierenden Nukleonen wird somit nur geringfügig für die erhöhte Produktion von h- verwendet. Die h-Multiplizität als Maß für die System-Entropie zeigt - ebenso wie die im NA35-Experiment gemessenen zentralen S+S-Kollisionen bei 200 GeV pro Nukleon - als Funktion der Einschußenergie der Projektilkerne eine Überhöhung im Vergleich zu Reaktionen bei niedrigeren Energien, was einem möglichen Anstieg der Zahl der Freiheitsgrade und damit der Formation einer partonischen Phase bei ultra-relativistischen Schwerionenkollisionen entsprechen könnte. Aus den Messungen der Netto-Baryonen und der produzierten h- wurde im Bjorken-Bild die Energiedichte im zentralen Reaktionsvolumen zu E = 2.14 GeV/fm exp 3 bestimmt.
In der vorliegenden, randomisierten Doppelblindstudie wurde bei 48 Patienten mit gesicherter koronarer Herzerkrankung die Dosis-Wirkungs-Beziehung eines neuen, antianginös wirksamen Pharmakons mit dem Namen Trimetazidine (TMZ) in den Dosierungen 3 mg, 6 mg und 16 mg gegenüber Placebo untersucht. Zusätzlich sollte die Beeinflussung der Hämodynamik nach Gabe dieses Medikamenten untersucht werden. Frühere tierexperimentelle Untersuchungen (4,7,12,24,30,35,38,39) und klinische Untersuchungen an Patienten mit koronarer Herzkrankheit , die mit einer oralen oder intravenösen Gabe von Trimetazidine behandelt wurden, hatten eine antiischämische Wirksamkeit der Substanz ohne Beeinflussung hämodynamischer Parameter ergeben (7,11,26,30,34). Nach den bisher vorliegenden pharmakologischen Untersuchungen ist anzunehmen, dass die antiischämische Wirkung von Trimetazidine nicht über die Beeinflussung der Hämodynamik, sondern wahrscheinlich auf einer Stabilisierung der myokardialen ATP- Depots und der elektrischen Membranpotentiale während einer Ischämie beruht und somit TMZ einen direkt myokardprotektiven Effekt besitzt (11,13,14,24,35,41). In der vorliegenden Studie wurden während Perkutaner Transluminaler Koronarer Angioplastie (PTCA), 3, 6 oder 16 mg TMZ oder Placebo intrakoronar injiziert und in weiteren Dilatationen die Beeinflussung der PTCA-bedingten Ischämie durch TMZ untersucht. Zur Beurteilung der antianginösen Wirksamkeit von Trimetazidine wurden die ST-Strecken zum Ausgangszeitpunkt mit den maximalen ST-Strecken-Änderungen während der jeweiligen Okklusionen in den vier verschiedenen Therapiegruppen vergl ichen. Zusätzlich wurden die Ausbildungszeiten der maximalen ST-Strecken-Änderungen und deren Rückbildungszeiten in den vier Gruppen (Placebo, 3 mg, 6 mg und 16 mg TMZ) untersucht. Die Untersuchungen ergaben keine signifikanten Unterschiede zwischen den vier Gruppen sowohl vor, als auch nach der Gabe von TMZ bzw. von Placebo. Es wurde keine Beeinflussung der hämodynamischen Parameter unter Trimetazidine (systemischer Blutdruck, intrakoronarer Blutdruck und Herzfrequenz) beobachtet, was auf Grund einer früheren Studie auch erwartet wurde. Die subjektiv eingeschätzten pektanginösen Beschwerden blieben vor und nach der Gabe von TMZ / Placebo gleich. Die während der Untersuchung beobachteten Nebenwirkungen waren gering und nicht auf die Gabe vom TMZ zurückzuführen. Nach gewissenhafter Abwägung der Ergebnisse und dem Vergleich mit den Daten aus der Literatur scheinen weitere Untersuchungen mit vergleichbarem Studienau fbau an einem grösseren Patientenkollektiv und - um ein homogeneres Patientenko llektiv zu erhalten - bei Beschränkung der Dilatationen auf nur ein Gefäss, vorzug sweise den RIVA wünschenswert, um das Ausmass der antiischämischen Wirkung und die Dosis-Wirkungs-Effekte von TZM weiter zu erforschen.
Im Rahmen der vorliegenden Arbeit wurden alle UAW-Verdachtsfallberichte nach Anwendung von Impfstoffen, die dem Paul-Ehrlich-Institut im Zeitraum von 1987 bis 1995 zugingen, nochmals aufgearbeitet und für jeden Impfstoff ein Nebenwirkungsprofil (PEI-UAW-PROFIL) erstellt. In diesem Zusammenhang wurden die derzeit gebräuchlichen Systeme zur Arzneimittelüberwachung und Kausalitätsbewertung vorgestellt und diskutiert. Alle derzeit von der ständigen Impfkommission (STIKO) empfohlenen Schutzimpfungen wurden kurz beschrieben und die verfügbaren Impfstoffe mitsamt ihres UAW-Profils charakterisiert. Abschließend wurden Möglichkeiten der Optimierung des derzeit gebräuchlichen passiven Spontanerfassungssystems aufgezeigt.
Wir untersuchten über einen Zeitraum von 5 Jahren 40 Patienten, bei denen die Diagnose einer Achalasie nach etablierten Kriterien gesichert worden war hinsichtlich der Effektivität und der Nebenwirkungen einer pneumatischen Dilatation mit einem neuartigen "Low - Compliance" Ballonsystem. Alle Patienten wurden vor, 4 - 6 Wochen und abschließend im Mittel 28 ± 15 Monate nach der pneumatischen Dilatation untersucht. Die pneumatische Dilatation erfolgte entweder unter Verwendung eines 30 oder 35 mm Ballonsystemes, abhängig von vorher festgelegten Kriterien. Zusätzlich konnte bei 12 dieser Patienten, vor - und im Mittel 26 ± 15 Monate nach der pneumatischen Dilatation, eine ösophageale pH - Messung durchgeführt werden. Insgesamt wurden 52 Dilatationen mit einer durchschnittlichen Dilatationszeit von 4 Minuten durchgeführt. Ein initialer Erfolg nach einmaliger pneumatischer Dilatation konnte bei 35 Patienten (87,5%) erreicht werden. Die übrigen 5 Patienten sowie weitere 7 Patienten, bei denen eine Dysphagie erneut auftrat, wurden ein zweites Mal dilatiert. Die beiden Patienten, bei denen auch nach dieser zweiten Dilatation noch deutliche Symptome bestanden, wurden einer operativen Kardiomyotomie zugeführt (Operationsfrequenz = 5%). Die Effektivität der Dilatation wurde durch eine signifikante Verringerung der klinischen Symptomatik dokumentiert. So verringerte sich der Symptomen - Score (1-14 Punkte) von 9,9 ± 2,1 Punkte vor pneumatischer Dilatation, auf 4,9 ± 2,4 Punkte 4-6 Wochen nach pneumatischer Dilatation und auf 4,9 ± 2,4 Punkte bei der Abschlußuntersuchung (p< 0,01). Der Ruhedruck des unteren Ösophagussphinkters konnte durch die Dilatation von 28,3 ± 0,8 mmHg auf 16,4 ± 6,4 mmHg nach Dilatation und weiter auf 14,7 ± 5,5 mmHg bei der Abschlußuntersuchung, gesenkt werden (p< 0,01). Weder der radiologisch bestimmte Durchmesser des tubulären Ösophagus, noch die manometrisch fassbaren Kontraktionsamplituden im tubulären Ösophagus wurden durch die pneumatische Dilatation signifikant beeinflußt. Betrachtet man die Nebenwirkungen, so zeigte die Langzeit pH - Metrie eine deutliche Erhöhung der Anzahl, sowie der Dauer der gastroösophagealen Refluxepisoden, mit einem pH < 4 nach der pneumatischen Dilatation. Konträr zu diesen Ergebnissen klagte allerdings nur ein Patient über Sodbrennen. Bei einem weiteren Patienten konnte, obwohl dieser keine Beschwerden angab, endoskopisch eine Ösophagitis Grad I gesichert werden. Es wurde eine Perforation beobachtet, eine operative Versorgung des Patienten war jedoch nicht erforderlich. Diese Ergebnisse zeigen, daß die pneumatische Dilatation mit dem "Low - Compliance" System eine adäquate Behandlungsmethode der Achalasie darstellt, die sich jedoch hinsichtlich ihrer Kurz - und Langzeiteffektivität nicht wesentlich von den bisher verwendeten Systemen unterscheidet.
Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen
(1997)
Das Ziel der vorliegenden Arbeit war die Entwicklung einer komfortablen Beschreibung verteilter Anwendungen, die kontinuierliche Medien integrieren. Die Klarheit des Ansatzes ergibt sich aus der Beschränkung auf die anwenderrelevanten Funktionalitäten. Weitere Gebiete, die systembezogen sind, wurden nur soweit wie nötig behandelt. Die Aufgaben anderer Bereiche, wie des Betriebssystems und des Managementsystems sowie der Kommunikationsdienste, konnten nur gestreift werden, indem die anwendungsabhängigen Anforderungen spezifiziert wurden. Durch deren Extraktion und die Zuordnung der Anforderungen an die einzelnen Bereiche, ergibt sich eine klarere Sicht auf Betriebssystem, Management und Kommunikationsdienste und deren notwendige Weiterentwicklung. Das entwickelte Funktionenmodell beschreibt zusammenhängend alle mit kontinuierlichen Medien verbundenen Arbeiten. In der vorliegenden Arbeit wurde gezeigt, wie aus den Funktionen auf kontinuierlichen Medien durch die Spezifikation geeigneter Schnittstellen Bausteine zur Integration der Medien in verteilte Anwendungen erstellt werden. Die Beschrei bung der Bausteine erfolgt durch diese Schnittstellen; es sind Steuer-, Daten- und Managementschnittstellen. Die Herauslösung der gesonderten Beschreibung der Multimedia-Datenflußstruktur schafft einerseits die Grundlage für eine Teilklassifikation der Anwendungen nach Medien-Gesichtspunkten. Andererseits kann die Erstellung einer Anwendung aus einer bestimmten Anwendungsklasse, wie zum Beispiel ein einfaches Wiedergabesystem, durch die gesonderte Beschreibung der Multimedia-Datenflußstruktur schneller in der Bausteinstruktur realisiert werden. Das Funktionenmodell wird auch in [Fritzsche96] beschrieben. Das in dieser Arbeit konzipierte Bausteinmodell gewährleistet eine integrierte Beschreibung von Geräten, Werkzeugen und Anwendungen kontinuierlicher Medien. Die verwendete Beschreibungstechnik erlaubt dabei nicht nur eine übersichtliche Darstellung sondern bietet auch hierarchische Strukturierungen an. Das Zusammenspiel der Bausteine erfordert zu sätzliche Komponenten zur Steuerung und Abstimmung der einzelnen Funktionen, die in dieser Arbeit neu eingeführt werden. Es lassen sich sowohl zentralistische als auch verteilte Steuerungen realisieren. Mit einer entsprechenden Schnittstelle versehen kann eine Steuerkomponente eine ganze Gruppe von Bausteinen dem Benutzer als Einheit zur Verfügung stellen. Somit lassen sich auch verschiedene Medien und/oder mehrere Funktionen gemeinsam mit einer Steuerkomponente zu einem Baustein zusammenfassen. Diese zusammenge setzten Bausteine bieten nun echte Multifunktionalität und Multimedialität. Durch die Komponenten- und Anwendungsmodellierung nach [Zimm93] wird darüber hinaus eine flexible, auch dynamisch änderbare Anwendungsstruktur vom Anwendungs-Management ermöglicht. Das Bausteinmodell wird auch in [Fritzsche96] behandelt. Bisherigen Ansätzen für Multimedia-Komponenten fehlt die allgemeine Interoperabilität der Komponenten. Diese kann nur durch eine umfassende, formale Spezifikation der Komponenten-Schnittstellen, insbesondere aber von Steuerschnittstellen, erfolgen. Zur Spezifikation der Schnittstellen ist die Integration der kontinuierlichen oder zeitabhängigen Medien als abstrakte Datentypen unabdingbar. Auf diese Art werden aus den Komponenten Bausteine. Im vorliegenden Ansatz wurden erstmalig Steuerschnittstellen für Multimedia-Komponenten spezifiziert und als Hierarchie dargestellt. Der neue Ansatz erlaubt es daher, multimediale Systeme nach einem Baukastensystem zu erstellen, indem Bausteine durch Bindung untereinander zu einer Anwendung zusammengesetzt werden. Nach der Verbindungsstruktur der multimedialen Anwendung können verschiedene Anwendungstypen unterschieden werden. Die Definition der Komponentenschnittstellen bezieht sich auf ein abstraktes Datenmodell für kontinuierliche Medien. Das Datenmodell ist eine eigenständige Weiterentwicklung der Ansätze von [Herrtw91] und [Gibbs94] und kann auch zur Realisierung der Komponenten verwendet werden. Multimediadaten wurden zunächst auf zwei Ebenen als Sequenz und Sequenzelemente modelliert. Daraus lassen sich bereits einige Funktionen auf den Daten ableiten, die von den Bausteinen realisiert werden müssen. Kennzeichnend für die Sequenzelemente ist, daß sie die Zeitparameter Zeitpunkt und Dauer besitzen und damit eine explizite Integration der Zeit in das Datenmodell realisieren. Aus diesen Parametern der Elemente können auch für die Sequenz die Parameter Zeitpunkt und Dauer abgeleitet werden. Somit könnte eine Sequenz selbst wieder Element einer Sequenz werden. Da diese Sequenzen von Sequenzen aber zum Teil schwer zu handhaben sind und zum Aufbau von sehr komplexen Verschachtelungen verleiten, wird in dieser Arbeit eine andere Erweiterung der Datenhierarchie, eine Liste, vorgestellt. Diese Erweiterung führt nur eine weitere Hierarchieebene oder Granularitätsstufe ein, ist aber durch die vorgegebenen Funktionen gleichmächtig wie die Verschachtelung der Sequenzen, im Operationsablauf aber leichter nachzuvollziehen. Die Liste repräsentiert die gröbste Granularitätsstufe. Diese ist mit der Titelfolge einer Schallplatte oder einer CD vergleichbar. Die einzelnen Teile haben zueinander nur eine lose Ordnung. In der ersten Verfeinerung der Granularität wird in jedem einzelnen Listenelement eine strenge zeitliche Ordnung gefordert; ein Listenelement ist eine Sequenz. In der zweiten Stufe der Verfeinerung, der Unterteilung der Sequenzen, treten die bereits bekannten Se quenzelemente auf. Die Daten werden im Ticker-Schrittgeber-Modell interpretiert. Dieses Modell erhält zwei Zeitebenen, den Ticker als Bezugssystem der Funktionen untereinander und den Schrittgeber als Steuerung der einzelnen Funktionen. Ein zweistufiges Uhrenmodell mir festgesetzten Operationen und Uhrenbeziehungen wird in dieser Arbeit neu eingeführt. Die Beziehung zwischen Schrittgeber und Ticker ist, daß ein Schritt nach einer bestimmten Anzahl von Ticks erfolgt. Der Startwert des Tickers kann frei gewählt werden, ebenso der Startwert des Schrittgebers. Für den Schrittgeber bestimmt sein Start-Tick, wann er beginnt fortzuschreiten. Ein Schrittgeber ist mit genau einer Sequenz verbunden, deren Start-Schritt beschreibt, bei welchem Schrittwert das erste Sequenzelement gültig wird. Die Start-Zeitpunkte der Elemente und ihre Dauern werden in Schritten gemessen. Das Datenmodell für Multimedia wurde in [Fritzsche95] veröffentlicht. Implementierungen Als Grundlage für die Entwicklung der Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen wurden die Funktionen auf den Medien herangezogen. Diese sind in ihren einfachsten Formen die Grundfunktionen Perzeption, Präsentation und Speicherung der Medien, wobei die Speicherung in die Funktionen Schreiben in den Speicher und Lesen aus dem Speicher geteilt wird. Die durch die Perzeption festgelegten, oder künstlich erzeugten Mediendaten können zwischen den einzelnen Funktionen übertragen werden. Eine Bearbeitung der Daten ist beim Austausch zwischen den Funktionen möglich. Die Veränderung der Daten und ihr Bezug zu den Grundfunktionen wird durch die Verarbeitungsfunktionen der Typen f 1 bis f 5 beschrieben. Die Funktionen werden durch Operationen gesteuert, die aus dem Datenmodell abgeleitet werden. Insbesondere wird so auch die explizite Veränderung der Zeitparameter möglich. Somit bietet das Datenmodell eine geeignete Grundlage für jede Art der Verarbeitung kontinuierlicher Medien. Das entwickelte Modell unterstützt die Anwendungserstellung durch objektorientierte Ansätze auf den Ebenen der Konzeption, der Anwendungsspezifikation und der Komponentenentwicklung. Konzeptionell bietet das Funktionenmodell die schnelle und übersichtliche Darstellung der Anwendung. Die aus dem Funktionenmodell ableitbare Anwendungsspezifikation unterstützt die weitere Entwicklung durch Anwendungs- und Komponentenschablonen, sowie durch die vorgefertigte und erweiterbare Hierarchie der Schnittstellen und durch die Bibliotheken für Standardbausteine. Die Verwendung dieser Elemente der Anwendungsspezifikation läßt sich teilweise automatisieren. Das Ergebnis der Anwendungsspezifikation ist eine Menge von Komponenten, die alle vollständig spezifiziert sind. Diese Komponenten sind die funktionsorientierten Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen. Im ersten Schritt wurde das vorgestellte Datenmodell mit seinen Operationen in einer objektorientierten Programmiersprache (C [Lipp91]) implementiert [Braun92]. Darauf aufbauend wurden verschiedene Anwendungsfunktionen und Normalisierungsoperationen entwickelt und für den Bereich Audio realisiert [Bast93]. Die von den Funktionen auf kontinuierlichen Medien abgeleiteten Bausteine werden, wie in der vorliegenden Arbeit ausführlich dargestellt, als Komponenten verteilter Anwendungen realisiert. Aus den verschiedenen Realisierungsebenen sollen hier zwei Beispiele hervorgehoben werden. Zunächst wird auf die Komponentenrealisierung eingegangen; danach folgt die Realisierung von Tickern und enger Kopplung. Diese beiden Punkte stellen zentrale Aufgaben des Ansatzes dar. Realisierung von Komponenten Die Realisierung der Komponenten gliedert sich in zwei Abschnitte. Der erste Abschnitt ist die Zerlegung einer Komponente in Standardobjekte nach [Zimm93]. Die Standardobjekte entstammen Kommunikationsklassen, Stub- und Dispatcherklassen, Anwendungsklassen und Kooperationsprotokollklassen. Die Objekte der Anwendungsklassen realisieren die Anwendungsfunktionalität der Komponente. Das Ausprogrammieren dieser Objekte stellt den zweiten Abschnitt der Komponentenrealisierung dar. Dazu liefert das entwickelte Datenmodell die Programmierunterstützung. Zur Abbildung der Spezifikationskonstrukte der Komponenten auf Implementierungskonstrukte wird in [Zimm93] eine Methode vorgestellt, die die unterschiedlichen Konstrukte für Schnittstellen, Kommunikationskontexte und Komponenten auf Klassen und Objekte abbildet. So entsteht eine Klassenhierarchie von C Klassen [Lipp91] für kommunikations-, anwendung-s und managementorientierte Objekte. Weiterhin wird in [Zimm93] ein Verfahren vorgestellt, durch das in Abhängigkeit von den Eigenschaften einer Komponente parallel ablaufende Datenflüsse in ein System von leichtgewichtigen Prozessen (Threads) transformiert werden können. Als Resultat gewinnt man eine modulare Softwarearchitektur der Komponente, die sich aus interagierenden Objekten und zugehörigen Threads zusammen setzt. In [Zimm93] werden folgende Objektklassen unterschieden: . Kommunikationsklassen . Stub- und Dispatcherklassen . Anwendungsklassen . Kooperationsprotokollklassen. Eine elementare Objektarchitektur aus diesen Klassen ist in Abbildung 54 dargestellt. Es gibt jeweils eine Realisierung für eine Supplier-Komponente und eine Consumer- Komponente. Die Anwendungsobjekte können bezüglich ihrer Funktionalität in initiierende und akzeptierende Objekte eingeteilt werden. Im Falle unidirektionaler Schnittstellen sind die Anwendungsobjekte auf der Konsumentenseite (z.B. Benutzerkomponente) für die Initiierung von Methoden an Schnittstellenobjekten verantwortlich. Beispielsweise ist ein Anwendungsobjekt innerhalb der Benutzerkomponente für die Initiierung der Steueroperationen verantwortlich. Im Falle von interaktiven Komponenten [Zimm93] erfolgt dazu ein Benutzerdialog mit einem interaktiven Benutzer. Also realisiert innerhalb der Benutzerkomponente das Anwendungsobjekt einen solchen Benutzerdialog. Anwendungsobjekte auf der Konsumentenseite stellen somit typischerweise keine eigenen Methoden bereit, sondern bestehen lediglich aus einem Konstruktor. Auf der akzeptierenden Seite, den Anbieter (Supplier), realisiert ein Anwendungsobjekt die Operationen an einer Schnittstelle. Dazu wird eine Methode accept benötigt, falls ein verbindungsorientierter Kommunikationskontext zugrunde liegt. Diese Methode dient der Behandlung eingehender Verbindungswünsche. In [Alireza94] werden verschiedene Komponentenrealisierungen ausführlich vorgestellt. Die Realisierung der Ticker und Schrittgeber stellt die Einbettung der zeitbezogenen Komponenten in ihre (Betriebssystem) Umgebung dar. Ähnlich, wie eine Komponente über den Socketmechanismus Zugang zum Kommunikationssystem erhält, erhält eine zeitbezogene Komponente über den Ticker-Schrittgeber-Mechanismus Zugang zum Zeitbezugssystem. Denn die Schrittgeber beziehen sich auf Ticker, Ticker aber auf die Systemzeit. Da auch die Systemzeit als Takt zur Verfügung gestellt wird, können Ticker und Schrittgeber wegen ihrer ähnlichen Funktionalitäten aus einer gemeinsamen Zeitgeberklasse abgeleitet werden. Im Anhang C ist die Deklaration dieser gemeinsamen Klasse angegeben. In einer Anwendung beziehen sich die Schrittgeber verschiedener Komponenten auf einen gemeinsamen Ticker. Dieser Ticker liegt in der Systemumgebung der den Komponenten gemeinsamen interaktiven Benutzerkomponente. Die interaktive Benutzerkomponente verteilt die Ticks über die Steuerschnittstellen an die Komponenten und realisiert so die enge Kopplung der Komponenten. Bei einer Tickrate von 600 Hz ist es nur innerhalb eines Systems sinnvoll jeden Tick als Ereignis zu verteilen. Anstatt nun zu jedem Tick ein Ereignis zu verteilen werden bei der Tickverteilung Tickwerte mit fester Rate verteilt, wobei diese Rate in die Größenordnung der Schritte fällt. Um die Übertragungsraten gemäß den Anforderungen an der Steuerschnittstelle klein zu halten, wird zu jedem Schritt nur ein Teil (1 Byte) des Tickwertes übertragen. Begonnen wird mit der Übertragung des höchstwertigen Bytes, so daß im letzten Schritt einer Tickerübertragung mit dem letzten Byte der genaue aktuelle Tickwert übertragen wird. Ähnliche Verfahren werden bereits bei anderen Synchronisations verfahren verwendet. Eine genaue Beschreibung sowie die Kodierung für die verschachtelte Übertragung von Tickwerten und SchnittstellenAufrufen wird in [Hesme93] vorgestellt. Weitere Entwicklung Zur Realisierung verteilter multimedialer Anwendungen, muß man die einzelnen verteilten Komponenten bestimmen und ihre Funktion beschreiben. Die Komponenten tauschen unter einander Steuerungsinformationen und Multimediadaten aus. Diese Daten und das beim Austausch verwendete Protokoll sollten allgemein standardisiert sein, um den Zusammen schluß heterogener Systeme zu ermöglichen. In der vorliegenden Arbeit wurde gezeigt, wie sowohl die Daten als auch das Zusammenspiel der Komponenten festgelegt werden können. Obwohl alle Geräteklassen und Geräte funktionen sowie verschiedene Werkzeuge entwickelt wurden, und das vorgestellte Modell die gesamte Entwicklung verteilter multimedialer Anwendungen unterstützt, ist dieses große Gebiet noch lange nicht erschöpfend behandelt. Eine Erweiterung der Managementschnittstellen und die Realisierung von komplexen Werkzeugen sind die vordringlichsten Aufgaben. Damit entsteht ein mächtiges Entwicklungswerkzeug für Multimediaanwendungen. Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen Eine weitere Aufgabe ist die genauere Untersuchung der Nebenbedingungen, die zur Unterscheidung der Funktionen der Typen f 1 bis f 5 führten. Aus diesen Untersuchungen sowie aus den Ergebnissen der Ticker- und Schrittgeber-Realisierung lassen sich dann genauer spezifizierte Anforderungen an die Betriebs- oder Kommunikations-Systeme ableiten.
Im 18. und 19. Jahrhundert entstanden, durch die Erkenntnisse, die in Anatomie, Physiologie, Bakteriologie und Zellularpathologie gewonnen wurden, im Wesentlichen die Grundlagen der modernen Medizin. Darauf aufbauend kam es rasch zu einem enormen Wissenszuwachs aller medizinischen Teilbereiche, ermöglicht durch eine naturwissenschaftliche Methodik sowie die technische Revolution auf allen Gebieten des ärztlichen Diagnoseinstrumentariums. Hieraus resultierte ab Mitte des 19. Jahrhunderts einerseits die Abspaltung von Spezialfächern und deren eigenständige Weiterentwicklung, andererseits zeigte sich jedoch, daß wesentliche Fortschritte nur in Zusammenarbeit mit anderen Fachdisziplinen zu erreichen waren (Münchow 1984 S.670) Für die Augenheilkunde, die bis zum Beginn des 19. Jahrhunderts noch der Chirurgie unterstand, begann Mitte des 19. Jahrhunderts die Reformzeit (Hirschberg 1918 S.324). Es erfolgte die schrittweise Loslösung der Ophthalmologie von den beengenden Fesseln der Chirurgie. Hierbei übernahm die Wiener Schule eine Vorreiterrolle. Bereits 1812 wurde in Wien die Augenheilkunde von der Chirurgie getrennt und Georg Josef Beer (17631821), der wegen seines operativen Könnens Weltruhm erlangt hatte, zum außerordentlichen Professor für Augenheilkunde ernannt. 1818 erhielt er das Ordinariat. 1820 wurde in Prag der erste Lehrstuhl für Ophthalmologie eingerichtet. Von hier kam auch Ferdinand von Arlt (18121887), der 18561883 Leiter der Wiener Augenklinik war. Aus seiner Schule gingen viele bekannte Ophthalmologen hervor, unter anderem Albrecht von Graefe, der später eine zentrale Rolle in der Entwicklung der deutschen Augenheilkunde einnahm. In England, Frankreich und Deutschland wurde die Augenheilkunde erst in der zweiten Hälfte des 19. Jahrhunderts als eigenständiges Fach gelehrt. LouisAuguste Desmarres (18101882) gründete in Paris 1842 eine private Augenklinik und hatte den Mut sich ganz der Ophthalmologie zu widmen. 1 Sein Buch: "Traité théorique et pratique des maladies des yeux" trug wesentlich zur Loslösung der Augenheilkunde von der Chirurgie bei. Desmarres war ein hervorragender Operateur. Seinem praktischen Sinn verdanken wir eine Reihe ophthalmologischer Instrumente wie beispielsweise den Desmarreschen Lidhaken, der heute noch gebraucht wird (Rintelen 1961 S.401). In London betrieb William Bowman (18161892) intensive histologische Studien und beschrieb unter anderem die nach ihm benannte Glomerulumkapsel der Niere. Besonders befaßte er sich mit der Histologie des Auges. 1847 beschreibt er die Lamina elastica anterior der Hornhaut, die Bowmansche Membran (Rintelen 1961 S.402). Von Graefe lernte Desmarres während seines Studienaufenthaltes in Paris kennen und hospitierte in dessen Privataugenklinik (Münchow 1984 S.596). Der Utrechter Augenarzt und Physiologe Franz Cornelius Donders (18181889), der in engem Kontakt mit Albrecht v. Graefe stand, beschäftigte sich eingehend mit den Anomalien der Refraktion und Akkomodation und hat sich vornehmlich um die Einfühung prismatischer und cylindrischer Brillen verdient gemacht. 1863 stellte er das erste Tonometer vor. Er veranlaßte die Augenärzte sich selbst mit der Brillenverordnung zu befassen und sie nicht länger herumreisenden Händlern zu überlassen (Sasse 1974 S.46). Die deutsche Augenheilkunde rückt 1850 mit dem Königsberger Physiologen Hermann von Helmholtz und dem Berliner Augenarzt Albrecht von Graefe in den Vordergrund. Von Helmholtz (18211894) verdankt die Medizin die Erfindung des 1850 vorgestellten Augenspiegels (Hirschberg 1918 S.73). Jetzt bot sich die Gelegenheit, Licht auf die Erkrankungen der Retina zu werfen und somit Wesentliches zur Selbständigkeit und Geltung der jungen aufstrebenden Augenheilkunde beizutragen. Andererseits führte die Weiterentwicklung der Untersuchungstechniken zu einer Annäherung an andere Fachdisziplinen. Beispielsweise wurde durch die Erkenntnis, daß typische Augenhintergrundveränderungen bei bestimmten Stoffwechsel oder Organerkrankungen zu sehen waren, eine Brücke zur Inneren Medizin geschlagen (Bader 1933 S.70). Aufgrund des enormen Wissenszuwachses auch in anderen Spezialgebieten entwickelte sich eine tiefgreifende Beziehung der einzelnen Disziplinen untereinander. Albrecht von Graefe (18281870), dessen Vater Carl Ferdinand von Graefe Professor für Chirurgie und Augenheilkunde an der Universität Berlin war, übernahm die zentrale Rolle im Ausbau der modernen Augenheilkunde in Deutschland. Nach dem Medizinstudium in Berlin folgten Reisen nach Prag, Wien, Paris und London, wobei er Einblick in die jüngsten Entwicklungen des neuen Augenfaches nehmen konnte. 1851 ließ er sich im Alter von 22 Jahren in Berlin nieder und richtete eine kleine Privataugenklinik mit zwei Zimmern ein (Münchow 1984 S.596). 1851 bekam er von Hermann von Helmholtz eines der ersten Exemplare des Augenspiegels, mit dessen Hilfe er maßgebliche Erkenntnisse der Krankheiten des Augenhintergrundes gewonnen hat. Nachfolgende Zusammenstellung der Diagnosen aus den ersten beiden Jahrzehnten nach Erfindung des Augenspiegels, gibt einen Hinweis auf die Bedeutung von Albrecht von Graefe, seinen Freunden und Schülern.