Refine
Year of publication
- 1998 (422) (remove)
Document Type
- Article (197)
- Part of Periodical (57)
- Part of a Book (40)
- Doctoral Thesis (36)
- Working Paper (32)
- diplomthesis (18)
- Book (11)
- Review (11)
- Report (6)
- Conference Proceeding (4)
Language
- German (422) (remove)
Is part of the Bibliography
- no (422) (remove)
Keywords
- Deutschland (15)
- Hofmannsthal, Hugo von (8)
- Johann Wolfgang von Goethe (6)
- Aufsatzsammlung (5)
- Goethe, Johann Wolfgang von (4)
- Kapitalmarktrecht (4)
- Rezension (4)
- Börsenordnung (3)
- Börsenrecht (3)
- Börsenzulassung (3)
Institute
- Extern (46)
- Medizin (21)
- Präsidium (20)
- Physik (16)
- Rechtswissenschaft (16)
- Wirtschaftswissenschaften (15)
- Gesellschaftswissenschaften (10)
- Informatik (6)
- Institut für Wissenschaftliche Irenik (6)
- Erziehungswissenschaften (5)
In der vorliegenden Arbeit beschäftigen wir uns mit der Frage, wie ein Regler für ein hochdimensionales physikalisch/technisches System strukturiert und optimiert werden soll. Diesbezüglich untersuchen wir einen neuen Ansatz, welcher versucht, Regel-Mechanismen des ökonomischen Marktes und Lern-Prozesse mit in den Regler einzubauen. Um eine anschauliche Vorstellung von der Wirkung des Reglers zu erhalten, wenden wir diesen auf ein einfaches physikalisches Model an, eine an ihren Enden eingespannte eindimensionale Federkette. Wir implementieren das Model auf einem Rechner und simulieren den Einfluß des Regelverfahrens auf die Bewegung der Kette. Dabei beschränken wir uns auf den Grenzfall kleiner Amplituden, um das System im Rahmen einer näherungsweise linearen Dynamik beschreiben zu können. Mit Hilfe eines schwachen destabilisierenden Zusatzpotentials erreichen wir, daß die niedrigen Eigenmoden der schwingenden Kette instabil werden und die ausgestreckte Kette eine instabile Gleichgewichtslage darstellt. Wir stellen uns die Aufgabe, diese unter Verwendung des Reglers zu stabilisieren. Anhand des Modells untersuchen wir den Einfluß verschiedener Anfangsbedingungen der Kette, den Einfluß der Markt-Regelung, den Einfluß verschiedener Kommunikationsstrukturen und den Einfluß des Lernverfahrens auf die Wirksamkeit und die Robustheit des Regelprozesses. Als wichtigstes Ergebnis erkennen wir, daß die Regelung mit dem Markt robuster im Vergleich mit der Regelung ohne Markt ist, aber im allgemeinen einen höheren Regel-Energieaufwand aufweist. Untersuchungen anhand des Lernverfahrens ergeben, daß sich das Lernen der Markt- und der Kommunikationsstruktur kombinieren läßt und dadurch die Wirksamkeit der Regelung gegen über der Verwendung von nur einem der beiden Lern-Ansätze erhöht werden kann. Unsere Ergebnisse zeigen, daß sich das Markt-Konzept vollständig auf den gegebenen technischen Regelprozeß übertragen läßt. In der Diskussion der Ergebnisse führen wir die erhöhte Robustheit und den erhöhten Energieaufwand der Markt-Regelung auf eine indirekte, nichtlineare Kopplung der Regeleinheiten zurück, die der Markt-Mechanismus in den Regelprozeß einführt. Die Nichtlinearität bewirkt, daß die von dem Regler bestimmten Regelkräfte bei kleinen Kontrollfehlern relativ größer sind als bei großen Kontrollfehlern. Daduch ist der Energieaufwand der Markt-Regelung bei kleinen Kontrollfehlern gegenüber der Regelung ohne Markt erhöht. Der Regler ist damit in der Lage, die Kette auch bei dem Ausfall einer Regeleinheit zu stabilisieren, da ausreichend große Regelkräfte durch die verbleibenden Regeleinheiten ausgeübt werden. Die Kopplung von benachbarten Massenpunkten durch Federn unterstützt die Robustheit der Regelung in dem untersuchten Ketten-Modell, da die Kopplung dazu führt, daß die Massenpunkte eine zur instabilen Gleichgewichtslage rücktreibende Kraft erfahren und dadurch in den Bereich von kleinen Kontrollfehlern und relativ hohen Regelkräften gelangen. Am Ende der Diskussion gehen wir kurz auf mögliche Anwendungen der gewonnen Ergebnisse ein. Dabei haben wir besonders technische Regelprozesse im Sinne von Smart Matter (intelligente Bauteile) im Auge.
Jakob Nussbaum 1873 - 1936
(1998)
Jakob Nussbaum gehört zu den kulturpolitischen Persönlichkeiten der zwanziger Jahre des vergangenen Jahrhunderts. Als Maler in München und Ungarn ausgebildet und inspiriert von der Berliner Secession arbeitete er vorwiegend in Frankfurt. Von 1900 bis zu seiner Auswanderung nach Palästina 1933 gestaltete Nussbaum das Frankfurter Kulturleben aktiv mit. So leitete er zehn Jahre lang den Frankfurter Künstlerbund, die sogenannte Frankfurter Secession, ein Forum für modern orientierte Künstler. Auch als Lehrer an der Städelschule machte er seinen Einfluß geltend. Nussbaums zahlreiche Porträts von Persönlichkeiten des öffentlichen Lebens dokumentieren die Zeitgeschichte, ebenso wie seine für die Stadthistorie bedeutenden Frankfurt-Ansichten. Der Künstler, der eng mit Max Liebermann befreundet war, wird gerne als der Frankfurter Impressionist bezeichnet. Doch weist Nussbaums Werk unterschiedliche stilistische Tendenzen auf, die seine Auseinandersetzung mit dem aktuellen Kunstgeschehen über drei Jahrzehnte hinweg widerspiegeln. Ziel der Arbeit ist es vor allem gewesen, zunächst das Werk Nussbaums zusammenzutragen. Sodann wurden die für Nussbaum spezifischen Merkmale seines Schaffens herausgearbeitet. Hierbei wurde die komparative Methode angewandt, also Nussbaums Schaffen und Werk mit dem seiner Zeitgenossen verglichen. Letztlich unternimmt diese Arbeit den Versuch der kunstgeschichtlichen Einordnung und Würdigung des Werkes des Künstlers. Die Arbeit liegt in drei Bänden vor: 1. Textband mit Abbildungen. 2. Materialband – wobei die hier aufgeführten Verzeichnisse zur Literatur, zu den verwandten Abkürzungen und zu den Ausstellungen des Künstlers für alle drei Bände dieser Arbeit gelten. 3. Catalogue Raisonné mit einem Verzeichnis der von Nussbaum porträtierten Personen. Hierdurch konnten dem Leser der Zugang zu dieser Arbeit erleichtert und Wiederholungen umfangreicher Teile der Arbeit vermieden werden. Insbesondere sind bei den Abbildungen im Textband vereinfachend bei Werken des Künstlers nur Titel, Erscheinungsjahr und Katalognummer angegeben. Bei Werken anderer Künstler werden Name, Titel und Entstehungsjahr vermerkt. Außerdem sind sie noch einzeln in einer Liste am Ende des Textes aufgeführt, in welcher auch die Abbildungsnachweise verzeichnet sind.
Bei der Kollision ultra-relativistischer Schwerionen wird die Kernmaterie extrem verdichtet und erhitzt. Die dabei erzeugte Energiedichte könnte ausreichen, um für kurze Zeit in einem begrenzten Volumen ein Quark-Gluon-Plasma entstehen zu lassen. Dieser Zustand der Materie, bei dem die Quarks und Gluonen nicht mehr in Hadronen gebunden sind, lag möglicherweise innerhalb der ersten Millisekunde nach dem Urknall vor und wird im Inneren von schweren Neutronensternen erwartet. Das NA49-Experiment am SPS-Beschleuniger des CERN untersucht hauptsächlich die Produktion von Hadronen in ultra-relativistischen Blei-Blei-Kollisionen. Eine erhöhte Produktion seltsamer Teilchen ist eine der vorgeschlagenen Signaturen für das Auftreten eines Quark-Gluon-Plasmas. Neutrale seltsame Teilchen werden aus den Spuren ihrer geladenen Zerfallsprodukte, die diese in den großvolumigen Spurendriftkammern (TPC) des NA49-Experiments hinterlassen, rekonstruiert. Bei der Auslese der TPCs entstehen Datenmengen von ca. 8 TByte (8 x 10 exp 12 Byte) pro Strahlzeit. Diese riesigen Datenmengen und die aufwendige Spurrekonstruktion stellen hohe Anforderungen an die Software-Infrastruktur. Daher wurde zur Vereinfachung und Modularisierung der Software-Entwicklung eine Software-Entwicklungs- und Analyseumgebung konzipiert und implementiert. Sie basiert auf dem Client-Server-Prinzip und kann über ein heterogenes TCP/IPNetzwerk aus UNIX-Workstations verteilt werden. Der zentrale Bestandteil des Systems ist der Daten-Server, der Datenobjekte mit persistenten Relationen verwaltet und die Kommunikation mit den Clients zur Steuerung des Systems übernimmt. Programmierschnittstellen (API) für verschiedene Sprachen (C, FORTRAN, C++, Fortran90) erlauben eine einfache Entwicklung von Clients, beispielsweise für die Datenanalyse und -visualisierung. Für die Rekonstruktion neutraler seltsamer Teilchen wurden 93497 zentrale Blei-Blei-Ereignisse aus der Strahlzeit im Herbst 1995 analysiert. Aus den Rohdaten der zweiten Vertex-TPC (VTPC2), die zur Bestimmung der Impulse in einem Magnetfeld positioniert ist, wurden zunächst die Ladungs-Cluster und dann die Teilchenbahnen rekonstruiert. Mit diesen Spuren wurden anschließend die Zerfalls-Vertices von neutralen seltsamen Teilchen gesucht. Dabei wurde neben den tatsächlichen Vertices auch ein Untergrund von zufälligen Kombinationen gefunden. Das Verhältnis von Signal zu kombinatorischem Untergrund wurde durch die Anwendung von Qualitätskriterien optimiert. Die Phasenraumakzeptanz liegt für die drei untersuchten Teilchen Lambda, Antilambda und K 0 s in den Rapiditäts-Intervallen 2,9 < y lambda < 3,9, 3,0 < y antilambda < 3,8 und 3,25 <= yK < 4,05. Der verwendete Transversalimpuls-Bereich ist abhängig von der Teilchenspezies und dem betrachteten Rapiditätsintervall und liegt zwischen 0,6 GeV/c und 2,4 GeV/c. Die inversen Steigungsparameter der Transversalimpuls-Spektren sind rapiditätsabhängig. Im Rapiditätsintervall, das jeweils am nächsten an Midrapidity liegt, betragen sie T lambda = 281 +- 13 MeV, T antilambda = 308 +- 28 MeV und T K 0 s = 239 +- 9 MeV. Die beobachtete lineare Abhängigkeit der inversen Steigungsparameter von der Ruhemasse und die Überschreitung der Hagedornschen Grenztemperatur für ein ideales Hadronengas sind ein Indiz für die Existenz eines kollektiven transversalen Flusses. Im Rahmen eines hydrodynamischen Modells ergibt sich eine mittlere transversale Flußgeschwindigkeit <vT> ~ 0,65 c und eine Freeze-out-Temperatur T fo ~ 110 MeV. Während die Rapiditäts-Verteilungen für Antilamda und K 0 s bei Midrapidity ein deutliches Maximum aufweisen, zeigt die Rapiditäts-Verteilung der Lambda einen flachen Verlauf. Die Multiplizitäten im Rapiditätsintervall bei oder nahe Midrapidity betragen 19,2 +- 1,1 für Lambda, 3,2 +- 0,3 für Antilambda und 27,1 +- 1,8 für K 0 s . Aufgrund der in der Analyse verwendeten Qualitätskriterien kann angenommen werden, daß die Spektren von Lambda und Antilambda in erster Näherung frei von Lambda und Antilambda aus den Zerfällen mehrfach-seltsamer Baryonen sind. Aus dem Vergleich mit den Rapiditäts-Spektren, die von anderen NA49-Gruppen mit unterschiedlichen Analyseansätzen ermittelt wurden, konnte der systematische Fehler der Analyse auf etwa 20-30% abgeschätzt werden. Beim Vergleich der Rapiditäts-Spektren von verschiedenen Stoßsystemen bei der gleichen Energie besitzen die Lambda-Verteilungen für Schwefel-Schwefel- (S+S) und Blei-Blei-Stöße (Pb+Pb) die gleiche flache Form. Hingegen weist die p+p-Verteilung zwei deutliche Maxima auf. Die Rapiditäts-Verteilungen von K 0 s und Antilambda zeigen für alle drei Stoß-Systeme annähernd die gleiche Form. Während bei den Lambda- und K 0 s -Verteilungen die Teilchenausbeute beim Übergang von S+S zu Pb+Pb etwa mit der Anzahl der Partizipanten skaliert, ist der Anstieg bei den Antilambda nur halb so groß. Im Vergleich zu p+p nimmt die Produktion aller drei Spezies um etwa das Zweifache der Partizipanten-Anzahl zu. Die Lambda-Multiplizität bei Midrapidity wird durch Rechnungen des UrQMD-Modells sehr gut reproduziert. Allerdings scheint die Form des Lambda-Rapiditäts-Spektrums flacher als die des Modells zu sein. Bei den Antilambda - und K 0 s -Spektren wird die Form der Verteilung besser durch das Modell beschrieben, jedoch reproduziert es nicht die Gesamtmultiplizität. Während die K 0 s-Daten um 30% unter der UrQMD-Verteilung liegen, wird für die Antilambda nur ungefähr die Hälfte der tatsächlich gemessenen Multiplizität vorhergesagt. Eine Abschätzung für die Anzahl von s- und s-Quarks, die bei einem zentralen Blei-Blei-Stoß erzeugt werden, zeigt eine Übereinstimmung innerhalb der systematischen Fehler dieser Abschätzung und ist damit konsistent mit der erwarteten Erhaltung der Seltsamkeits-Quantenzahl. Das Antilambda/Lambda-Verhältnis bei Midrapidity beträgt 0,17 +- 0,02. Der Vergleich der Verhältnisse von seltsamen zu nicht-seltsamen Teilchen zeigt keinen signifikanten Unterschied zwischen Proton-Proton- und Proton-Kern-Stößen; beim Übergang zu S+S kommt es zu einer Erhöhung der Seltsamkeits-Produktion um etwa einen Faktor 2. In Blei-Blei-Kollisionen kommt es jedoch zu keiner weiteren Erhöhung. Mit steigender Anzahl der Partizipanten, die proportional zur Größe des Reaktionsvolumens ist, kommt es zu einer Sättigung der Strangeness-Produktion. Die Energieabhängigkeit der Strangeness-Produktion zeigt für Nukleon-Nukleon-Stöße (N+N) ein anderes Verhalten als für Kern-Kern-Kollisionen (A+A). Während sie für N+N-Stöße zwischen AGS- und SPS-Energien um einen Faktor 2 zunimmt, kommt es bei A+A-Kollsionen zu einer Sättigung auf dem AGS-Niveau. Dieser Unterschied kann durch eine Reduktion der Masse der Seltsamkeitsträger bei den A+A-Stößen erklärt werden, wie sie in einem Quark-Gluon-Plasma erwartet wird. Dies läßt vermuten, daß der Phasenübergang von einem Quark-Gluon-Plasma zu einem Hadronengas im Energiebereich zwischen AGS und SPS stattfindet.
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen führen möglicherweise zu einem Übergang der hochangeregten Kernmaterie in eine partonische Phase ohne Einschluß der Quarks und Gluonen. Dieser Zustand wird Quark-Gluon- Plasma genannt. Die Existenz dieses Plasmas vor einem Phasenübergang in ein Hadrongas versucht man in einer Reihe von Experimenten unter anderem an den Kernforschungszentren CERN in Genf/Schweiz und Brookhaven National Laboratory (BNL) auf Long Island/USA nachzuweisen. Aufgrund theoretischer Modelle wird erwartet, daß Signaturen eines solchen Zustandes das Verhältnis der Pion- zu Baryonen-Produktion und die Produktion von Teilchen, die Strange-Quarks enthalten, sein könnten. Nach diesen Signalen sucht man im hadronischen Endzustand des Systems. Das Fixed-Target-Experiment NA49 untersucht Blei-Blei Kollisionen bei einer Strahlenergie von 158 GeV/c pro Nukleon. Das Experiment zeichnet sich durch seine große Detektorakzeptanz für geladene Teilchen verbunden mit einer präzisen Impulsmessung aus. Ähnliche Merkmale weist auch das momentan im Aufbau befindliche Collider-Experiment STAR am BNL auf. Hier sollen ab 1999 Kollisionen von Gold Kernen bei Energien von 100 GeV/c pro Nukleon analysiert werden. Die hohe Akzeptanz und die gute Impulsbestimmung der produzierten Teilchen zeichnen die Experimente als hervorragende Meßinstrumente für den hadronischen Endzustand aus. Andere Observablen, von denen man sich Aufschluß über die Reaktionsdynamik einer ultra-relativistischen Schwerionenkollisionen erhofft, sind Vektormesonen, die kurz nach oder sogar noch im Reaktionsvolumen der Kollision in ein Lepton-Paar zerfallen. Der Vorteil hierbei ist, daß die Zerfallsteilchen (Elektronen oder Myonen) mit anderen Teilchen nur elektromagnetisch wechselwirken. Deswegen können sie ohne Wechselwirkung mit den umgebenden Hadronen die Reaktionszone verlassen. Die Wahrscheinlichkeit für den Zerfall in Leptonen ist allerdings 10 exp (-4) mal niedriger als für den in Hadronen. Im NA49-Experiment, das auf die Erfassung des hadronischen Endzustandes optimiert ist, ist es aufgrund des hohen Untergrundes an Hadronen nicht trivial, die Lepton-Paare aus dem Zerfall von Vektormesonen zu selektieren. Das Ziel dieser Arbeit bestand darin, zu untersuchen, wie gut eine Identifikation von Elektronen bzw. Positronen im NA-49-Experiment möglich ist. Es konnte die Effizienz der Selektion von Elektron-Positron-Paaren aus dem Zerfall von Phi-Mesonen abgeschätzt und die Kontamination der Lepton-Kandidaten durch Hadronen ermittelt werden. Danach wurde ein Signal zu Untergrund-Verhältnis für das Signal des Phi-Mesons im Invariante-Masse-Spektrum abgeschätzt. Aus den mit dem NA- Experiment gewonnenen Erkenntnissen konnten Vorschläge zur Optimierung der Messung von Lepton-Paaren aus Vektormesonen im zukünftigen STAR-Experiment gemacht werden.
Durch zunehmende Vernetzung steigt auch das Interesse elektronische Wahlen mit Hilfe kryptographischer Methoden auf Rechnernetzen zu verwirklichen. In der folgendern Arbeit werden Wahlschemata behandelt, deren Ziel es ist, die gesamte Wahl auf einem Rechnernetz durchzuführen. Die Arbeit beschränkt sich auf Wahlen mit zwei Wahlvorschlägen. Auf Wahlen mit drei oder mehr Wahlvorschlägen wird nicht eingegangen. Im ersten Kapitel wird eine Einleitung in die elektronischen Wahlen gegeben. Im zweiten Kapitel wird das verwendete Modell eines Wahlschemas und die Anforderungen, bezüglich der die Wahlschemata untersucht werden, vorgestellt. Im dritten Kapitel werden die kryptographische Methoden für die folgenden Kapitel vorgestellt. Im vierten Kapitel werden zwei Wahlschemata betrachtet, deren Ansatz es ist, die Stimmen mit Hilfe von Schwellenwerten auf mehrere Behörden zu verteilen. Die Sicherheit der Wahlschemata in diesem Kapitel basiert auf dem diskreten Logarithmus. Im fünften Kapitel werden weitere Wahlschemata betrachet, bei denen die Wähler mit Hilfe von Verschlüsselungsmethoden ihre Stimmen an die Behörden senden. Die Sicherheit dieser Schemata basiert auf dem Wurzelziehen modulo einer zusammengesetzten Zahl mit unbekannter Faktorisierung. In diesem Kapitel lernen wir auch das erste quittungsfreie Wahlschema kennen. Im sechsten Kapitel werden Wahlschemata betrachtet, die das Konzept eines Mixes benutzen. Auch in diesem Kapitel lernen wir ein quittungsfreies Wahlschema kennen.
Das "Handbook of...", um das es in dieser Arbeit geht, wird, wenn es vollendet werden sollte, 20 Bände mit insgesamt ca. 16000 Seiten Informationen zu einer aus Anonymisierungsgründen hier nicht näher bezeichneten Bevölkerungsgruppe umfassen, die im gegenwärtigen Nordamerika als ethnische Minderheit gilt. Der komplette Titel des Handbook war länger, wird aber ebenfalls aus Gründen der Anonymisierung nicht erwähnt. Es war als eine Enzyklopädie geplant, die die bis dato gewonnenen wissenschaftlichen Kenntnisse über die Geschichte und Kultur dieser Gruppe von der frühesten Prähistorie bis zur Gegenwart mit dem Ziel zusammenfassen sollte, ein von ausgesuchten Wissenschaftlern geschriebenes enzyklopädisches Referenzwerk nicht nur für Fachleute, sondern auch für die Allgemeinheit zu schaffen (General Editor 1987). In Form einer Monographie wird dargestellt, wo und wie das Handbook produziert wurde, welche unterschiedlichen berufs- und branchenkulturellen Elemente im Redaktionsbüro zusammentrafen und welche von außen auf es einwirkten, wobei natürlich nur eine Auswahl beschrieben und keine komplette Auflistung vorgenommen werden konnte. Das "Handbook of ..." wurde Mitte der sechziger Jahre geplant, Anfang der siebziger konkret begonnen und war 1997 bei Band 10 von 20 geplanten Bänden angekommen. Im Redaktionsbüro wurden die von vielen verschiedenen Autoren geschriebenen Beiträge aneinander angeglichen, um eine für Enzyklopädien erforderliche Einheitlichkeit zu erreichen. Überprüft, und gegebenenfalls korrigiert, wurden die Texte auf die Einhaltung des Themas und ihre Schlüssigkeit hin, auf eine (in Angleichung an andere Beiträge des Bandes und der Serie) einheitliche Schreibweise von Namen und Begriffen, auf korrekte Sachangaben sowie auf fehlerfreie Zitate und Literaturangaben. Solche Überprüfungen wurden nicht nur für das Handbook vorgenommen, sondern genauso in anderen großen und renommierten Enzyklopädie- und Lexikonverlagen wie der Encyclopedia Britannica und dem Brockhausund Dudenverlag. Durch die Stellung als Wissensautorität und 'letzte Instanz' in der Klärung von strittigen Fragen waren sie es ihrem Ruf schuldig, (möglichst) fehlerfreie Werke herauszubringen. ...
[Poster-Abstract] Formel zur Beurteilung der Blut-Liquor-Schrankenfunktion bei älteren Patienten
(1998)
Die quantitative Bestimmung der Hepatitis B Virus (HBV) DNA mit Hilfe der Hybridisierung wird neben der klassischen Serologie zur Verlaufskontrolle der chronischen Hepatitis B seil längerer Zeit eingesetzt. Dagegen sind erst seit kurzem molekularbiologische Verfahren zur Quantifizierung der „Virus-Last bei der HIV- und Hepatitis C Virus (HCV) Infektion in Form kommerzieller Testkits verfügbar . Die HI V-1 RNA Kopienzahl stellt neben der CD4*-Zellzahl den zuverlässigsten prognostischen Marker, mit einer vergleichbar hohen Aussagekraft wie onkologische Stadieneinteilungen, dar. Dennoch bedürfen die aktuellen Testkits einiger Verbesserungen. Mangelhafte Reproduzierbarkeit im unteren Meßbereich, fehlende Standardisierung sowie eine schlechte Sensitivität für Non-B HIV-1 Subtypen stellen neben den hohen Reagenzienkosten die wichtigsten Nachteile der meisten zur Zeit verfügbaren Testkits dar. Bei der Verlaufskontrolle der chronischen Hepatitis B nimmt die Quantifizierung der HBV-DNA über Hybridisierung oder PCR nur eine untergeordnete Rolle ein. Der qualitative HBV-DNA-Nachweis wird bevorzugt zur Überprüfung der Infektiosität oder zur Abklärung ungewöhnlicher Serokonstellationen eingesetzt. Nach neueren Erkenntnissen wird der Verlauf der HCV-Infektion nicht oder nur unwesentlich vom Ausmaß der Viruslast beeinflußt. Als prognostische Faktoren spielen vor allem Alter, Geschlecht und Alkoholkonsum eine wesentliche Rolle. Dagegen scheint die Erfolgsaussicht der antiviralen Therapie mit der vor Behandlungsbeginn gemessenen Kopienzahl zu korrelieren.