Medizin
Refine
Year of publication
- 2002 (50) (remove)
Document Type
- Doctoral Thesis (41)
- Part of Periodical (4)
- Article (2)
- Other (1)
- Periodical (1)
- Working Paper (1)
Language
- German (50) (remove)
Is part of the Bibliography
- no (50) (remove)
Keywords
- Axiales Längenwachstum (1)
- Brustkrebs (1)
- Cholesterinveresterung (1)
- DNA-Methylierung (1)
- Dentalkeramik; Grünling <Technik>; CAM; Hartmetallwerkzeug; Werkzeugverschleiß; Dimensionsstabilität; Schleifwerkzeug; Diamantwerkzeug (1)
- Deutscher Gewerkschaftsbund (1)
- Deutschland (1)
- Feminismus (1)
- Frankfurt <Main> / Klinikum (1)
- Geschichte 1972-2002 (1)
- Gesundheitspolitik (1)
- Gesundheitswesen (1)
- HIV (1)
- Isolierung <Medizin> (1)
- Kataraktchirugie (1)
- Kinder (1)
- Klinikum <Frankfurt, Main> / Bericht (1)
- Knochen (1)
- Lipidstoffwechsel (1)
- Lipoproteine (1)
- Medizinische Ethik (1)
- Quantitative Ultraschall-Osteodensitometrie (1)
- Reform (1)
- Reproduktionsmedizin (1)
- Staroperation (1)
- Tropenmedizin (1)
- Ultraschall (1)
- Universität <Frankfurt, Main> / Fachbereich Humanmedizin / Bericht (1)
- antiretrovirale Therapie (1)
- axial length development (1)
- cataract operation (1)
- children (1)
- chirurgische Intensivpatienten (1)
- cholesterol esterification (1)
- langkettige Fettsäuren (1)
- lipid metabolism (1)
- lipoproteins (1)
- long chain fatty acids (1)
- proliferative Brusterkrankung (1)
- proliferative breast disease (1)
- quantitative ultrasonic bone densitometry (1)
- surgical intensive care patients (1)
- zelluläre Resistenz (1)
Institute
- Medizin (50)
Es war Gegenstand dieser Arbeit, die Zahl und das Vorkommen der Sporen der Bacillus Spezies im Vergleich zu anderen Parameter in der Trinkwasseruntersuchung die bisher im §37 des Infektionsschutzgesetzes eingesetzt wurden an 288 Wasserproben von verschiedenen Wassergewinnungsanlagen und Trinkwassersystemen nachzuweisen, um das Verhalten der Sporen der Bacillus Spezies in diesen Bereichen zu beschreiben und mit den bisher üblichen Keimen der Trinkwasseruntersuchung in Beziehung zu setzen. Es sollte überprüft werden, ob eine Korrelation zwischen der Koloniezahl und der Zahl der aeroben Sporenbildner nachgewiesen werden kann. Es wurden 77 Wasserproben aus dem Leitungswassersystem der Uni-Klinik Frankfurt entnommen und auf Vorkommen von Sporen der Bacillus Spezies, Koloniezahl, E. coli und Coliformen Bakterien untersucht. Alle 77 Wasserproben konnten bei einem Erfahrungsrichtwert von 10 KBE in 100 ml Trinkwasser und einer Koloniezahl von 100 pro 1ml Trinkwasser als zufrieden stellend angesehen werden. An keine der Proben konnte ein Wachstum von E. coli festgestellt werden, an 7 Wasserproben konnten Coliforme Bakterien nachgewiesen werden. Es konnte keine Korrelation zwischen Sporen der Bacillus Spezies und der Koloniezahl beim Leitungswassersystem der Uni-Klinik Frankfurt festgestellt werden. Von den 113 untersuchten Flachbrunnen von privaten Haushalten (Oberflächenwasser), konnten nach den strengen Trinkwasserverordnungsrichtlinien nur 60 Proben als zufrieden stellend bezeichnet werden, da aber diese Wassergewinnungsanlagen hauptsächlich zur Bewässerung dient, ist es unbedenklich. An keine der Wasserproben konnten Coliforme Bakterien nachgewiesen werden, und an 10 Wasserproben konnte E. coli nachgewiesen werden. Bei diesen Wassergewinnungsanlagen konnte eine Korrelation zwischen Sporen der Bacillus Spezies und der Koloniezahl nachgewiesen werden. Es wurden 82 Grundwasserproben der Stadtwerke Hanau entnommen, davon waren 35 Wasserproben gechlort und aufbereitet, 28 Wasserproben ungechlort und aufbereitet und 19 Proben waren ungechlortes Rohwasser. Vergleicht man die Werte der einzelnen Wasserarten miteinander, so stellt man fest, dass die Sporenzahl fast identisch ist, Werte zwischen 0-32 pro 100 ml Wasser. Die Aufbereitung und Chlorung des Wassers verändert die Sporenzahl nicht. Die Koloniezahl ist bei Rohwasser aber deutlich höher als bei aufbereiteten und gechlorten Wasser. Der Höchstwert bei gechlorten und aufbereiteten Wasser betrug 200 Kolonien pro 100 ml Wasser, bei aufbereiteten und ungechlorten Wasser stieg der Wert auf 4800 Kolonien an und bei Rohwasser sogar auf 5500 Kolonien pro 100 ml Wasser. In nur einer Rohwasserprobe konnte E. coli nachgewiesen werden, keine der Proben enthielt Coliforme Bakterien. Der Wert des Korrelationskoeffizienten war beim ungechlorten Rohwasser am Höchsten und beim aufbereiteten und gechlorten Wasser am niedrigsten. Vergleicht man die 6 Wasserproben des Oberflächenwassers der Wahnbach Talsperre mit den 4 Proben des Mains und des Rheins miteinander, so stellt man fest, dass in allen Wasserproben alle untersuchten Bakterienarten nachweisbar waren. Die höchste Koloniezahlkonzentration von 1.420.000 pro 100 ml wurde im Oberflächen-wasser des Mains nachgewiesen, der zweithöchste Wert von 960.000 pro 100 ml war im Oberflächenwasser des Rheins. Die höchste Sporenzahl von 26.000 pro 100 ml wurde in der Wasserprobe der Wahnbach Talsperre ermittelt, der Main und der Rhein hatten fast identische Werte zwischen 2700 und 5800 Sporen pro 100 ml Wasser. Der höchste Korrelationskoeffizient wurde hier bei den Wasserproben der Wahnbach Talsperre ermittelt, der niedrigste Wert wurde bei den Wasserproben des Rheins ermittelt. Auf Grund ihres differenzierten Nährstoffbedarfs kann sich die Gattung Bacillus in nährstoffärmeren Biotopen nicht vermehren und befinden sich deshalb vermehrt in Oberflächenwasser und den oberen Erdschichten. Sie stellen im Grundwasser und den Folgebereichen seiner Nutzung einen Indikator für den Grad der Kontamination des Wassers mit Abfallstoffen dar. Obwohl der Nachweis der Sporen der Bacillus Spezies sehr leicht erbracht werden kann, und in jedem Stadium der Untersuchung nachweisbar ist, muß bei der Entnahme der Wasserprobe sehr vorsichtig gearbeitet werden, da es in den oberen Bodenschichten leicht zu einer Einschleppung der Sporen der Bacillus Spezies kommen kann und somit zu einer Ver-fälschung der Ergebnisse. Bei Korrekter Probeentnahme ist aber die Aussagekraft der Sporen der Bacillus Spezies sehr hoch. Ein Vorteil der Auszählung der Sporen ist, dass die analytische Methode nur Sporen misst, andere Bakterienformen werden nicht gezählt. Die Auszählung der Sporen und der Koloniezahl sind zwei der wertvollsten Parameter der Wasserqualität. Die Konzentration der Sporen liegt im Grundwasser und seinem Folgebereich zwischen 0,39 und 1,81 pro 100 ml Wasser. In Oberflächenwasser liegt die Konzentration der Sporen der Bacillus Spezies zwischen 1050 und 4500 pro 100 ml Wasser. Die ermittelten Werte dieser Arbeit entsprechen fast alle den Normwerten. Das Vorkommen aller im Rahmen dieser Arbeit untersuchten Bakterienarten mit sehr hoher Bakterienanzahl konnte nur in den nährstoffreichen Oberflächenwasserproben von Rhein, Main und der Wahnbach Talsperre nachgewiesen werden. Von den 288 untersuchten Wasserproben können 264 Proben unter Betrachtung der Grenzwerte als hygienisch einwandfrei bezeichnet werden. Nach dem heutigen Stand der Literatur ist der Nachweis der Sporen der Bacillus Spezies ein wertvoller und aussagekräftiger Parameter für den Grad der Wasserverschmutzung mit Abfallstoffen, er ist ein Maß für die Effizienz der Aufbereitung bzw. der Kontamination des Grundwassers und somit ein geeigneter Parameter für die hygienische Trinkwasseruntersuchung.
Zwischen dem 01.01.1988 und dem 30.10.1995 wurden in der Chirurgischen Klinik I – Klinik für Allgemein-, Visceral-, Gefäß- und Thoraxchirurgie - der Städtischen Kliniken Offenbach am Main an 856 Patienten insgesamt 942 Hernioplastiken durchgeführt. Das Ziel dieser retrospektiven Aufarbeitung ist es mittels Analyse der Krankengeschichten und postoperativer Fragebogenerhebung, die eigenen Ergebnisse nach Leistenhernien-operationen und der mit diesem Thema verbundenen Probleme vor dem Hintergrund einer großen Anzahl unterschiedlicher Operationsverfahren zu überprüfen. Die Rücklaufquote der Fragebogenaktion betrug 67,6%. Damit fanden 566 Primär- und 71 Rezidivhernien Eingang in die Studie. Patienten mit Femoralhernien und kindliche Leistenhernien wurden nicht berücksichtigt. Die Fragebogenaktion erfolgte 36 bis 130 Monate postoperativ, damit lag die Nachkontrollzeit im Mittel bei 77 Monaten (6 Jahre und 5 Monate). Primäre Leistenhernien wurden in 68,2% nach Bassini, in 28,1% nach Shouldice, in 1,6% nach Lichtenstein, in 1,6% nach Lotheissen und in 0,5% im Rahmen einer Laparotomie operiert. Rezidivleistenhernien wurden in 64,8% nach Bassini, in 12,7% nach Shouldice, in 19,7% nach Lichtenstein und in 2,8% nach Lotheissen operiert. An intraoperativen Komplikationen kam es nur in einem Fall zur akzidentiellen Verletzung der Arteria femoralis. Ansonsten traten keine weiteren intraoperativen Komplikationen auf. Die Rate der allgemeinen Komplikationen lag bei 4,1%. Hier dominierten die Pneumonien und Harnwegsinfekte. Bei konsequent durchgeführter low-dose-Heparinisierung kam es nur in einem Fall zu einer tiefen Beinvenenthrombose. Die Letalitätsrate lag bei 0,6%. Hier zeigte sich der Anstieg der Letalität bei Notfalleingriffen wegen Inkarzeration. Lokale Frühkomplikationen wie beispielsweise Hämatome oder Wundinfektionen traten in 7,4% der Fälle auf. Adipositas scheint zu einer erhöhten Rate an Wundinfektionen zu führen. Dabei ließ sich weder ein Einfluß der Ärztequalifikation auf die Komplikationsrate feststellen, noch war eine Verfahrensabhängigkeit zu beobachten. Insgesamt 11,9% der Patienten klagten über Schmerzen, die in 7,1% der Fälle ausstrahlenden Charakter im Sinne eines Ilioinguinalis- oder Ramus-genitalis-Syndromes hatten. Eine Exhairese des Nervus ilioinguinalis reduzierte die Inzidenz von ausstrahlenden Schmerzen. Dieser Vorteil wird jedoch mit vermehrten Auftreten von Sensibilitätsstörungen im Versorgungsgebiet des Nervens erkauft. Nach Rezidiveingriffen war die Inzidenz von chronischen Leistenschmerzen erhöht. Ein sicherer Einfluß der Verfahrenswahl auf die Inzidenz von chronischen Leistenschmerzen war nicht zu erkennnen. Ausnahme bildete das Verfahren nach Lichtenstein. Die Implantation von alloplastischen Material scheint zu einer erhöhten Inzidenz von chronischen Leistenschmerzen zu führen. Die Gesamtrezidivrate lag bei 10,0%. Nach Primäreingriffen lag die Rezidivrate bei 9,0%. Bei primären direkten Leistenhernien ist das Shouldice-Verfahren (Rezidivrate: 4,6%) dem Bassini-Verfahren (Rezidivrate: 11,4%) deutlich überlegen. Beim Betrachten aller Primärhernien zeigt sich der Vorteil des Shouldice-Verfahrens nicht so deutlich (8,0% beim Bassini-Verfahren versus 7,0% beim Shouldice-Verfahren). Somit ist bei kleinen indirekten Leistenhernien das Einsetzen des Bassini-Verfahrens nach der Originalmethode mit einem Mitfaßen der Fascia transversalis zu vertreten. Bei der Verfahrenswahl sollte somit der klinische Befund berücksichtigt werden, damit die chirurgische Therapie maßgeschneidert werden kann, denn die eigentliche Prüfstrecke bei Primärhernien stellen große mediale und kombinierte Leistenhernien dar. An dieser Stelle ist prinzipiell eine einheitliche Klassifikation der Leistenhernien, wie von Schumpelick oder Nyhus vorgeschlagen, zu fordern, damit Gleiches mit Gleichem verglichen werden kann. Abzulehnen bleibt die die Implantation eines Vicrylnetzes in die Bruchlücke mit einer Rezidivrate von insgesamt 20,3%. Die Re-Rezidivrate aller Rezidiveingriffe lag bei 18,3% und spiegelt die Schwierigkeit der operativen Versorgung der Rezidivhernie wider. Die Re-Rezidivrate des Shouldice-Verfahrens von 20,0% ist auf Grund der niedrigen Fallzahl (n=5) sicherlich nicht aussagekräftig und dürfte bei höheren Fallzahlen deutlich niedriger liegen. Erstaunlich ist die niedrige Re-Rezidivrate des Bassini-Verfahrens bei Rezidivhernien von 8,6%, die in der Mehrzahl der Publikationen deutlich höher liegt. Auf den ersten Blick ernüchternd stellt sich die Rezidivrate beim Lichtenstein-Verfahren mit 35,3% dar. Vor dem Hintergrund, daß das Lichtenstein-Verfahren nur bei Rezidivhernien und bei einer großen Primärhernie angewandt wurde, läßt sich insgesamt ein nicht ganz so schlechtes Bild gewinnen, obgleich eine weitere deutliche Senkung der Rezidivrate wünschenswert wäre. Zahlreiche Veröffentlichungen ermutigen zu einer vermehrten Anwendung präperitonealer Prothesen. Jedoch sollte die Anwendung des Lichtenstein-Verfahrens auf Rezidivhernien, bzw. Mehrfachrezidivhernien und voluminöse Hernien beschränkt bleiben. Insgesamt läßt sich feststellen, daß die Operation der Leistenhernie eine für alle Erfahrungsgruppen gut geeignete Operation darstellt. Die Rezidivraten unterschieden sich hinsichtlich der Ärztequalifikation nicht wesentlich. Unter dem Vorbehalt der kleinen Fallzahlen der „Nicht-ITN-Verfahren“ läßt sich die Tendenz erkennen, daß bei alternativen Anästhesieverfahren, insbesondere bei Spinal- und Lokalanästhesie, die Rezidivrate niedriger liegt. Denkbar als Grund der höheren Rezidivrate beim Intubationsverfahren wäre der häufig auftretenden Hustenreiz bei der Extubation und damit verbundenen erhöhten intraabdominellen Druckspitzen mit der Gefahr des Einreisens einzelner Nähte. Auch unter dem Gesichtspunkt der Risikominderung und der wachen Kooperation des Patienten mit der Möglichkeit intraoperativen Beurteilung der anatomischen Verhältnisse und Suffizienz der Reparation durch den Valsalva-Preßversuch läßt insbesondere die Lokalanästhesie attraktiv erscheinen. In dieser Studie traten nach zwei Jahren erst 68,8% der festgestellten Rezidive auf. Damit würde ein Zweijahres-follow-up, wie in vielen Studien angewandt, nicht zur Bestimmung der Rezidivrate ausreichen. Unter dem Gesichtspunkt des Zeitpunktes des Auftretens des Rezidives, zeigte sich, daß das Lichtenstein-Verfahren häufig zu Frührezidiven neigt. Zwischen den beiden gängigen Operationsmethoden - Bassini und Shouldice - gab es jedoch keine statistisch signifikante Unterschiede hinsichtlich der Rezidivzeitpunkte. Erwartungsgemäß bestätigte sich, daß Rezidive vermehrt bei direkten und kombinierten Leistenhernien, sowie bei Patienten mit Risikoerkrankungen auftreten. Somit sollten beim Vergleich von Rezidivraten den Risikofaktoren der Kollektive Beachtung geschenkt werden, um eine direkte Vergleichbarkeit zu ermöglichen. Eine simultane Zweitoperation führte jedoch nicht zu einer erhöhten Gesamtrezidivrate, jedoch zu einer erhöhten Frührezidivrate.
Die Vorteile von konuskronengestütztem Zahnersatz für den Patienten sind bekannt: Hoher Trage- und Kaukomfort, bequeme Handhabung, einfache Mundhygiene, Selbstreinigungseffekt durch den Speichel, sekundäre Verblockung durch die Suprakonstruktion, axiale Belastung der Pfeilerzähne, Kombinationsfähigkeit von Implantaten mit natürlichen Pfeilern und prospektive Erweiterungsfähigkeit. Bisher jedoch verhinderten die aufwändige Herstellung und die Problematik der Passungspräzision eine breite Anwendung dieser Art von Zahnersatz. Insbesondere für eine günstige Langzeitprognose von Implantaten wird absolute Spannungsfreiheit der Suprastruktur gefordert. In vielen Ländern z. B. auch in den USA, in denen die entsprechende zahntechnische Infrastruktur fehlt, können doppelkronengestützte Prothesen nicht hergestellt werden. Mit der Methode der definitiven intraoralen Fügung von Gerüstkomponenten können diese Anforderungen an die Passungspräzision problemlos erfüllt werden. Gleichzeitig wird die zahntechnische Fertigung vereinfacht und damit Zeitaufwand und Kosten geringer. Durch diese vereinfachte Herstellung und die Kostenreduzierung wird doppelkronengestützter Zahnersatz für eine größere Patientenklientel verfügbar. Ziel der Studie war, das neuartige Behandlungsvorgehen methodisch zu optimieren und die Verweildauer und die klinischen Auswirkungen von intraoral gefügtem doppelkronenverankerten Zahnersatz zu evaluieren. Im Zeitraum von 1992 bis 1998 wurden 61 Patienten mit 64 Prothesen, deren Gerüste an insgesamt 238 Fügestellen definitiv intraoral geklebt wurden, versorgt. Nach der Fertigstellung wurden die Daten des Zahnersatzes (Anzahl, Art und Verteilung der Pfeiler, Werkstoffkombination, Design und Vorbehandlung der Fügestellen und Zeitpunkt der Klebung) dokumentiert. 51 dieser Patienten mit 53 Prothesen und insgesamt 209 Fügestellen konnten halbjährlich kontrolliert werden. Die Nachuntersuchung umfasste eine klinische Untersuchung, eine lichtmikroskopische Kontrolle und eine Evaluation der Patientenmeinung mittels Fragebogen. Eine Klebestelle versagte bereits nach 14 Monaten unter Risiko: Der Klebespalt war aufgrund mangelnder Kongruenz von Patrize und Matrize zu breit, was die Stabilität der Klebung massiv reduzierte. Alle anderen Prothesen wiesen nach durchschnittlich 38,93 Monaten (Min = 18, Max = 85 Monate) eine spannungs- und schaukelfreie Passung auf. Die Klebestellen zeigten auch bei lichtmikroskopischer Untersuchung keine Läsionen, die auf ein Nachlassen der Klebung hindeuten. Freiliegendes Klebekomposit an einer Prothese musste wegen Auswaschungen nachgefüllt werden. Die REM-Aufnahmen einer im Mundmilieu durchgeführten Klebung zeigen den innigen Verbund des Klebekomposits mit den metallischen Prothesenkomponenten. 90 % der befragten Patienten gaben einen schaukelfreien Sitz ihrer Prothese an, lediglich 4 % beklagten Probleme beim Herausnehmen der Prothese. Mit "gut" bzw. "sehr gut" bezeichneten 84 % der Patienten den Tragekomfort der Prothese; 90 % der Patienten bezeichneten den Halt ihrer Prothese mit "zufrieden" bis "sehr gut". Die intraorale Fügung ist eine robuste, fehlertolerante Methode, die eine hochpräzise Passung gewährleistet. Obwohl keine Ausschlusskriterien zur Auswahl der Patienten bestanden, wurde eine außerordentlich hohe Zuverlässigkeit der Methode von 99,58 % erreicht. Aufgrund der starren Lagerung des Zahnersatzes können die kinetikbedingten Folgen wie z. B. Zahnlockerungen, Unterfütterungen, Bruchreparaturen und Schraubenlockerungen bei Implantaten auf ein Minimum reduziert werden. Durch die intraorale Fügung wird eine Prophylaxe oraler Strukturen erreicht, und die Folgebehandlungen und damit auch –kosten reduziert. Zudem erhält der Patient einen Zahnersatz, der einerseits sehr hohen Trageund Kaukomfort bietet und andererseits eine einfache Mundhygiene gewährleistet. Durch die klinische Bewährung können alle Nachteile einer Lötung, insbesondere die Gefahr der Allergisierung durch Korrosionsprodukte, umgangen werden. Zusammen mit der Silikatisierung/Silanisierung mittels dem Rocatec®-Verfahren haben sich die Reparatur-Möglichkeiten von verblendetem Zahnersatz erweitert, da keine Wärmebehandlung mehr notwendig ist. Das intraorale Fügeverfahren bildet die Grundlage für zukunftsweisende Entwicklungen: Mit präfabrizierten Implantatabutments kann die laborseitige Herstellung von Primärkronen und Matrizen ersetzt und damit der Zahnersatz kostengünstiger hergestellt werden. Das metallische Prothesengerüst kann unter erhöhtem Platzbedarf durch Glasfaserverbund-Werkstoff ersetzt werden, was die Herstellung von nahezu metallfreiem doppelkronengestütztem Zahnersatz für entsprechend sensibilisierte Patienten ermöglicht.
Mycophenolat Mofetil hat die Zulassung zur immunsuppressiven Behandlung nierentransplantierter Patienten seit sieben Jahren. Mycophenolat Mofetil entfaltet seine immunsuppressive Wirkung über eine Hemmung der Lymphozytenproliferation. Das Nebenwirkungsprofil dieser Substanz unterscheidet sich in klinisch bedeutsamen Aspekten von den der überwiegend verwendeten Immunsuppressiva vom Typ der Calcineurininhibitoren wie Cyclosporin A und Tacrolimus und der heute seltener verwendeten antiproliferativen Substanz Azathioprin. In der vorliegenden Arbeit werden die klinischen Daten des Verlaufes über 6 Monate von 85 nierentransplantierten Patienten untersucht, deren immunsuppressives Therapieschema wegen unerwünschter Nebenwirkungen der bisherigen Therapie auf Mycophenolat umgesetzt wurden. Grund der Therapieumstellung war am häufigsten (48,2%) eine Nierenfunktionsverschlechterung unter der bisherigen Therapie, die überwiegend mit den potentiell nephrotoxischen Calcineurininhibitoren durchgeführt wurde. Die Umstellung war von einer signifikanten Besserung der Nierenfunktion, gemessen an dem Serumkreatinin und der Kreatininclearance, gefolgt. Ebenso war eine Verbesserung der Blutdruckeinstellung zu beobachten, die Anzahl der eingenommenen Blutdruckmedikamente konnte reduziert werden. Eine typische Nebenwirkung der Therapie mit Azathioprin sind Veränderungen im Blutbild mit reduzierter Leukozytenzahl und Störung der Erythropoese. Mit der Umstellung auf Mycophenolat Mofetil wurde eine deutliche Besserung der Blutbildindizes erreicht. Die Hepatoxizität des Azathioprins war ebenfalls reversibel, unter Mycophenolat Mofetil war ein signifikanter Abfall der Serumaktivität der Leberindikatorenzyme zu beobachten. Bei 13% der Patienten mußte Mycophenolat Mofetil wegen darunter aufgetretener neuer Nebenwirkungen abgesetzt werden. Diarrhoen traten bei fast 5% der Patienten auf, sie waren der häufigste Grund zum Absetzen des Medikamentes. Weitere für Mycophenolat typische Nebenwirkungen waren andere gastrointestinale Störungen wie Übelkeit, Erbrechen und abdominelle Schmerzen. Die immunsuppressive Wirkung des Mycophenolat Mofetil war gut, es wurden keine gehäuften Abstoßungsreaktionen nach der Umstellung beobachtet. Es fanden sich auch keine Zeichen einer Überimmunsuppression, die sich beispielsweise durch eine Zunahme von Infekten bemerkbar gemacht hätte. Die Daten dieser Untersuchung legen den Schluß nahe, daß im Falle ernster Nebenwirkungen der herkömmlichen immunsuppressiven Therapie eine Umstellung auf Mycophenolat Mofetil erfolgversprechend durchgeführt werden kann.
Die Frankfurter Klinikallianz hat sich zum Ziel gesetzt, die Qualität der medizinischen Versorgung im Rhein-Main-Gebiet auszubauen und den Servicegrad weiter zu steigern. Grundlage hierfür ist ein Zusammenwirken von Kliniken, Ärzten und Patienten zum Aufbau eines integrierten Kommunikations- und Versorgungsnetzes, das den Patienten sicher und reibungslos durch den Behandlungsprozess führt. Beteiligte: - Klinikum der J. W. Goethe-Universität - Städtische Kliniken Frankfurt a. M.-Höchst - Krankenhaus Nordwest - Hospital zum heiligen Geist. Anzeige der einzelnen Hefte unter der unteren URL.
Untersuchung biochemischer Parameter des Lipidstoffwechsels bei chirurgischen Intensivpatienten
(2002)
Das Ziel der vorliegenden Arbeit war, die biochemischen Zusammenhänge von häufig auftretenden Störungen des Fettstoffwechsels unter den Bedingungen der längerfristigen postoperativen Intensivtherapie zu untersuchen. In die Untersuchung eingeschlossen wurden Patienten mit einer Mindestaufenthaltsdauer auf der chirurgischen Intensivpflegestation von sieben Tagen, bei denen im Verlauf dieses Aufenthalts der prozentuale Anteil der alpha-Lipoproteine (elektrophoretisch) auf 20 % oder darunter bzw. der Cholesterinesterquotient auf 50 % oder darunter sank. Die Ergebnisse der Lipidelektrophorese korrelieren bei Seren von Gesunden gut mit Ergebnissen der Referenzmethode Ultrazentrifugation. Bei chirurgischen Intensivpatienten, die z. T. starke Veränderungen des Lipoproteinstoffwechsels aufweisen, ist die Lipidelektrophorese als Methode nur bedingt geeignet, denn es ergeben sich deutliche Abweichungen der Ergebnisse im Vergleich zu denen der Ultrazentrifugation. Bei den untersuchten Intensivpatienten, in deren Seren keine elektrophoretische Mobilität der alpha-Lipoproteine feststellbar war, konnten dennoch Lipoproteine mit hoher Dichte (HDL2 und HDL3) per Ultrazentrifugation nachgewiesen werden. Im Vergleich zu gesunden Kontrollpersonen waren in diesen Fraktionen allerdings die Konzentrationen von Apolipoprotein AI und auch die berechnete Gesamtmasse der Fraktionen signifikant vermindert. Mit der elektrophoretischen Trennmethode wurde der prozentuale beta-Lipoproteinanteil im Serum signifikant höher berechnet als der Anteil der Lipoproteine mit geringer Dichte (LDL) nach Trennung durch Ultrazentrifugation, der alpha-Lipoproteinanteil wurde signifikant niedriger berechnet als der HDL-Anteil. Nach Ultrazentrifugation der Patientenseren wurden stark veränderte Zusammensetzungen der einzelnen Lipoproteinfraktionen beobachtet. Der Anteil des freien Cholesterins war bei diesen Patienten in allen vier Lipoproteinfraktionen signifikant erhöht. Extrem niedrige Cholesterinesteranteile fanden sich in LDL- und HDL-Fraktionen. Da in diesen Fraktionen andererseits die Triglycerid-Anteile erhöht waren, wiesen die Lipoproteinpartikel im Vergleich zum Normbereich veränderte Kernzusammensetzungen auf. Bei den Intensivpatienten war der Quotient Kernbestandteile/Oberflächenbestandteile insbesondere in den beiden HDL-Fraktionen signifikant erniedrigt, woraus sich auf verkleinerte Lipoproteinpartikel schließen läßt. Erniedrigte Serumkonzentrationen von Cholesterinestern und abnormale Lipoproteinzusammensetzungen korrelierten mit signifikant verminderter, teils ganz fehlender in vitro Cholesterinveresterung. Zugleich lag Apolipoprotein AI, welches als Cofaktor des Enzyms Lecithin-Cholesteryl-Acyl-Transferase (LCAT) fungiert, in den HDL-Fraktionen nur in sehr niedrigen Konzentrationen vor. Bei den Patienten, in deren Serum keine LCAT-Aktivität nachweisbar war, konnten dennoch Cholesterinester in allen Fraktionen gemessen werden. Eine stark erniedrigte oder fehlende LCAT-Aktivität gilt als prognostisch ungünstig, kann aber reversibel sein. Signifikant erniedrigt war der prozentuale Anteil des Linolats an den Esterfettsäuren im Serum, während der prozentuale Anteil des Oleats signifikant erhöht war. Dadurch erhöhte sich auch der Quotient Oleat/Linolat (18:1 / 18:2) in signifikanter Weise. Der signifikant erhöhte Serumacylquotient (18:1 + 18:2) / 16:0 weist darauf hin, daß die Konzentrationen der freien ungesättigten C 18–Fettsäuren im Vergleich zur Palmitinsäure erhöht waren. Die vorgestellten Ergebnisse verdeutlichen die Komplexität des Fettstoffwechsels insbesondere im Hinblick auf die Entgleisungen bei intensivpflegepflichtigen chirurgischen Patienten.
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Die rechtzeitige Diagnose und Behandlung kindlicher Katarakte ist von großer Wichtigkeit. Ein Hindernis in der visuellen Achse während der Periode sensorischer Vulnerabilität führt zur Amblyopie, insbesondere wenn diese innerhalb der ersten 3 Lebensmonate stattfindet.Wir untersuchten inwiefern sich das Wachstum der Augen je nach verschiedenen Kataraktformen verhält. In unserer Studie wurden retrospektiv die Krankenakten von 44 Patienten mit 58 erkrankten Augen ausgewertet, die im Zeitraum von 1992-1996 an der Augenklinik des Frankfurter Universitätsklinikums, Abteilung für Kinderaugenheilkunde, operiert wurden. Das Alter zum Zeitpunkt der Operation reichte in der Gruppe der 29 (50,0%) kongenitalen Katarakte von 1 Woche bis 10 Jahren, mit einem Durchschnitt von 2 Jahren und 5 Monaten. Die 16 (27,6%) Augen mit entwicklungsbedingter Katarakt waren in einem Alter zwischen 3 und 14 Jahren, mit einem Durchschnittsalter von 6 Jahren und 11 Monaten operiert worden, während das Alter zum Zeitpunkt der Operation bei den 13 (22,4%) traumatischen Katarakten von 3 Jahren und 4 Monaten bis 9 Jahren reichte, mit im Mittel 6 Jahren und 3 Monaten. Die Bulbuslängen veränderten sich in einem mittlerem Beobachtungszeitraum von 3 Jahren und 1 Monat bei den kongenitalen Katarakten um durchschnittlich 2,34 mm von 19,80 auf 22,14 mm, in der Gruppe der entwicklungsbedingten Katarakte um durchschnittlich 0,86 mm von 22,33 auf 23,19 mm und bei den Augen mit traumatischer Katarakt um durchschnittlich 1,53 mm von 21,95 auf 23,48 mm. Unsere mit dem U-Test nach Mann und Whitney durchgeführten Vergleiche ergaben, bis auf zwei Ausnahmen, keine signifikanten Unterschiede zwischen dem Bulbuslängenwachstum in den verschiedenen Alters- und Ursachengruppen. Als wichtig erwies sich jedoch das signifikant unterschiedliche Bulbuslängenwachstum von 1,52 mm im Vergleich der 18 Augen mit schlechter Sehschärfe (Augen mit einem Visus von 0,2 und darunter) zu den 34 Augen mit guter Sehschärfe (Augen mit einem Visus von 5,0 und darüber). Augen mit schlechter Sehschärfe zeigten ein signifikant höheres Längenwachstum als Augen mit guter Sehschärfe. Bei dem Vergleich der 14 kongenital beidseitig aphaken Augen zu den 13 entwicklungsbedingt beidseitig pseudophaken Augen zeigte sich ein signifikant höheres Wachstum von Augen mit kongenitaler Katarakt. Einschränkend auf dieses Ergebnis wirkt, dass die entwicklungsbedingte Katarakt in einem Alter entstanden ist, als die Phase mit dem größten Wachstumsschub der Augen schon vorüber war. Dadurch nimmt sie weniger Einfluß auf die Längenentwicklung des Auges als eine kongenitale Katarakt. Das Alter zum Zeitpunkt der Operation scheint der wichtigste Faktor für die Längenentwicklung des Augen zu sein. Eine kongenitale Katarakt mit ihrem frühen Operationszeitpunkt hat großen Einfluß auf die Längenentwicklung des Auges. Kongenital einseitig aphake Augen zeigten allgemein im Vergleich zu anderen Gruppen nach der Geburt und Operation häufig das größte Bulbuslängenwachstum. Die Früherkennung und frühest mögliche Behandlung einer kindlichen Katarakt sowie die Amblyopienachbehandlung sind neben einer erfolgreichen Operation für das Erreichen einer guten Sehschärfe von größter Bedeutung.
Die hier durchgeführten Untersuchungen an Staphylococcus aureus ATCC 6538 unter Verwendung von Silbernitrat als Desinfektionsmittel auf Standard-CSA sowie Agar-Agar mit Kalliumtelluritzusatz hatten das Ziel, den Einfluss von Silbernitrat-Ionen auf den Keim zu untersuchen. Hier galt es nicht nur die Schädigung von Silbernitrat-Ionen auf Staphylokokken zu untersuchen, sondern zusätzlich zu prüfen, ob eine Reduzierung der Pathogenität der Keime nach vorheriger Desinfektion stattfindet. Die Empfindlichkeit der geschädigten Bakterien gegenüber Tellurit, wie in diesen Untersuchungen verwendet, löste das früher verwendete Mäusepathogenitätsmodell ab. Die Ergebnisse zeigten deutlich, dass die Keimzahl zum einen durch eine erhöhte Konzentration des Silbernitrats, zum anderen durch eine verlängerte Einwirkzeit reduziert wurde. Weiterhin ist ersichtlich, dass eine Minderung der Pathogenität nach Desinfektion eintrat. Der mit Tellurit versetzte CSA-Agar hemmte das Wachstum stärker als bei den Platten ohne Zusatz. Dies zeigt eine erhöhte Empfindlichkeit der Keime gegenüber Tellurit. Eine weitere Virulenzminderung trat mit zunehmender Telluritkonzentration auf. Dies lässt die Schlussfolgerung zu, dass Kalliumtellurit eine Wachstumshemmung auf das Bakterium Staphylococcus aureus bewirkt. Da sich in den Kontrollansätzen ohne Desinfektionsmittel die Keimzahl ebenfalls mit zunehmender Telluritkonzentration reduzierte, bestätigt dies, dass die Eignung von Hemmstoffen - im vorliegendem Fall Kalliumtellurit - nur in einem engen Konzentrationsbereich für die Erfassung geschädigter Keime geeignet ist.