Doctoral Thesis
Refine
Document Type
- Doctoral Thesis (2) (remove)
Language
- German (2)
Has Fulltext
- yes (2)
Is part of the Bibliography
- no (2)
Keywords
- Bildverarbeitung (2) (remove)
Institute
- Informatik (1)
- Medizin (1)
Das Ziel dieser Arbeit ist es, eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in augmentierten Bilderwelten bei einer geringen Anzahl an Fotos innerhalb der Bilderwelt zu erreichen. Für die Verdeckung von realen und virtuellen Anteilen einer Augmented Reality-Szene sind Tiefeninformationen notwendig. Diese stammen üblicherweise aus einer 3D-Rekonstruktion, für deren Erstellung sehr viele Eingangsbilder notwendig sind. Im Gegensatz dazu wurde in dieser Arbeit ein System entwickelt, das eine vollständige 3D-Rekonstruktion umgeht. Dieses beruht auf einem direkten bildbasierten Rendering-Ansatz, welcher auch mit unvollständigen Tiefeninformationen eine hohe Bildqualität in Bezug auf eine authentische Verdeckung erreicht. Daraus erschließen sich neue Anwendungsgebiete, wie z.B. die automatisierte Visualisierung von 3D-Planungsdaten und 3D-Produktpräsentationen in Bildern bzw. Bilderwelten, da in diesen Bereichen oftmals nicht genügend große Bildmengen vorhanden sind. Gerade für diese Anwendungsgebiete sind authentische Verdeckungen für die Nutzerakzeptanz der Augmentierung wichtig. Unter authentischer Verdeckung wird die entsprechend der menschlichen Wahrnehmung visuell korrekte Überlagerung zwischen virtuellen Objekten und einzelnen Bildanteilen eines oder mehrerer Fotos verstanden. Das Ergebnis wird in Form einer Bilderwelt (eine bildbasierte 3D-Welt, die die Fotos entsprechend der Bildinhalte räumlich anordnet) präsentiert, die mit virtuellen Objekten erweitert wurde. Folglich ordnet sich diese Arbeit in das Fachgebiet der Augmented Reality ein. Im Rahmen dieser Arbeit wurde ein Verfahren für die bildbasierte Darstellung mit authentischen Verdeckungen auf der Basis von unvollständigen Tiefeninformationen sowie unterschiedliche Verfahren für die notwendige Berechnung der Tiefeninformationen entwickelt und gegenübergestellt. Das Sliced-Image-Rendering-Verfahren rendert mithilfe unvollständiger Tiefeninformationen ein Bild ohne 3D-Geometrie als dreidimensionale Darstellung und realisiert auf diese Weise eine authentische Verdeckung. Das Berechnen der dafür notwendigen Tiefeninformationen eines 2D-Bildes stellt eine gesonderte Herausforderung dar, da die Bilderwelt nur wenige und unvollständige 3D-Informationen der abgebildeten Szene bereitstellt. Folglich kann eine qualitativ hochwertige 3D-Rekonstruktion nicht durchgeführt werden. Die Fragestellung ist daher, wie einzelne Tiefeninformationen berechnet und diese anschließend größeren Bildbereichen zugeordnet werden können. Für diese Tiefenzuordnung wurden im Rahmen der vorliegenden Arbeit drei verschiedene Verfahren konzipiert, die sich in Bezug auf genutzte Daten und deren Verarbeitung unterscheiden. Das Segment-Depth-Matching-Verfahren ordnet Segmenten eines Bildes mithilfe der 3D-Szeneninformationen der Bilderwelt eine Tiefe zu. Hierfür werden Segmentbilder vorausgesetzt. Als Ergebnis liegt für jedes Foto eine Depth-Map vor. Um eine Tiefenzuordnung auch ohne eine vorangehende Segmentierung zu ermöglichen, wurde das Key-Point-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren werden die 3D-Szeneninformationen der Bilderwelt auf die Bildebene als kreisförmige Sprites projiziert. Die Distanz zur Kamera wird dabei als Tiefenwert für das Sprite verwendet. Alle projizierten Sprites einer Kamera ergeben die Depth-Map. Beide Verfahren liefern Flächen mit Tiefeninformationen, aber keine pixelgenauen Depth-Maps. Um pixelgenaue Depth-Maps zu erzeugen, wurde das Geometry-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren wird eine Szenengeometrie des abgebildeten Szenenausschnittes erzeugt und dadurch eine pixelgenaue Depth-Map erstellt. Hierfür wird ein semiautomatischer Skizzierungsschritt vorausgesetzt. Die erzeugte Szenengeometrie stellt keine vollständige 3D-Rekonstruktion der Bilderweltenszene dar, da nur ein Szenenausschnitt aus Sicht einer Kamera rekonstruiert wird. Anhand einer technischen Umsetzung erfolgte eine Validierung der konzeptionellen Verfahren. Die daraus resultierenden Ergebnisse wurden anhand verschiedener Bilderweltenszenen mit unterschiedlichen Eigenschaften (Außen- und Innenraumszenen, detailreich und -arm, unterschiedliche Bildmengen) evaluiert. Die Evaluierung des Sliced-Image-Renderings zeigt, dass mithilfe unvollständiger Tiefeninformationen der entwickelten Depth-Matching-Verfahren und unter Einhaltung der gestellten Anforderungen (wenig Eingabefotos, kleine Szenen, keine 3D-Rekonstruktion) eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in Bilderwelten realisiert werden kann. Mithilfe des entwickelten Systems können bildbasierte Anwendungen auch mit kleinen Fotomengen Augmentierungen mit hoher Bildqualität in Bezug auf eine authentische Verdeckung realisieren.
Webbasierte Bildverteilung in der Radiologie : Performanzmessungen und Anforderungen an die Hardware
(2005)
Meßmethodik für Anzeigezeiten Unsere Ergebnisse zeigen, daß die auf dem Auslesen von Bildschirmpixeln basierende Methode 3 sehr stabil läuft und leicht zu interpretierende Resultate liefert. In dieser Hinsicht ist sie allen anderen Methoden überlegen. Der Zusatzaufwand der Softwareentwicklung machte sich bezahlt. Die auf Leistungsindikatoren (perfmon) basierende Methode 1 wird für Vortests empfohlen. Sie ist leicht zu implementieren, allerdings sind die Ergebnisse schwerer auszuwerten. Zusätzlich kann jedoch die Analyse von Leistungsindikatoren interessante Einblicke in die inneren Abläufe des BVS liefern. Phototransistoren (Methode 2) können angewendet werden, um jeden Einfluß auf das gemessene System auszuschließen. Ergebnisse der Messungen Unsere Ergebnisse zeigen, daß bei der Einführung eines Bildverteilungssystems der pro Zeiteinheit auf den Server übertragenen Datenmenge besondere Beachtung geschenkt werden muß. Folgende Aussagen gehen von einer maximalen Anzeigezeit von 5 Sekunden aus, die für klinische Anwendungen als ausreichend erachtet wird. 1. Hochleistungsfähige Hardware ist auf dem Klient-PC nicht nötig. 2. Rechner, die älter als ein Pentium II mit 350 MHz sind, sollten nur für gelegentliches Nachschlagen verwendet werden. In diesem Fall sollte verlustbehaftete Sekundärkompression verwendet werden, die Auflösung sollte 1280 x 1024 Pixel nicht überschreiten. 3. Auf schnelleren PCs sollte verlustbehaftete Sekundärkompression nur dann verwendet werden, wenn die verfügbare Netzwerkbandbreite unterhalb von 10 Mbit/s liegt. Generell sind 128 MB Arbeitsspeicher oder mehr zu bevorzugen und eine Bildschirmauflösung über 1280 x 1024 kann verwendet werden. 4. Windows 2000 ist auf modernen Rechnern (>PII/350MHz) Windows NT überlegen, auf älteren Rechnern ist Windows NT schneller. Daraus ist abzuleiten, daß zum Erzielen optimaler Ergebnisse auf moderneren Rechnern moderne Betriebssysteme eingesetzt werden sollten. 5. Die Hochladekapazität wird von simultanem Herunterladen geringfügig beeinflußt, hängt aber maßgeblich vom hochgeladenen Bildtyp und der Serverkonfiguration ab. Mit unserem Standardserver kann eine Hochladekapazität von 4 GB/h (96GB/t) erreicht werden. Dies scheint sogar für große Institutionen ausreichend. 6. Das gleichzeitige Hochladen von Bildern bremst die Anzeigezeiten deutlich. Während des Hochladens können nur vier bis sechs Klienten mit Anzeigezeiten von fünf Sekunden versorgt werden. Mit leistungsfähigerer Hardware scheint die Versorgung einer größeren Zahl von Klienten möglich. 7. Da Hochladekapazität und Anzeigezeit von einer stärkeren leistungsfähigeren Serverhardware deutlich profitieren, scheint ein Server mit zwei aktuellen Prozessoren und mindestens 1 GB RAM empfehlenswert. 8. Verlustbehaftete Primärkompression bringt gewisse Vorteile für Hochladekapazität und Anzeigezeit, wird aber nicht empfohlen, um die volle Bildqualität nicht zu verfälschen. Die Entscheidung für oder gegen verlustbehaftete Primärkompression ist jedoch von organisatorischen und rechtlichen Fragen überlagert. 9. Der Prozeß des Hochladens kann mehrere Stunden in Anspruch nehmen, was letztendlich klinisch inakzeptabel wird. Dies kann durch verbesserte Hardware oder eine veränderten BVS-Architektur oder mehrere intelligent zusammenarbeitende Server angegangen werden. 10. Webbasierte Bildverteilungssysteme sollten dezidierte Server für Empfang, Umwandlung und Verteilung der Bilder verwenden, um Hochverfügbarkeit, Performanz und spätere Erweiterbarkeit zu gewährleisten. Auf Empfangsserver kann verzichtet werden, wenn das BVS voll in das PACS integriert wird.