Refine
Year of publication
- 2002 (892) (remove)
Document Type
- Article (324)
- Doctoral Thesis (172)
- Part of Periodical (89)
- Review (85)
- Part of a Book (75)
- Working Paper (39)
- Book (35)
- diplomthesis (21)
- Report (13)
- Periodical (11)
Language
- German (892) (remove)
Keywords
- Rezension (48)
- Deutschland (20)
- Literatur (20)
- Frankfurt <Main> / Universität (17)
- Frankfurt <Main> (16)
- Theater (14)
- Vormärz (14)
- Biographie (10)
- Aufsatzsammlung (9)
- Film (9)
Institute
- Extern (57)
- Medizin (51)
- Biochemie und Chemie (39)
- Rechtswissenschaft (38)
- Biowissenschaften (27)
- Physik (23)
- Gesellschaftswissenschaften (22)
- Präsidium (21)
- Pharmazie (20)
- Wirtschaftswissenschaften (15)
Grafik-Hardware ist programmierbar geworden. Graphic Processing Units (GPUs) der neuen Generation wie der GeForce3 von NVIDIA enthalten Prozessoren, die es dem Software-Entwickler erlauben kurze Routinen auf der Grafik-Hardware auszuführen. Ich gebe in dieser Arbeit einen umfassenden Überblick über die Architekur und Leistungsfähigkeit dieser neuen Chipgeneration, zeige deren Stärken und Schwächen auf und diskutiere Verbesserungsvorschläge. Als Teil der Arbeit präsentiere ich einige von mir entwickelte Schattierungsverfahren, sowie eine Wassersimulation. Diese Demonstratoren sind darauf ausgerichtet vollständig auf den Prozessoren der neuen Grafikchip- Generation zu laufen. Als Antwort auf die Mängel der zur Zeit verfügbaren Application Programming Interfaces stelle ich ein alternatives Interface zur Steuerung der neuen GPUKomponenten vor, das insbesondere die Austauschbarkeit und Kombinierbarkeit von GPU-Programmen unterstützt.
Zielsetzung der ultrarelativistischen Schwerionenphysik ist es, hoch verdichtete und stark erhitzte Kernmaterie (gemeint ist hierbei nicht nur die Materie der Atomkerne, sondern allgemein stark wechselwirkende Materie) im Labor zu erzeugen und deren Eigenschaften zu untersuchen. Gitter-QCD Rechnungen sagen bei einer kritischen Energiedichte von 1-2 GeV/fm3 einen Übergang der hadronischen Materie in eine partonische Phase, dem Quark-Gluon-Plasma, voraus. Neben anderen Observablen wurde die Seltsamkeitsproduktion als mögliche Signatur für den Materiezustand quasifreier Quarks und Gluonen vorgeschlagen. Im Vergleich zu elementaren Nukleon-Nukleon-Reaktionen beobachtet man in Schwerionenkollisionen generell eine Überhöhung der Seltsamkeitsproduktion. Inwieweit dieser Unterschied bei allen Schwerpunktenergie auf rein hadronische Phänomene zurückgeführt werden kann, oder ob partonische Gleichgewichtseffekte eine wesentliche Rolle spielen, ist derzeit eines der wichtigen Themen der Schwerionenphysik. Antworten auf diese Fragen erhofft man sich aus der Untersuchung der Energieabhängigkeit der Erzeugung seltsamer Hadronen. Die NA49 Kollaboration hat deshalb am CERN-SPS ein Energie-Scan Programm aufgelegt, in dem zentrale Blei-Blei-Kollisionen bei 40, 80 und 158 A·GeV untersucht wurden. In dieser Arbeit wird die Produktion von Lambda und Antilambda Hyperonen bei den drei verschiedenen Strahlenergien untersucht. Lambda Hyperonen, die 30-60% der produzierten s-Quarks enthalten, erlauben neben der Seltsamkeitsproduktion gleichzeitig auch den durch die kollidierenden Kerne erzeugten Effekt der Baryonendichte zu studieren. Das NA49 Experiment führt präzise Messungen des hadronischen Endzustands über einen weiten Akzeptanzbereich durch. Die geladenen Sekundärteilchen werden in vier hochauflösenden Spurdriftkammern gemessen. Neutrale seltsame Teilchen (Lambda, Antilambda und K0s) werden anhand ihrer Zerfallstopologie identifiziert. Die untersuchten Lambda Hyperonen werden über drei Rapiditätseinheiten um den Bereich zentraler Rapidität und mit Transversalimpulsen von 0,4 und 2,5 GeV/c gemessen. Die Temperaturparameter der Lambda und Antilambda Transversalimpulsverteilungen bei zentraler Rapidität sind für die drei Energien im Rahmen der Fehler gleich. Als Funktion der Schwerpunktenergie beobachtet man einen Anstieg des Lambda-Temperaturparameters, was durch eine Erhöhung des kollektiven transversalen Flusses erklärt werden kann. Erste Ergebnisse zur Proton-Produktion zeigen einen ähnlichen Trend. Die Rapiditätsverteilungen der Lambda sind breiter als die der Antilambda-Hyperonen. Die Lambda Rapiditätsverteilung verbreitert sich mit ansteigender Schwerpunktenergie von einer bei zentraler Rapidität konzentrierten Verteilung bei 40 A·GeV zu einem flachen Verlauf bei 158 A·GeV. Die Lambdas enthalten Beiträge der extrem kurzlebigen Sigma 0, die elektromagnetisch in ein Lambda und ein Photon zerfallen. Die in der Analyse selektierten Lambda und Antilambda sind aufgrund der gewählten Qualitätskriterien nahezu frei von Beiträgen mehrfachseltsamer Baryonen. Der systematische Fehler der Spektren konnte zu 9% abgeschätzt werden. Die Korrekturen und die Analyseprozedur wurden durch die Extraktion des K0s Mesons bei 158 A·GeV und den Vergleich dieser Ergebnisse mit denen der geladenen Kaonen überprüft. Man stellt eine gute Übereinstimmung fest. Zusammen mit Ergebnissen bei niedrigeren Energien läßt sich die Anregungsfunktion der Lambda und AntiLambda Hyperonen studieren. Während die Lambda Multiplizität bei mittlerer Rapidität nach dem Anstieg bei niedrigen Energien im SPS-Energiebereich leicht abfällt bzw. die totale Multiplizität saturiert, beobachtet man für die AntiLambda einen stetigen Anstieg als Funktion der Schwerpunktenergie. Das <Lambda>/<Pi>-Verhältnis in Kern-Kern-Kollisionen zeigt einen steilen Anstieg im AGS-Energiebereich mit anschließendem Maximum und einem Abfall bei SPS-Energien. Dagegen beobachtet man in Nukleon-Nukleon-Reaktionen eine Saturation dieses Verhältnisses bei etwa der höchsten AGS-Energie. Die Normierung auf die Pionen dient dem Vergleich der Produktionsraten in Kern-Kern-Stößen mit denen der elementaren Systeme und ist unabhängig von der Anzahl der beteiligten Nukleonen. Das Maximum des Lambda/Pi Verhältnisses liegt zwischen 10 und 40 A·GeV, wie es von statistischen Modellen vorhergesagt wird. Die Energieabhängigkeit des Lambda/Pi-Verhältnisses läßt sich dementsprechend gut mit dem Statistischen Modell von Cleymans, Redlich et al. beschreiben. Der generelle Trend des Lambda/Pi Verhältnisses wird von den mikroskopischen Modellen (UrQMD, HSD, RQMD) richtig wiedergegeben, wobei jedoch die Datenpunkte (besonders für 40 A·GeV) unterschätzt werden. Die Vorhersagen des UrQMD- und HSD-Modells für die Lambda Rapiditätsverteilung zeigen sehr gute Übereinstimmung mit den Daten. Die Diskrepanz im Lambda/Pi Verhältnis ist somit auf die überschätzte Pion-Produktion zurückzuführen. Die AntiLambda Produktion wird von dem UrQMD- und RQMD-Modell um mehr als einen Faktor zwei unterschätzt. Die Lambda und Antilambda Produktionsraten für alle drei Energien und die totale K0s Multiplizität bei 158 A·GeV fügen sich in einer statistischen Modellanalyse von Becattini in die Systematik der anderen Teilchen ein. Der Seltsamkeits-Saturationsfaktor gamma s zeigt keine große Änderung als Funktion der Energie. Das AntiLambda/Lambda Verhältnis bei mittlerer Rapidität, das den Paarproduktionsprozess widerspiegelt, steigt rapide von AGS- bis RHIC-Energien an. Der gleiche Trend ist für das ¯p/p Verhältnis beobachtbar. Das AntiLambda/¯p Verhältnis erlaubt das Zusammenspiel der Produktions und Annihilationsprozesse zu studieren. Im SPS-Energiebereich steigt dieses Verhältnis mit abnehmender Schwerpunktenergie leicht an. Die Ergebnisse der vorliegenden Arbeit wurden auf der Strange-Quark-Matter Konferenz 2001 [1] und der Quark-Matter Konferenz 2002 [2] vorgestellt und diskutiert.
Die vorliegende Arbeit beschäftigt sich mit der Produktion positiv und negativ geladener Pionen im System Au+Au bei einer kinetischen Strahlenergie von 1,5 GeV pro Nukleon. Diese Daten wurden im Juli 1998 mit dem Kaonenspektrometer KaoS gemessen. Es liegen Pi-Minus-Spektren bei drei verschiedenen Laborwinkeln (Theta Lab = 40°, 48°, 60°) vor sowie Pi-Plus-Spektren bei fünf Laborwinkeln(Theta Lab = 32°, 40°, 48°, 60°, 71,5°). Die Spektren können als Funktion der Energie im Nukleon-Nukleon-Schwerpunktssystem mit der Summe zweier Boltzmannverteilungen beschrieben werden, deren Steigung sich ebenso wie der unter Annahme isotroper Emission im Schwerpunktssytem integrierte Wirkungsquerschnitt mit dem Laborwinkel ändert. Als mögliche Ursache dieses Verhaltens wird untersucht, ob eine polare Anisotropie der Emission vorliegt. Eine solche wurde in früheren Experimenten [49, 50] für die Pionenproduktion in Proton-Proton-Stößen gefunden und als Effekt der p-Wellen-Produktion von Pionen interpretiert, bei der als Zwischenschritt eine Resonanz, zumeist eine Delta-Resonanz, angeregt wird. Die Zerfallskinematik dieser Resonanzen bewirkt duch ihren Drehimpuls eine Winkelverteilung der emittierten Pionen [24]. In Kern-Kern-Stößen führt die Abschattung von Pionen durch nicht an der Reaktion teilnehmende Nukleonen zu einer zusätzlichen Richtungsabhängigkeit der Emission. Unter der Annahme, daß Energie- und Winkelabhängigkeit separierbar sind, wird in einem einfachen Modell der Winkelanteil des differentiellen Wirkungsquerschnitts als Funktion des Kosinus des Schwerpunktswinkels mit einer Parabelform beschrieben. Um den Anpassungsparameter a2, der die Stäke der Anisotropie quantifiziert, zu ermitteln, stehen zwei Methoden zur Verfügung, die simultane Anpassung der bei festem Laborwinkel gemessenen Spektren und der Vergleich mit einer durch Schnitte durch die Laborimpulsspektren erzeugten Verteilung bei Theta cm = 90°. Beide Verfahren ermitteln erfolgreich den Anisotropieparameter aus in einer Monte-Carlo-Simulation erzeugten Spektren mit parabelförmiger Winkelverteilung. Die mit beiden Methoden ermittelten a2-Werte stimmen für Pi+ wie für Pi- im Rahmen der Fehler überein. Die Winkelverteilung der Pi+ ist mit a2 = 0,7 +- 0,1 stärker ausgeprägt als die der Pi- mit a2 = 0,4 +- 0,1, beide werden bevorzugt unter Theta cm = 0° und Theta cm = 180° emittiert. Allerdings zeigt sich in beiden Methoden eine starke Abhängigkeit von der Phasenraumabdeckung der Daten und beide sind nicht geeignet, eine Abhängigkeit des Anisotropieparameters von der Pionenenergie zu ermitteln....
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Die Gitterbasenreduktion hat in der algorithmischen Zahlentheorie und der Kryptologie bedeutende und praktisch relevante Anwendungen [Joux und Stern, 1998; Nguyen und Stern, 2000; Nguyen, 2001]. Ein wesentlicher Beitrag auf dem Gebiet der Gitter-Reduktionsalgorithmen ist der LLL-Algorithmus [Lenstra, Lenstra und Lov´asz, 1982] und auch die Beta-Reduktion (BKZ-Reduktion) von Gitterbasen [Schnorr, 1987, 1988, 1994] ist von großer Bedeutung. Bei Implementierungen dieser Algorithmen auf modernen Rechnerarchitekturen erfolgen viele Berechnungen aus Gründen der schnelleren Verarbeitungsgeschwindigkeit in Gleitpunktzahlen-Arithmetik. Aufgrund inhärenter Rundungsfehler kommt es dabei zu numerischen Instabilitäten. Vor [Koy und Schnorr, 2001b] gab es keine erfolgreichen Ansätze die bei der Gitterbasenreduktion auftretenden Rundungsfehler so zu kontrollieren, dass auch Gitterbasen in der Dimension >= 400 reduziert werden können. Diese Diplomarbeit beschäftigt sich mit den praktischen Aspekten der Gitterbasenreduktion in Segmenten. Dabei handelt es sich um die erstmalige Implementierung und experimentelle Evaluierung der folgenden beiden Verfahren: ....
Der Begriff Eurocomprehension steht für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Es geht der Eurocomprehension darum, unter EU-konformen sprachpolitischen Zielsetzungen Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert zu erreichen. Dabei liefert die linguistische Interkomprehensionsforschung die interlingualen Transferbasen zur kognitiven Nutzung von Verwandtschaftsbeziehungen in Sprachgruppen, die eine Mehrsprachigkeitsdidaktik umsetzt. ...
Rezeptive Mehrsprachigkeit ist eine der jüngsten Forderungen der EU-Kommission zum Erreichen einer realistischen Mehrsprachigkeit in Europa. Die maximalistischen Forderungen nach Perfektion in allen sprachlichen Kompetenzen haben sich in den nationalen Unterrichtswesen als illusionär erwiesen, da diese nirgendwo von statistisch nachvollziehbarem Erfolg gekrönt sind. Die sprachliche Diversität im multilingualen Europa findet sich nicht in der Realität der Bildungssysteme wieder. Zwar verfügen heute europaweit 26 % der Europäer über eine zweite und 8% über eine dritte Fremdsprache, in den einzelnen Ländern sieht es jedoch oft desolat aus. Während in den kleineren Unionsländern kaum jemand als nur monolingual gilt (Luxemburg 2%) ist die Krankheit der Einsprachigkeit in den großen EU-Staaten seuchenhaft verbreitet, etwa Großbritannien mit 66%. Dies hat in den neunziger Jahren in der Kommission zu den Postulaten geführt, die sich die Forschergruppe EuroCom als Programm gesetzt hat, nämlich Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert und kognitiv über Transferbasen innerhalb von Sprachfamilien zu erreichen. EuroCom steht dabei als Kürzel für Eurocomprehension, ein Akronym für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Die Beschränkung auf rezeptive Kompetenzen ist dabei nur ein methodisches Ausgangsprinzip, das es ermöglicht, Mehrsprachigkeit besonders schnell über das Leseverständnis zu erreichen und modularisiert auf Hörverständnis und aktive Sprechkompetenz sukzessiv auszuweiten. Die Methode EuroCom arbeitet über die Aktivierung intralingualen Wissens mit linguistischem Transfermaterial in nahverwandten Sprachen, das als kognitives Potential den Erschließungsprozess optimiert und in kürzester Zeit ein Lese- und Hörverstehen in einer ganzen Sprachenfamilie erreichbar macht. ...
Wissenschafts- und Kulturinstitutionen, Bibliotheken und Archive haben heute nicht nur neue Medien zu erwerben, sondern sie stehen auch vor der Aufgabe, das bereits vorhandene Kulturgut auf Dauer zu erhalten. Die Beseitigung von Schäden durch Papierzerfall ist hier nur ein Beispiel. Bei der Rettung historischen Kulturguts ist die Deutsche Forschungsgemeinschaft -neben anderen Institutionen - ein verlässlicher Partner. Ebenso wie beispielsweise die VW-Stiftung unterstützt sie zahlreiche Restaurierungs-, Sicherheitsverfilmungs- und Digitalisierungsvorhaben in den Bereichen Kultur und Wissenschaft. Ich möchte nunmehr versuchen, die Bedeutung der sog. Bestandserhaltung für unser kulturelles Gedächtnis durch sieben kurze Bemerkungen schlaglichtartig zu bestimmen: Diese Bemerkungen tragen die Überschriften: 1) Bibliotheken und Wissenschaft, 2) Bestandserhaltung hat heute Konjunktur, 3) Tontafeln, saure Bücher, Tonbänder und digitale Datenträger, 4) Einige praktische Aspekte des Bestandsschutzes beim traditionellen Buchgut, 5) Sicherheitsverfilmung und Digitalisierung in Archiven und Bibliotheken, 6) Bestandserhaltung, Marketing, Öffentlichkeitsarbeit und 7) Bestandserhaltung in der Wissenschaftsstadt Frankfurt und die "Aktion Notbuch" der Stadt- und Universitätsbibliothek Frankfurt a. M. Zum Artikel: Stand: Januar 2002
Homo Artificialis - Androiden und Cyborg-Konzepte am Beispiel der Science-Fiction-Serie Star Trek
(2002)
Der Untertitel „Androiden- und Cyborg-Konzepte“ weist bereits darauf hin, dass in dieser Arbeit zwei diametrale Richtungen der maschinellen Entwicklung aufgezeigt werden sollen. Zum einen ist es die Entwicklung des Roboters zum Androiden, also von der Maschine zur Menschenimitation hin, die andere Entwicklung ist die des Menschen zum Cyborg,bei der eine Technisierung des Menschen stattfindet. Diese zwei entgegengesetzten Richtungen,die sich aber auch in Form des Mensch-Maschine-Amalgams in Form des „Homo Artificialis“ überschneiden, gilt es in dieser Arbeit zu beobachten und zu analysieren. Die hierbei verwendete Methodik des ersten Teils richtet ihren Blick zunächst in die Vergangenheit und beobachtet in kurzer Form die Motivationen und die Entwicklung von künstlichem Leben. Anschließend richtet sich der Schwerpunkt auf den gegenwärtigen naturwissenschaftlichen und geisteswissenschaftlichen Forschungsstand der Robotik und der künstlichen Intelligenz. Da es so etwas wie einen menschlichen Androiden bis zum jetzigen Zeitpunkt noch nicht gibt, richtet sich der analytische Blick in dieser Arbeit auf die gegenwärtigen Entwicklungen, die eines Tages möglicherweise zu einer exakten mechanischen Version des organischen Menschen führen werden. Hierbei sollen Fragen der Maschinenintelligenz und des Maschinenbewusstseins untersucht werden: Ist Maschinenintelligenz oder sogar ein Maschinenbewusstsein möglich? Warum gibt es eine Grundangst vor der Mechanisierung und der Vermenschlichung der Technik? Was könnte passieren, wenn Roboter intelligenter würden als wir oder vielleicht Emotionen bekämen? Würden wir diese vielleicht emotional fühlenden Wesen versklaven oder würden wir durch Gesetze daran gehindert werden? Der Versuch, diese ethischen, philosophischen, kognitionswissenschaftlichen und medientheoretischen Fragen interdisziplinär zu diskutieren, schließlich den Blick auf eine mögliche Zukunft auszurichten und anhand einer Utopie diese Fragen zu untersuchen, soll der Schwerpunkt dieser Arbeit sein. Science Fiction beschreibt die Gegenwart als Vergangenheit vom Standpunkt einer möglichen Zukunft aus! Hierbei wird über mögliche Entwürfe spekuliert und von Tendenzen ausgegangen, die sich in der Gegenwart abzeichnen. Dabei werden insbesondere Errungenschaften der Technowissenschaften und deren futuristische Auswirkungen imaginiert und in ökonomische, soziale und kulturelle Zusammenhänge integriert. Insbesondere Star Trek stellt einen Schauplatz dafür dar, wie Identitäten oder Affinitäten einer möglichen Zukunft hinlänglich eines konstruierten Körpers aussehen könnten. Der zweite Teil dieser Arbeit ist den Cyborgs gewidmet. Ausgehend von einer Konstruktion des überaus komplexen Cyborg-Begriffs, wird dieser durch neuere Richtungen der Cyborg-Wissenschaften auch wieder dekonstruiert. Das spezielle Augenmerk wird, neben der Entwicklung durch Raumfahrt, Militär und Medizin, auf die der transhumanistischen und feministischen Anschauungen gerichtet sein, die den Cyborg-Begriff in neue Dimensionen transformieren. Letztendlich soll auch zu dem Thema dieser Mensch- und Maschine-Überkreuzungen die Perspektive der Science Fiction Serie Star Trek aufgezeigt werden.