Refine
Year of publication
Document Type
- Article (31800)
- Part of Periodical (11989)
- Book (8348)
- Doctoral Thesis (5772)
- Part of a Book (3973)
- Working Paper (3404)
- Review (2949)
- Preprint (2417)
- Contribution to a Periodical (2399)
- Conference Proceeding (1776)
Language
- German (43471)
- English (30833)
- French (1071)
- Portuguese (843)
- Multiple languages (320)
- Spanish (309)
- Croatian (302)
- Italian (198)
- mis (174)
- Turkish (168)
Keywords
- Deutsch (1086)
- Literatur (880)
- taxonomy (774)
- Deutschland (553)
- Rezension (516)
- new species (459)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (330)
- Geschichte (302)
Institute
- Medizin (7883)
- Präsidium (5281)
- Physik (4996)
- Extern (2742)
- Wirtschaftswissenschaften (2738)
- Gesellschaftswissenschaften (2383)
- Biowissenschaften (2212)
- Biochemie und Chemie (1985)
- Frankfurt Institute for Advanced Studies (FIAS) (1894)
- Informatik (1735)
Im Rahmen dieser Arbeit wurde ein Prototyp einer Spurendriftkammer mit Mikrostreifenauslese, wie sie als hochauflösende Spurendetektoren in der Kern- und Teilchenphysik zum Einsatz kommen sollen, konstruiert und getestet. Besonderes Augenmerk lag hierbei auf der Signalform und -verteilung, sowie auf dem Langzeitverhalten. Für die verschiedenen Messungen dieser Arbeit wurden die Mikrostreifen-Gasdetektoren in ein Edelstahlrohr eingebaut, das mit einem Vakuumpumpen-System verbunden ist. Durch Evakuieren der Meßapparatur und anschließendes Befüllen mit Zählgas konnten die Detektoren nach kurzer Zeit mit nur geringen Verunreinigungen des Zählgases durch Wasser und Sauerstoff betrieben werden. Als Substrat wurde das Glas S 8900 von Schott verwendet, dessen Leitfähigkeit von rho 1.1 * 10 exp 11 Omega cm durch Elektronenleitung erzeugt wird. Es wurden Mikrostreifen-Platten mit zwei verschiedenen Strukturen untersucht, die sich in der Form der Kathode voneinander unterscheiden. Die Mikrostreifen-Platten haben eine sensitive Fläche von 30 X 40 mm*mm die Breite der Anodenstreifen beträgt 8 mikrometer bei einem Abstand von 1 mm zwischen den Mittellinien von je zwei Anoden. Die Kathoden der Struktur ILL6c bestehen aus einem durchgehenden 400 mikrometer breiten Streifen. Die Kathoden der Struktur ILL6a sind in zwei 8 mikrometer breite Streifen unterteilt, wobei die Gesamtbreite der Kathoden beider Strukturen gleich ist. Die Kopplung des Anodensignals auf die rückseitigen Kathodensegmente (Pads) ist bei der Struktur ILL6a durch die geöffneten Kathoden im Vergleich zur Struktur ILL6c doppelt so groß (51.6% bei einer Glasdicke von 0.45 mm bzw. 31.3% bei 1 mm und 16.9% bei 2 mm. Mit einer gamma-Quelle 55-Fe wurden Untersuchungen von Alterungseffekten durchgeführt, in deren Verlauf an den Anoden eine Ladung von 46 mikroC/cm pro Tag aufgenommen wurde. Simultan wurde ein Draht-Proportionalzähler mit geringerer Rate zur Überwachung der Gasqualität betrieben und damit die Amplitude der Mikrostreifen-Gasdetektoren korrigiert. Die Mikrostreifen-Gasdetektoren konnten bis zu einer Ladung von 125 mikroC/cm in Ar/CH4 bzw. 200 mikroC/cm in Ar/CO2 (90:10) mit einer Energieauflösung von <= 25% (55Fe-Quelle, FWHM) und geringer Variation der Verstärkung betrieben werden. Zur Messung der Breite Theta0 der Kathoden-Ansprech-Funktion (Pad-Response-Funktion) dienten Elektronenspuren, die mit Hilfe einer stark kollimierten Beta-Quelle (90Sr) erzeugt wurden. Die Spuren wurden durch einen 50 cm langen Feldkäfig, der wie die Feldkäfige der NA49-Spurendriftkammern aus aluminisierten Mylarstreifen aufgebaut ist, zur Ausleseebene gedriftet. Auf der Rückseite der Mikrostreifen-Platten befinden sich 1 mm breite Pads mit einem Abstand von 0.5 mm in zwei verschiedenen Anordnungen (isoliert oder mit der Glasrückseite verbunden). Diese Messungen wurden mit verschiedenen Glasdicken durchgeführt: Glasdicke 0.45 mm: theta-0 = 0.51 - 0.94 mm, Glasdicke 1 mm: theta-0 = 0.91 - 1.1 mm, Glasdicke 2 mm: theta-0 = 1.4 mm. Im Rahmen dieser Arbeit konnte gezeigt werden, daß es mit Hilfe der Mikrostreifentechnologie möglich ist, Spurendriftkammern mit einer kleineren Breite theta 0 der Pad-Response-Funktion zu konstruieren, als es mit konventionellen Draht-Ausleseebenen großflächig machbar wäre. Dadurch kann insbesondere die Zweispurauflösung verbessert werden.
Die Stoßparameterbestimmung, an den zur Zeit im Bau befindlichen bzw. geplanten Schwerionen-Collidern RHIC und LHC ist nicht mehr wie bei Experimenten mit festem Target über die Messung der Summe aller Spektatoren möglich. Am einfachsten sind die neutralen Spektatoren (Neutronen) nachzuweisen. Diese enden bei RHIC jedoch in einem Bereich zwischen den zwei Strahlrohren, der die Größe eines Detektors auf 10 cm Breite und 130 cm Länge beschränkt, was im Vergleich zu der Breite herkömmlicher Kalorimeter, die zur Messung von Spektatoren eingesetzt werden, sehr klein ist. Die Anzahl neutraler Spektatoren kann über deren Gesamtenergie bestimmt werden, da sie im wesentlichen den Strahlimpuls behalten. Am RHIC wird zu beiden Seiten der vier Wechselwirkungszonen je ein Kalorimeter zur Messung der neutralen Spektatoren installiert(d.h. insgesamt 8 Kalorimeter). Diese Kalormeter werden aus Wolfram bestehen und eine Länge von 6 hadronischen Wechselwirkungslängen haben. Zusätzlich sollen mit diesen Detektoren einzelne Neutronen aus Riesenresonanz-Abregungen gemessen werden. Über die Rate der Koinzidenz dieser einzelnen Neutronen auf beiden Seiten der Wechselwirkungszone soll die Luminosität des Beschleunigers bestimmt werden. An die Detektoren wurde in erster Line die Forderung nach einer Energieauflösung von ca 20% gestellt, um das Signal der einzelnen Neutronen vom Untergrund trennen zu können. Für die Messung der neutralen Spektatoren, deren erwartete Anzahl im Bereich von ~ 10 - 40 liegt, ist die Energieauflösung nicht so kritisch. Fluktuationen in der Signalhöhe des Detektors werden durch die Messung mehrerer Neutronen zum Teil kompensiert, die Energieauflösung skaliert mit der Anzahl der Neutronen Nn wie 1/sqrt(Nn). Weiterhin wurde die Forderung einer Zeitauflösung theta < 300 ps gestellt. Dies ist zum einen nötig, um bei der Messung der korrelierten Emission einzelner Neutronen zur Luminositätsbestimmung zufällige Koinzidenzen zu vermeiden. Weiterhin kann der Ort der Wechselwirkung über eine Laufzeitmessung der Spektatoren zu beiden Seiten des Wechselwirkungspunktes auf einige cm genau bestimmt werden. Eine neue Kalorimeter-Bauform, das Cherenkov-Licht-Kalorimeter, ermöglicht es hadronische Kalorimeter mit geringen lateralen Ausmaßen zu konstruieren, da nur der zentrale Teil des hadronischen Schauers zum Signal beiträgt. Cherenkov-Licht-Kalorimeter bestehen aus einem Absorbermaterial und darin eingebrachten Lichtleitern, in denen relativistische geladene Teilchen des Schauers Cherenkov-Strahlung erzeugen. Es wurden zwei Prototypen aus Kupfer bzw. Wolfram mit PMMA-Lichtleitern am SPS (CERN) im 100 GeV/c- und 158 GeV/c-Protonstrahl getestet. Beide Prototypen haben eine Länge von 8 hadronischen Wechselwirkungslängen Lambda I und einen Querschnitt von 10 x 10 cm*cm. Das Kupferkalorimeter ist longitudinal in 8 Module zu je a Lambda I Länge unterteilt, das Wolframkalorimeter besteht aus 4 Modulen von je 2 Lambda I Länge. Die Lichtleiter laufen bei beiden Prototypen unter 45 Grad relativ zur Strahlachse. In früheren Untersuchungen von Gorodetzky et al. wurde festgestellt, daß in dieser Anordnung, das maximale Signal erzeugt wird. Die Energieauflösung des Kupferkalorimeters beträgt 21.8 +- 0,5% RMS/E bei 100 GeV/c Strahlimpuls. Das Wolframkalorimeter hatte im 100 GeV/c-Protonstrahl eine Energieauflösung von 20.5 +- 0.5% RMS/E. Bei beiden Prototypen wurde eine Zeitauflösung von theta < 200 ps gemessen.
Untersuchungen des elektrischen und magnetischen Feldes in den NA49-TPCs mit Hilfe von Laserspuren
(1997)
Das Experiment NA49 am Europäischen Zentrum für Teilchenphysik (CERN) in Genf dient der Erforschung von relativistischen Schwerionenkollisionen. Dieses Feld der Kernphysik hatte seine Anfänge erst in den 70er Jahren am BEVALAC in Berkeley und untersucht zur Zeit Schwerionenstöße von einigen hundert MeV/Nukleon bis 200 GeV/Nukleon. Nach den heuteüblichen Experimenten mit festem Target sollen in der Zukunft Colliderexperimente mit Schwerionen neue Energiebereiche erschließen. Während die Experimente dadurch erleichtert werden, daß sie zumeist auf bestehende Beschleunigeranlagen aus der Hochenergiephysik zurückgreifen können, ist die theoretische Beschreibung relativistischer Schwerionenstöße ausgesprochen problematisch. Vom Verständnis dieser Reaktionsmechanismen erhoff t man sich aber einen Zugang zur starken Wechselwirkung bei niedrigen Impulsüberträgen, insbesondere in ausgedehnten Systemen.
Die vorliegende Arbeit beschäftigt sich mit der Messung der Elektronen-Driftgeschwindigkeit in dem Gasgemisch Ne/CO2 (90% / 10 %). Durchgeführt wurde sie zur Optimierung der Spurendriftkammer des ALICE-Projektes am CERN. Mit dem Aufbau zur Driftgeschwindigkeitsmessung läßt sich eine Genauigkeit von 1‰ erzielen. Untersucht wurden mit diesem Anspruch die Abhängigkeiten von der Temperatur, von CO2 Konzentrationsänderungen sowie von Stickstoffzugabe. Für die genaue Messung der Driftgeschwindigkeit wurde eine kleine Driftkammer gebaut. Die Ionisation des Gases erfolgt mit Hilfe eines UV-Lasers, dessen Strahl zunächst aufgeweitet, und dann geteilt wird. Der Abstand der so erhaltenen zwei Laser-Strahlen wird mit Hilfe von zwei präzisen Doppelblenden definiert. Zur Kontrolle der Gaszusammensetzung und -qualität wurde eine Gasanalysestation zusammengestellt. Die aufgenommenen Daten werden über ein ADC-System auf einem Computer gespeichert. Damit können in der Analyse die Driftgeschwindigkeitsdaten mit den Gasdaten zeitgleich ausgewertet werden. Das wird u.a. für die Korrektur der Daten auf den momentanen Druck und die Temperatur des Gases benötigt. Die Driftgeschwindigkeit wurde bei Feldstärken von 100 - 900 V/cm in Schritten von 100 V/cm gemessen. Die Spurendriftkammer des ALICE-Experimentes soll bei einer Feldstärke von 400 V/cm arbeiten. Die dafür gemessenen Ergebnisse sind: Temperaturabhängigkeit: Bei der erreichbaren Genauigkeit läßt sich über die Abhängigkeit der Driftgeschwindigkeit ve􀀀 von der Teilchenzahldichte N des Gases ve􀀀 = f(E/N) = f(E*T/P) keine weitere Temperaturabhängigkeit feststellen. Die relative Änderung der Driftgeschwindigkeit mit der Temperatur beträgt: Dv400 e􀀀 DT = 3.1 +- 0.23‰ /K CO2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit mit dem CO2-Gehalt bei einer CO2- Konzentration um die 10% beträgt: Dv400 e􀀀;CO2 = -7.69 +- 0.39 Eine Erhöhung des CO2-Gehaltes um 1‰ (10.0% -> 10.1 %) führt also zu einer Herabsetzung der Driftgeschwindigkeit um ca. 7.7‰. N2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit bei Stickstoffzugabe beträgt Dv400 e􀀀;N2 = - 1.14 +- 0.08 Eine Zugabe von 1‰ N2 zur Driftgasmischung führt damit zu einer Herabsetzung der Driftgeschwindigkeit um ca. 1.1‰ .
Diese Arbeit entstand im Rahmen des Schwerionenexperiments NA49 am CERN. Auf der Suche nach einem neuen Zustand von Kernmaterie, dem Quark-Gluon-Plasma, werden dort im SPS (Super-Proton-Syncrhotron Bleiionen auf eine Energie von 158 GeV pro Nukleon beschleunigt und dann auf eine dünne, im Laborsystem ruhende, Bleifolie (Target) gelenkt. Ziel ist es, in zentralen Stößen zweier Bleikerne ein ausgedehntes Volumen hochkomprimierter und heißer stark wechselwirkender Materie zu erzeugen. Kernmaterie im Grundzustand besitzt eine Dichte von rho o ~ 0,14 Nukleonen pro Kubikfermi. Damit ergibt sich mit der Masse der Nukleonen von etwa 939 MeV/c exp 2 eine Energiedichte im Grundzustand von 130 MeV/fm exp 3. Theoretische Überlegungen im Rahmen der Quantenchromodynamik (QCD, die Eichtheorie der starken Wechselwirkung) sagen voraus, daß sich bei einer Energiedichte von etwa 2-3 GeV/fm exp3 und einer Packungsdichte der hadronischen Materie von 10-15 rho 0 die normalerweise in den Hadronen eingeschlossenen Quarks aus ihren Bindungen lösen. Aufgrund dieses als deconfinement bezeichneten Vorgangs könnte ein Plasma aus freien Quarks und Gluonen entstehen. Die letzteren sind die Eichbosonen der starken Wechselwirkung. Ein solcher Zustand hat einige Mikrosekunden nach dem Urknall exisitiert und wird heute im Innern von Neutronensternen vermutet. Die Lebensdauer dieses hochkomprimierten und heißen Zustands während einer Schwerionenkollision ist mit T * 10 exp -23zu kurz, um direkt beobachtet werden zu können. Daher versucht man, aus den hadronischen Reaktionsprodukten Rückschlüsse auf diesen Zustand zu ziehen. Wichtige Meßgrößen sind die Rapidität y und der Transversalimpuls pT der Teilchen nach der Reaktion. Die Rapidität ist ein Maß für die longitudinale Geschwindigkeit der Teilchen entlang der Strahlrichtung. Aus der Rapiditätsverteilung nach dem Stoß kann man bestimmen, wie stark die Projektilnukleonen abgebremst wurden und wieviel Energie somit in der Reaktionszone deponiert wurde. Ein Großteil dieser Energie wird zur Produktion von Hadronen benutzt. Die Transversalimpulsverteilung dieser Teilchen ähnelt der einer thermischen Verteilung. Damit kann im Rahmen von thermodynamischen Modellen der Reaktionszone (Feuerball) eine Temperatur zugeschrieben werden. Durch Messung von Zwei-Pion-Korrelationen kann auf die Größe des Reaktionsvolumens zum Zeitpunkt der Entkopplung der Hadronen von der Reaktion geschlossen werden. Sowohl die Multiplizität der Hadronen als auch ihre "chemische" Zusammensetzung (z.B. Pion, Kaon oder Lambda) liefern wichtige Randbedingungen für Modellvorstellungen über die Dynamik einer Schwerionenkollision. Dazu ist es notwendig, nicht nur die Anzahl der Hadronen pro Ereignis zu messen, sondern auch diese Teilchen zu identifizieren.
S.a. Englische Fassung: Economics of Gift - Positivity of Justice: The Mutual Paranoia of Jacques Derrida and Niklas Luhmann. Theory, Culture and Society 18, 2001, 29-47. Italienische Fassung: Economia del dono, positività della giustizia: la reciproca paranoia di Jacques Derrida e Niklas Luhmann. Sociologia e politiche sociali 6, 2003, 113-130. Portugiesische Fassung: Economia da dádiva ? posividade da rustica; ?assombracao?? mutua entre sistema e différance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 55-78.
S.a. Deutsche Fassung: Ökonomie der Gabe - Positivität der Gerechtigkeit: Gegenseitige Heimsuchungen von System und différance. In: Albrecht Koschorke und Cornelia Vismann (Hg.) System - Macht - Kultur: Probleme der Systemtheorie. Akademie, Berlin 1999, 199-212. Auch auf unserem Server vorhanden. * Italienische Fassung: Economia del dono, positività della giustizia: la reciproca paranoia di Jacques Derrida e Niklas Luhmann. Sociologia e politiche sociali 6, 2003, 113-130. Portugiesische Fassung: Economia da dádiva ? posividade da rustica; ?assombracao?? mutua entre sistema e différance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 55-78.
Plus de la moitié des Européens de l’U.E. parlent une langue romane comme langue maternelle. Parmi les autres Européens, l’apprentissage de langues romanes comme langue étrangère est très fréquent, il n’est dépassé que par l’anglais: Une «Romanophonie» pourrait s’appuyer donc sur une base large, tandis que ses valeurs intercompréhensives ne sont pas encore suffisamment mises à la disposition d’un publique européen. Au contraire: les nations créent de plus en plus des barrières entre les langues romanes en institutionnalisant les différences et non pas ce qu’elles ont en commun. En Allemagne où l’on trouve encore la philologie romane (Romanische Philologie) comme unité d’études on peut observer en même temps une tendance vers une spécialisation en études unilingues (Einzelphilologien). Un tel séparatisme linguistique à l’intérieur d’une seule famille renonce aux avantages intercommunicatifs et intercompréhensifs offerts par les langues romanes. Le phénomène de l’intercompréhension est largement connu, pas seulement parmi les romanistes. C’est le résultat d’une tradition de l’écrit et d’un héritage culturel - une partie importante de l’unité intellectuelle du continent européen - qui rend les langues romanes si accessibles. ...
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Immer mehr Hersteller bringen kleine mobile Endgeräte (PDAs1) auf den Markt, die via WLAN2 (IEEE 802.11), Bluetooth oder UMTS3 drahtlos Kontakt mit der Außenwelt aufnehmen können. Dabei werden neben zunehmend höheren Übertragungsraten auch große Fortschritte in der Miniaturisierung erzielt. Viele PDAs besitzen bereits eingebaute Funknetzwerk-Karten, bei vielen läßt sich eine solche Karte einfach zusätzlich in das Gerät einstecken. Durch die steigende Rechenleistung der Geräte und die gleichzeitig steigenden Übertragungsraten der Funkverbindungen entstehen diverse neue Anwendungsmöglichkeiten, die allerdings noch wenig ausgenutzt werden. Es überwiegen die Standardaufgaben der PDAs, wie die Termin und die Adressenverwaltung. Ein eventuell vorhandener Zugang zu Netzwerken wird meist ebenfalls nur für Standardanwendungen verwendet, wie z.B. die Synchronisation von Daten mit einem Server, der Zugang zum World Wide Web oder zum Versenden von e-Mails. Der herkömmliche Zugang zu Netzwerken ist meist ortsgebunden. Im sogenannten Infrastruktur-Modus ist man auf eine Basisstation (Access-Point) angewiesen. Bewegt man sich in Bereichen, in denen kein solcher Access-Point zur Verfügung steht, kann eine Netzwerkverbindung nicht hergestellt werden. Die Mobilität des Benutzers ist auf die Funkreichweite seines Geräts zu dieser Basisstation beschränkt. Die Bezeichnung „mobil“ trifft also nur auf das Endgerät, nicht auf die Basisstation zu. Genutzt werden üblicherweise die gleichen Dienste wie in einem kabelgebundenem Netz, nämlich Server des Intra-, bzw. Internets. Die eigenständige Vernetzung mobiler Geräte untereinander, der sogenannte Ad-hoc-Modus, eröffnet neuartige Anwendungsgebiete. Ursprünglich dafür gedacht, zwei Stationen schnell und einfach über Funk miteinander zu verbinden, können durch eine Erweiterung beliebig viele Stationen zu einem spontanen und mobilen Netzwerk zusammengefaßt werden (mobiles Ad-hoc Netzwerk, MANET). Eine zentral verwaltete Infrastruktur entfällt dabei vollständig. Die Aufgaben des Routings muß jede einzelne der beteiligten Stationen übernehmen. Auf diese Weise erhöht sich die Funkreichweite aller beteiligten Stationen, da nicht ein zentraler Access-Point, sondern jeder beliebige Teilnehmer in Reichweite den Zugriff auf das Netzwerk ermöglicht. Es muß dabei allerdings davon ausgegangen werden, daß sich die Stationen in einem solchen Netz ständig bewegen, das Netz verlassen oder neu hinzukommen können. Somit verändert sich andauernd die Netzwerktopologie und ein kontinuierliches und selbstständiges Neuorganisieren des Netzes wird notwendig. Man spricht daher von selbstorganisierenden mobilen Netzen. Der Informationsfluß in Ad-hoc Netzen ist üblicherweise ein anderer als in Festnetzen. Es entsteht eine eher interessensbezogene Kommunikation, weniger eine, die auf dem Wissen von bekannten Endpunkten im Netzwerk basiert. In Ad-hoc Netzwerken können Endpunkte und Adressen aufgrund der sich permanent ändernden Nutzerzusammensetzung naturgemäß nicht bekannt sein. Stattdessen gibt jeder Nutzer Informationen über seine Interessen und seine Angebote im Netzwerk bekannt. Findet sich ein zu diesem Interessensprofil passendes Angebot, so kommt eine Verbindung zustande. Die Flexibilität der PDAs, ihre Mobilität und ihre ständig steigende Leistung lassen die Entwicklung von mobilen Ad-hoc-Anwendungen sinnvoll erscheinen. MANET Netzwerke sind in ihrer Auslegung flexibel und schnell, genau so, wie es die modernen PDAs sind. Es eröffnet sich durch durch beides eine große Zahl neuer und innovativer Anwendungsmöglichkeiten. Eine davon, das so genannte E-Learning, soll im Folgenden näher betrachtet werden. E-Learning ist ein Beispiel für eine Anwendung in Ad-hoc Netzen, die besonders geeignet erscheint, die Beweglichkeit ihrer Anwender in vielerlei Hinsicht zu unterstützen. Durch die Eigenschaft, geeignete Kollaborationspartner und Informationen schnell und gezielt im Netzwerk finden zu können, wird ein spontaner Wissensaustausch über die bisher bestehende Grenzen hinaus möglich. Es werden im Rahmen dieser Diplomarbeit Mechanismen behandelt, die dem Anwender die Nutzung von kollaborativen Anwendungen wie dem E-Learning ermöglichen und ihn bei dessen Nutzung unterstützen sollen.
Globalized justice - fragmented justice. Human rights violations by "private" transnational actors
(2005)
Plenarvortrag Weltkongress der Rechtsphilosophie und Sozialphilosophie, 24.-29. Mai, Granada 2005. S.a. die deutsche Fassung: "Die anonyme Matrix: Menschenrechtsverletzungen durch "private" transnationale Akteure". Spanische Fassung: Sociedad global, justicia fragmentada: sobre la violatión de los derechos humanos por actores transnacionales 'privados'. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S. 529-546.
Die Gitterbasenreduktion hat in der algorithmischen Zahlentheorie und der Kryptologie bedeutende und praktisch relevante Anwendungen [Joux und Stern, 1998; Nguyen und Stern, 2000; Nguyen, 2001]. Ein wesentlicher Beitrag auf dem Gebiet der Gitter-Reduktionsalgorithmen ist der LLL-Algorithmus [Lenstra, Lenstra und Lov´asz, 1982] und auch die Beta-Reduktion (BKZ-Reduktion) von Gitterbasen [Schnorr, 1987, 1988, 1994] ist von großer Bedeutung. Bei Implementierungen dieser Algorithmen auf modernen Rechnerarchitekturen erfolgen viele Berechnungen aus Gründen der schnelleren Verarbeitungsgeschwindigkeit in Gleitpunktzahlen-Arithmetik. Aufgrund inhärenter Rundungsfehler kommt es dabei zu numerischen Instabilitäten. Vor [Koy und Schnorr, 2001b] gab es keine erfolgreichen Ansätze die bei der Gitterbasenreduktion auftretenden Rundungsfehler so zu kontrollieren, dass auch Gitterbasen in der Dimension >= 400 reduziert werden können. Diese Diplomarbeit beschäftigt sich mit den praktischen Aspekten der Gitterbasenreduktion in Segmenten. Dabei handelt es sich um die erstmalige Implementierung und experimentelle Evaluierung der folgenden beiden Verfahren: ....
Der Begriff Eurocomprehension steht für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Es geht der Eurocomprehension darum, unter EU-konformen sprachpolitischen Zielsetzungen Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert zu erreichen. Dabei liefert die linguistische Interkomprehensionsforschung die interlingualen Transferbasen zur kognitiven Nutzung von Verwandtschaftsbeziehungen in Sprachgruppen, die eine Mehrsprachigkeitsdidaktik umsetzt. ...
Für Romanisten ist Interkomprehension seit der Begründung ihrer Disziplin ein Anliegen, für romanischsprachige Menschen ist sie meist ein persönliches Erlebnis der partiellen Entdeckung, vor 1500 Jahren war sie alltägliche Realität. Es geht um die Fähigkeit, in einer Gruppe von Sprachen, die einen gemeinsamen Ursprung haben, kommunizieren zu können.
Läßt man die Problematik der bei dieser Aussage verwendeten Ausdrücke außer Betracht und schränkt den Blickwinkel auf die Gruppe der romanischen Sprachen ein, so lassen sich eine Reihe von Aussagen über Interkomprehension machen.
Daß zwischen dem sechsten und achten Jahrhundert, also während der protoromanischen Phase, Interkomprehension zwischen entfernten Gegenden des niedergegangen Imperium Romanum möglich war, ist unstrittig, freilich gab es keine außersprachlichen Gründe, die das Faktum Interkomprehension in den Vordergrund hätten rücken können. Die einzig übriggebliebene Zentralmacht Kirche benutzte ihr eigenes Latein. ...
"Eurocomprehension" is the term used to describe European intercomprehension in Europe’s three major language families, the Romance, the Slavic and the Germanic. The aim of eurocomprehension is to achieve multilingualism conforming to EU language policy goals through the entry-point of receptive competence in a modular structure. Linguistic intercomprehension research forms the transfer bases for the cognitive use of relations between the language groups which didactics of multilingualism implement. ...
Der sprachfamilienbezogene Erwerb einer L3 bis Lx hat durch die jüngeren sprachpolitischen Forderungen der Europäischen Kommission 1997 entscheidenden Auftrieb erhalten. Im Livre Blanc sur l´éducation et la formation von 1995 bilanziert die Europäische Kommission das Ergebnis der fremdsprachlichen Bemühungen der großen Flächenstaaten der Union als eher kümmerlich und fordert eine Wende. Künftig soll eine Europäische Mehrsprachigkeit drei Perspektiven aufweisen: eine differenzierte Betrachtung von Kompetenzen (rezeptive Mehrsprachigkeit), die Ermöglichung des gezielten Erwerbs von Teilkompetenzen mit modularen Aufbaumöglichkeiten (fachsprachlicher approach zur rezeptiven Lesekompetenz) und das Nutzen der Verwandtschaftsbeziehungen zwischen Sprachen (u.a. romanische Interkomprehensionsforschung). Diese drei Perspektiven werden in dem dreigliedrigen Projekt zur "Eurocomprehension" der Universität Frankfurt zusammengefaßt. Der Frankfurter Beitrag bezieht sich auf die Gruppe der romanischen Sprachen. ...
Das Neldophon gehört mittlerweile zum internationalen Wortschatz Europas. Neldophonieren ist heute alltägliche Praxis. Die Globalisierung des ausgehenden zweiten Jahrtausends setzt die Entwicklung der Neldophonie voraus, um idealtypisch in naher Zukunft von jedem Punkt der Erde aus mit jedem beliebigen anderen Punkt in neldophonischer Verbindung zu sein. Eurosemantische Gemeinsamkeiten des Neldophonierens und die außersprachliche Partizipiation an der entsprechenden Technologie erleichterten die Akzeptanz des Terminus in den romanischen (und anderen) Sprachen Europas und der Welt trotz des Unikalmorphems Neldo-(vergleichbar mit Him- und Brom- in Him-, bzw. Brombeere) in Verbindung mit dem ansonsten global in verschiedenen Graphien verbreiteten Restmorphem -phon. Wörter haben ihre Geschichte. Der Ausdruck läßt sich auf seinen etymologischen Entstehungsort, den Congrés Europeu sobre Planificació Lingüística (Barcelona 9.-10. November 1995) zurückführen, andem auch der Gründer der FFM teilnahm. Offensichtlich wurde der Terminus hier in internationaler Umgebung erstmalig geprägt und sogleich panromanisch umgesetzt. Die barceloniner Gastgeber sprachen von neldòfon, während hingegen die wenigen Hispanophonen neldófono bevorzugten. Das Verbum neldofonar ist in der Zwischenzeit auch im Portugiesischen belegt, die Académie française wird sich kaum einer Äußerung enthalten können, ob neldophoner oder neldofoner (da offensichtlich im katalanischen Sprachbereich entstanden) die normgerechte Graphie repräsentiere, während Italien den europäischen Neologismus seit dem Herbst 1995 bereits kennt (chiamami più tardi al neldefono) und - zu Recht? - das etymologische ius primi loci beansprucht. In Rumänien erhielt das Verb eine systemimanente Stammerweiterung (Petre neldofoneazã mult) seit 1996. Nach zuverlässigen Quellen (Jernudd 1995) trat der Terminus Ende 1995 in seiner englischen Variante in Honkong in Kontakt mit dem Kantonesischen. Sein Überleben scheint jedoch hier (nach 1997) insbesondere wegen der phonologischen Problematik des liquiden Auslauts der Silbe nel- und diverser noch zu erwartender sprachpolitischer Konflikte nicht gesichert. Da die europäischen Neldophone in USA noch nicht funktionieren, ist eine gewisse Skepsis für den terminologischen Siegeszug der Neldophonie im Amerikanischen Englisch nicht unangebracht. ...
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
Rezeptive Mehrsprachigkeit ist eine der jüngsten Forderungen der EU-Kommission zum Erreichen einer realistischen Mehrsprachigkeit in Europa. Die maximalistischen Forderungen nach Perfektion in allen sprachlichen Kompetenzen haben sich in den nationalen Unterrichtswesen als illusionär erwiesen, da diese nirgendwo von statistisch nachvollziehbarem Erfolg gekrönt sind. Die sprachliche Diversität im multilingualen Europa findet sich nicht in der Realität der Bildungssysteme wieder. Zwar verfügen heute europaweit 26 % der Europäer über eine zweite und 8% über eine dritte Fremdsprache, in den einzelnen Ländern sieht es jedoch oft desolat aus. Während in den kleineren Unionsländern kaum jemand als nur monolingual gilt (Luxemburg 2%) ist die Krankheit der Einsprachigkeit in den großen EU-Staaten seuchenhaft verbreitet, etwa Großbritannien mit 66%. Dies hat in den neunziger Jahren in der Kommission zu den Postulaten geführt, die sich die Forschergruppe EuroCom als Programm gesetzt hat, nämlich Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert und kognitiv über Transferbasen innerhalb von Sprachfamilien zu erreichen. EuroCom steht dabei als Kürzel für Eurocomprehension, ein Akronym für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Die Beschränkung auf rezeptive Kompetenzen ist dabei nur ein methodisches Ausgangsprinzip, das es ermöglicht, Mehrsprachigkeit besonders schnell über das Leseverständnis zu erreichen und modularisiert auf Hörverständnis und aktive Sprechkompetenz sukzessiv auszuweiten. Die Methode EuroCom arbeitet über die Aktivierung intralingualen Wissens mit linguistischem Transfermaterial in nahverwandten Sprachen, das als kognitives Potential den Erschließungsprozess optimiert und in kürzester Zeit ein Lese- und Hörverstehen in einer ganzen Sprachenfamilie erreichbar macht. ...
Le concept d’eurocompréhension signifie intercompréhension dans les trois grands groupes linguistiques européens, à savoir les langues romanes, slaves et germaniques. Il s’agit, en respectant les objectifs1 de la politique linguistique de l’Union Européenne, de parvenir de façon modulaire au plurilinguisme par le biais de compétences réceptives. Dans ce cadre, les recherches linguistiques effectuées sur l’intercompréhension fournissent les bases de transfert interlangues pour l’exploitation cognitive de la parenté entre les langues des groupes différents. ...
In den Anwendungsbereichen der Mixed Reality (MR) werden die reale und die virtuelle Welt kombiniert, so dass ein Eindruck der Koexistenz beider Welten entsteht. Meist wird dabei die reale Umgebung durch virtuelle Objekte angereichert, die dem Anwender zusätzliche Informationen bieten sollen. Um die virtuellen Objekte richtig zu positionieren, muss die reale Umgebung erkannt werden. Diese Erkennung der realen Umgebung wird meist durch Bestimmung und Verfolgung von Orientierung und Positionierung der realen Objekte realisiert, was als Tracking bezeichnet wird und einen der wichtigsten Bestandteile für MR-Anwendung darstellt. Ohne die exakte Ausrichtung von realen und virtuellen Objekten, geht die Illusion verloren, dass die virtuellen Objekte Teil der realen Umgebung sind und mit ihr verschmelzen. Markerkombination Das markerbasierte Tracking ist ein Verfahren, das die Bestimmung der Positionierung von realen Objekten durch zusätzliche Markierungen in der realen Umgebung ermöglicht. Diese Markierungen können besonders gut durch Bildanalyseverfahren extrahiert werden und bieten anhand ihrer speziellen Form Positionierungsinformationen. Der Einsatz dieser Trackingtechnologie ist dabei denkbar einfache und kostengünstig. Ein breiter Anwendungsbereich ist durch den kostengünstigen Einsatz dieser Technologien gegeben, allerdings ist das Erstellen von MR-Anwendungen fast ausschließlich MR-Spezialisten vorbehalten, die über Programmierfertigkeiten und spezielle Kenntnisse aus dem MR-Bereich besitzen. Diese Arbeit beschreibt die Entwicklung und Umsetzung der Konzepte, die einem Personenkreis, der lediglich über geringe Kenntnisse von MR-Technologien und deren Anwendung verfügt, den kostengünstigen und einfachen Einsatz von markerbasierten Trackingtechnologien ermöglicht. Die im Rahmen der Arbeit durchgeführte Analyse verweist auf die problematischen Anwendungsfälle des markerbasierten Trackings, die durch die Verdeckung von Markern zustande kommen, in der Beschränkung der Markeranzahl begründet sind, oder durch die Schwankung der Trackingangaben entstehen. Diese Problembereiche sind bei der Entwicklung berücksichtigt worden und können mit Hilfe der entwickelten Konzepte vom Autor bewältigt werden. Das Konzept der Markerkategorien ermöglicht dabei den Einsatz von angepassten Filterungstechniken. Die redundante Markerkombination behebt das Verdeckungsproblem und eliminiert Schwankungen durch das Kombinieren von mehreren Trackinginformationen. Die Gütefunktion ermöglicht die Bewertung von Trackinginformationen und wird zur Gewichtung der Trackingangaben innerhalb einer Markerkombination genutzt. Das Konzept der Markertupel ermöglicht eine Wiederverwendung von Markern, durch den Ansatz der Bereichsunterteilung. Die Konzepte sind in der AMIRE-Umgebung vollständig implementiert und getestet worden. Zum Abschluss ist rückblickend eine kritische Betrachtung der Arbeit, in punkto Vorgehensweise und erreichter Ergebnisse durchgeführt worden.
Wissenschafts- und Kulturinstitutionen, Bibliotheken und Archive haben heute nicht nur neue Medien zu erwerben, sondern sie stehen auch vor der Aufgabe, das bereits vorhandene Kulturgut auf Dauer zu erhalten. Die Beseitigung von Schäden durch Papierzerfall ist hier nur ein Beispiel. Bei der Rettung historischen Kulturguts ist die Deutsche Forschungsgemeinschaft -neben anderen Institutionen - ein verlässlicher Partner. Ebenso wie beispielsweise die VW-Stiftung unterstützt sie zahlreiche Restaurierungs-, Sicherheitsverfilmungs- und Digitalisierungsvorhaben in den Bereichen Kultur und Wissenschaft. Ich möchte nunmehr versuchen, die Bedeutung der sog. Bestandserhaltung für unser kulturelles Gedächtnis durch sieben kurze Bemerkungen schlaglichtartig zu bestimmen: Diese Bemerkungen tragen die Überschriften: 1) Bibliotheken und Wissenschaft, 2) Bestandserhaltung hat heute Konjunktur, 3) Tontafeln, saure Bücher, Tonbänder und digitale Datenträger, 4) Einige praktische Aspekte des Bestandsschutzes beim traditionellen Buchgut, 5) Sicherheitsverfilmung und Digitalisierung in Archiven und Bibliotheken, 6) Bestandserhaltung, Marketing, Öffentlichkeitsarbeit und 7) Bestandserhaltung in der Wissenschaftsstadt Frankfurt und die "Aktion Notbuch" der Stadt- und Universitätsbibliothek Frankfurt a. M. Zum Artikel: Stand: Januar 2002
Deutsche Fassung: Expertise als soziale Institution: Die Internalisierung Dritter in den Vertrag. In: Gert Brüggemeier (Hg.) Liber Amicorum Eike Schmidt. Müller, Heidelberg, 2005, 303-334.
Englische Fassung: Societal Constitutionalism: Alternatives to State-centred Constitutional theory? ("Storrs Lectures 2003/04" Yale Law School) In: Christian Joerges, Inge-Johanne Sand und Gunther Teubner (Hg.) Constitutionalism and Transnational Governance. Hart, Oxford 2004, 3-28. Und in: Ius et Lex 2004, S.31-50. Französische Fassung: Constitutionalisme sociétal et globalisation: Alternatives à la théorie constitutionelle centrée sur l'État. Themis 2005 (im Erscheinen) Italienische Fassung: Costituzionalismo societario: alternative alla teoria costituzionale stato-centrica. In: Gunther Teubner, Costituzionalismo societario. Armando, Roma 2005 (im Erscheinen). Spanische Fassung: Globalización y constitucionalismo social: alternativas a la teoría constitucionalista centrada en el Estado". In: Carlos Gómez-Jara Díez (Hg.), Teoría de sistemas y Derecho penal: Fundamentos y posibilidades de aplicación. Granada: Comares, 2005 (im Erscheinen) und in: Cancio Meliá und Bacigalupo Saggese (Hg.) Derecho penal y política transnacional. Barcelona: Atelier, 2005 (in Erscheinen)und in: Gunther Teubner, El Derecho como sistema autopoiético de la sociedad global, herausgegeben von Carlos Gómez-Jara Diez. Bogotá: Universidad Externado de Colombia, 2005 (im Erscheinen) und Lima: ARA Editores, 2005 (im Erscheinen) Polnische Fassung: Konstytucjonalizm spoleczny: Alternatywy dla teorii konstitucyjnej nakierowanej na panstwo. Ius et Lex 3, 2004, S.5-27.
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.
Homo Artificialis - Androiden und Cyborg-Konzepte am Beispiel der Science-Fiction-Serie Star Trek
(2002)
Der Untertitel „Androiden- und Cyborg-Konzepte“ weist bereits darauf hin, dass in dieser Arbeit zwei diametrale Richtungen der maschinellen Entwicklung aufgezeigt werden sollen. Zum einen ist es die Entwicklung des Roboters zum Androiden, also von der Maschine zur Menschenimitation hin, die andere Entwicklung ist die des Menschen zum Cyborg,bei der eine Technisierung des Menschen stattfindet. Diese zwei entgegengesetzten Richtungen,die sich aber auch in Form des Mensch-Maschine-Amalgams in Form des „Homo Artificialis“ überschneiden, gilt es in dieser Arbeit zu beobachten und zu analysieren. Die hierbei verwendete Methodik des ersten Teils richtet ihren Blick zunächst in die Vergangenheit und beobachtet in kurzer Form die Motivationen und die Entwicklung von künstlichem Leben. Anschließend richtet sich der Schwerpunkt auf den gegenwärtigen naturwissenschaftlichen und geisteswissenschaftlichen Forschungsstand der Robotik und der künstlichen Intelligenz. Da es so etwas wie einen menschlichen Androiden bis zum jetzigen Zeitpunkt noch nicht gibt, richtet sich der analytische Blick in dieser Arbeit auf die gegenwärtigen Entwicklungen, die eines Tages möglicherweise zu einer exakten mechanischen Version des organischen Menschen führen werden. Hierbei sollen Fragen der Maschinenintelligenz und des Maschinenbewusstseins untersucht werden: Ist Maschinenintelligenz oder sogar ein Maschinenbewusstsein möglich? Warum gibt es eine Grundangst vor der Mechanisierung und der Vermenschlichung der Technik? Was könnte passieren, wenn Roboter intelligenter würden als wir oder vielleicht Emotionen bekämen? Würden wir diese vielleicht emotional fühlenden Wesen versklaven oder würden wir durch Gesetze daran gehindert werden? Der Versuch, diese ethischen, philosophischen, kognitionswissenschaftlichen und medientheoretischen Fragen interdisziplinär zu diskutieren, schließlich den Blick auf eine mögliche Zukunft auszurichten und anhand einer Utopie diese Fragen zu untersuchen, soll der Schwerpunkt dieser Arbeit sein. Science Fiction beschreibt die Gegenwart als Vergangenheit vom Standpunkt einer möglichen Zukunft aus! Hierbei wird über mögliche Entwürfe spekuliert und von Tendenzen ausgegangen, die sich in der Gegenwart abzeichnen. Dabei werden insbesondere Errungenschaften der Technowissenschaften und deren futuristische Auswirkungen imaginiert und in ökonomische, soziale und kulturelle Zusammenhänge integriert. Insbesondere Star Trek stellt einen Schauplatz dafür dar, wie Identitäten oder Affinitäten einer möglichen Zukunft hinlänglich eines konstruierten Körpers aussehen könnten. Der zweite Teil dieser Arbeit ist den Cyborgs gewidmet. Ausgehend von einer Konstruktion des überaus komplexen Cyborg-Begriffs, wird dieser durch neuere Richtungen der Cyborg-Wissenschaften auch wieder dekonstruiert. Das spezielle Augenmerk wird, neben der Entwicklung durch Raumfahrt, Militär und Medizin, auf die der transhumanistischen und feministischen Anschauungen gerichtet sein, die den Cyborg-Begriff in neue Dimensionen transformieren. Letztendlich soll auch zu dem Thema dieser Mensch- und Maschine-Überkreuzungen die Perspektive der Science Fiction Serie Star Trek aufgezeigt werden.
In der vorliegenden Arbeit wird ein interaktives Beweisprotokoll für das Problem der "überprüfbaren Verschlüsselung" (verifiable encyption) vorgestellt. Mit Hilfe eines Verifiable Encryption Protokolls (VEP) beweist eine Person (der Prover) einer anderen Person (dem Verifier) effizient, daß ein vorher gesendeter Wert alpha die Verschlüsselung eines geheimen Wertes s ist. Den geheimen Wert s muß er dazu nicht offenlegen. Zur Verschlüsselung von s wird ein Public-Key-Verfahren und ein öffentlicher Schlüssel PK benutzt. PK gehört zum Schlüsselpaar einer dritten Partei, die nicht aktiv an der Protokollausführung beteiligt ist und die Rolle eines Notars einnimmt. Dem Verifier steht ein Wert d zur Verfügung, anhand dessen er entscheidet, ob er den Beweis akzeptiert oder verwirft. Akzeptiert der Verifier den Beweis des Provers, so kann er zwar mit an Sicherheit grenzender Wahrscheinlichkeit sagen, daß alpha eine Verschlüsselung von s unter dem öffentlichen Schlüssel PK ist. Er kann s jedoch nicht rekonstruieren, da er nicht im Besitz des zu PK gehörigen geheimen Schlüssels SK ist und der Beweis keine Informationen über s preisgibt.
Das Recht hybrider Netzwerke
(2001)
Englische Fassung: Hybrid Laws: Constitutionalizing Private Governance Networks. In: Robert Kagan and Kenneth Winston (Hg.) Legality and Community: On the Intellectual Legacy of Philip Selznick. Berkeley, Berkeley Public Policy Press 2002, 311-331. Italienische Fassung: Diritti ibridi: la costituzionalizzazione delle reti private di governance. In: Gunther Teubner, Costituzionalismo societario. Armando, Roma 2004 (im Erscheinen).
Plenarvortrag Weltkongress der Rechtsphilosophie und Sozialphilosophie, 24.-29. Mai, Granada 2005. Englische Fassung: Globalized Justice - Fragmented Justice. Human Rights Violations by "Private" Transnational Actors. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S.547-562. Spanische Fassung: Sociedad global, justicia fragmentada: sobre la violatión de los derechos humanos por actores transnacionales 'privados'. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S. 529-546.
Deutsche Fassung: Vertragswelten: Das Recht in der Fragmentierung von private governance regimes. Rechtshistorisches Journal 17, 1998, 234-265. Italienische Fassung: Mondi contrattuali. Discourse rights nel diritto privato. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 113-142. Portugiesische Fassung: Mundos contratuais: o direito na fragmentacao de regimes de private governance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 269-298.
Englische Fassung: Contracting Worlds: Invoking Discourse Rights in Private Governance Regimes (Annual Lecture Edinburgh 1997) Social and Legal Studies 9, 2000, 399-417. Italienische Fassung: Mondi contrattuali. Discourse rights nel diritto privato. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 113-142. Portugiesische Fassung: Mundos contratuais: o direito na fragmentacao de regimes de private governance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 269-298.
Die Deutsche Kolonialgesellschaft (DKG) war mit ihren bis zu 42.000 Mitgliedern der größte und einflußreichste Interessenverband der deutschen Kolonialbewegung. Sie bestand, wenn auch seit 1933 dem Reichskolonialbund eingegliedert, von 1882 bis 1943. Bisher wurde erst ein Teil unserer Sammlung verfilmt und im Detail gesichtet - die wissenschaftliche Erschließung ist Zukunftsmusik. Dank der Unterstützung durch die Deutsche Forschungs- gemeinschaft, die Marga- und Kurt-Möllgaard-Stiftung und die Adolf-Messer-Stiftung ließ sich jedoch inzwischen wenigstens ein solides Fundament legen. Die Stadt- und Universitätsbibliothek Frankfurt am Main wird bemüht sein, ihre wohl einzigartige kulturhistorische Bildsammlung der deutschen Kolonialaktivitäten, der ein hoher wissenschaftlicher Rang zukommen dürfte, in absehbarer Zeit wieder vollständig verfügbar machen zu können.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, den für das Verständnis der Philosophie Cassirers zentralen Begriff des Mythos im Hinblick auf sein 1923-1929 erschienenes Hauptwerk, der in drei Bänden vorliegenden "Philosophie der symbolischen Formen", zu untersuchen. Für Cassirer sind Mythen Denkformen. Die Frage ist nun, inwieweit diese Betrachtungsweise des Mythos zum damaligen Zeitpunkt neu war und inwieweit es einer, aus heutiger Sicht, neuen Bewertung von Cassirers Mythostheorie bedarf. Cassirer erhebt den Anspruch, den Mythos aus sich selbst heraus erklären zu wollen. Damit verbunden ist die Kritik an einem zu eng gefaßten Begriff von Rationalität. Schon in der Einleitung zum ersten Band der "Philosophie der symbolischen Formen" stellt Cassirer die These auf, daß das mathematisch-naturwissenschaftliche Sein in seiner idealistischen Fassung und Deutung nicht alle Wirklichkeit erschöpft, "weil in ihm bei weitem nicht alle Wirksamkeit des Geistes und seiner Spontaneität" erfaßt sei. Der Mensch begreift die Welt nicht nur in wissenschaftlichen Termini: Sprache, Wissenschaft, Kunst, aber auch mythische Denkformen bieten uns die Möglichkeit, ein eigenes Ich herauszubilden und unsere Umwelt zu strukturieren. Nach Cassirer erfaßt der Mensch die Welt in symbolischen Formen, von denen die Wissenschaft nur eine unter vielen ist. Aus der traditionell einseitigen Kritik der Vernunft sollte eine umfassende Kritik der Kultur werden.
s.a. Deutsche Fassung: Rechtshistorisches Journal 15, 1996, 255-290 und in: Eric Schwarz (Hg.) La théorie des systèmes: une approche inter- et transdisciplinaire. Bösch, Sion 1996, 101-119. Italienische Fassung: La Bukowina globale: il pluralismo giuridico nella società mondiale. Sociologic a politiche sociali 2, 1999, 49-80. Portugiesische Fassung: Bukowina global sobre a emergência de um pluralismo jurídico transnacional. Impulso: Direito e Globalização 14, 2003. Georgische Fassung: Globaluri bukovina: samarTlebrivi pluralizmi msoflio sazogadoebaSi. Journal of the Institute of State and Law of the Georgian Academy of Sciences 2005 (im Erscheinen)
Englische Fassung: Global Bukowina: Legal Pluralism in the World-Society. in: Gunther Teubner (Hg.) Global Law Without A State. Dartsmouth: London 1996, 3-28. Italienische Fassung: La Bukowina globale: il pluralismo giuridico nella società mondiale. Sociologic a politiche sociali 2, 1999, 49-80. Portugiesische Fassung: Bukowina global sobre a emergência de um pluralismo jurídico transnacional. Impulso: Direito e Globalização 14, 2003. Georgische Fassung: Globaluri bukovina: samarTlebrivi pluralizmi msoflio sazogadoebaSi. Journal of the Institute of State and Law of the Georgian Academy of Sciences 2005 (im Erscheinen)
s.a. Deutsche Fassung: Archiv für Rechts- und Sozialphilosophie. Beiheft 65, 1996, 199-220. Italienische Fassung: Altera pars audiatur: Il diritto nella collisione dei discorsi. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 27-70. Französische Fassung: Altera pars audiatur: le droit dans la collision des discours. Droit et Société 35, 1997, 99-123. Portugiesische Fassung: Altera pars audiatur: o direito na colisao de disursos. In: J.A. Lindgren Alves, Gunther Teubner, Joaquim Leonel de Rezende Alvim, Dorothe Susanne Rüdiger, Direito e Cidadania na Pos-Modernidade. Editora Unimep, Piracicaba, Brasilia 2002; 93-129.
Englische Fassung: Altera pars audiatur: Law in the Collision of Discourses. In: Richard Rawlings (Hg.) Law, Society and Economy. Oxford University Press, Oxford 1997, 150-176. Italienische Fassung: Altera pars audiatur: Il diritto nella collisione dei discorsi. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 27-70. Französische Fassung: Altera pars audiatur: le droit dans la collision des discours. Droit et Société 35, 1997, 99-123. Portugiesische Fassung: Altera pars audiatur: o direito na colisao de disursos. In: J.A. Lindgren Alves, Gunther Teubner, Joaquim Leonel de Rezende Alvim, Dorothe Susanne Rüdiger, Direito e Cidadania na Pos-Modernidade. Editora Unimep, Piracicaba, Brasilia 2002; 93-129.
Modalität in der Musik Ruggiero Giovannellis (ca. 1555 - 1625) : zur Geschichte der Tonarten um 1600
(1998)
Die Arbeit untersucht am Beispiel der Kompositionen des Palestrinaschülers Ruggiero Giovannelli die Entwicklung der Kompositionstechnik um 1600 in Italien. Im Zentrum steht die Frage der Tonarten, insbesondere der Entwicklung der Modalität am Übergang von prima zur seconda prattica. Die offenkundige Diskrepanz zwischen der Bedeutung der Modi in der Musik um 1600 und der nachgerückten Bedeutung, die ihnen in wissenschaftlichen Arbeiten zuerkannt wird, ist der Ausgangspunkt, um am Beispiel Ruggiero Giovannellis ein Analysemodell für modal begründete Musik an ausgewählten Werken zu erproben. Zugleich wird eine historische Perspektive modaler Änderungen in einer Zeit beschleunigten musikalischen Wandels aufgezeigt. In detaillierten Analysen wird gezeigt, inwieweit sich in der Musik Giovannellis die satztechnische Tradition der römischen Schule in ihrer modalen Anlage an die Erfordernisse der affektgerichteten Monodie angepasst hat. Auf der Grundlage der theoretischen Arbeiten Bernhard Meiers wird gezeigt, wie Modalität als satztechnische Grundlage in zeitlicher, regionaler und individueller Ausprägung in der Musik um 1600 konkret realisiert wird. Die Arbeit zeigt die Möglichkeiten und Grenzen der Herausforderungen der Neuerungen des Stile moderno an die modalen Grundlagen der Musik, welche sich den neuen satztechnischen Erfordernissen nur begrenzt anpassen konnte. Unter diesem Aspekt einer Entwicklungsgeschichte der Modalität eignet sich Giovannelli als Anschauungsobjekt in vielfältiger Perspektive. Er war Kapellmeister und Sänger an den wichtigsten kirchlichen Institutionen Roms und gleichzeitig in vielfältigem Kontakt mit weltlichen Kreisen. Sein Œuvre umfasst die zentralen weltlichen und geistlichen Gattungen und Stile seiner Zeit: unterschiedlich besetzte Madrigale, Villanellen, Kanzonetten, Motetten und Messen, Mehrchörigkeit findet sich neben generalbassbegleiteter Monodie. Durch seine enge Bindung an Palestrina sowie durch ausgedehnte Aufenthalte in Nord¬italien war er mit allen zeitgenössischen Stilen vertraut. Eine weiterer Aspekt der Arbeit befasst sich mit der Frage, inwieweit der Prozess der Autonomisierung des textlichen Affektgehalts im strengen Satz und die Integration neuer stilistischer Elemente einen Einfluss der römischen Schule auf die Kompositionstechnik in Norditalien (greifbar etwa an der Entwicklung der Mehrchörigkeit in Venedig) gehabt hat. In der Zeit eines beschleunigten historischen Wandels wirkte Ruggiero Giovannelli als behutsamer Erneuerer des Überlieferten. Während er die traditionellen Gattungen Madrigal und Motette auf der Basis der bestehenden musiktheoretischen Maxime weiterentwickelte, brachen andernorts Komponisten radikaler und nachhaltiger mit den bis dahin gültigen Grundlagen der musikalischen Komposition. Ruggiero Giovannelli stand für einen kurzen historischen Augenblick im Rampenlicht dieses Wandlungsprozesses. Er gestaltete die Reform der auf dem Höhepunkt ihrer Entwicklung angekommenen Gattung Madrigal mit, indem er das Moment des Klanglichen und des Linear-melodischen auf der Basis des Kontrapunkts neu interpretierte. Neben der Verwendung eingängiger, von den Zeitgenossen mit dem Prädikat der Leichtigkeit belegten Soggetti war es vor allem das Schaffen formaler Bezüge, die Verwendung von aus populären Gattungen wie Kanzonette und Villanella übernommener Elemente und das Einfügen von durch ihn häufig verwendeter musikalischer Topoi in die unterschiedliche Werke, womit Giovannelli den Geschmack seiner Zeit traf. In seinen Motetten differenziert Giovannelli deutlich nach Besetzung und Aufführungsanlass. Klanglich opulenter, homophon konzipierter Mehrchörigkeit stehen streng kontrapunktisch strukturierte Kompositionen gegenüber. Allen geistlichen Werken liegt jedoch das unmodifizierte Regelwerk der Modi zugrunde, deren Gültigkeit in der auch schon bei Palestrina angewendeten Form von Giovannelli niemals in Frage gestellt wird. Giovannellis Musik ist immer modal konzipiert, wobei sich der Modus traditionell in der Gestaltung der Soggetti und der formalen Anlage einer Komposition ausdrückt. So liegen die Veränderungen gegenüber seinen Vorgängern im Detail. Die Einbindung des modalen Spiels in ein formales Gesamtkonzept ist eines davon, die Verwendung der Modi und der mit ihnen verbundenen Klanglage nach den Anforderungen der Besetzung ein anderes. Die Arbeit umfasst neben dem Textteil ein vollständiges Werkverzeichnis mit Quellenangaben sowie druckfähige Übertragungen der meisten Werke Giovannellis (4 Bände).
Reflexives Recht. Entwicklungsmodelle des Rechts in vergleichender Perspektive (EUI Working Paper 1982/13). Archiv für Rechts- und Sozialphilosophie 68, 1982, 13-59, und in: Werner Maihofer (Hg.), Noi si Mura, Schriftenreihe des Europäischen Hochschulinstituts, Florenz 1986, 290-340. Englische Fassung: Substantive and Reflexive Elements in Modern Law. (EUI Working Paper 1982/14). Law and Society Review 17, 1983, 239-285 und in: Kahei Rokumoto (Hg.) Sociological Theories of Law. Dartmouth, Aldershot 1994, 415-462. Neuabdruck in: Carroll Seron, The Law and Society Canon, Ashgate, Aldershot 2005 (im Erscheinen). Französische Fassung: Eléments 'substantifs' et 'réflexifs' dans le droit moderne. L'Interdit. Revue de Psychanalyse Institutionelle, 1984, 129-132, und Droit et réflexivité: une perspective comparative sur des modèles d'évolution juridique in: Gunther Teubner, Droit et réflexivité. Librairie générale de droit et de jurisprudence, Paris 1994, 3-50. Dänische Fassung: Refleksiv Ret: Udviklingsmodeller i sammenlignende perspektiv. In: Asmund Born, Nils Bredsdorff, Leif Hansen and Finn Hansson (Hg.) Refleksiv Ret. Publication Series of the Institut for Organisation og Arbeidssociologi. Nytfrasamfundsvidenskaberne, Kopenhagen 1988, 21-79.
Die Anfänge der Gittertheorie reichen in das letzte Jahrhundert, wobei die wohl bekanntesten Ergebnisse auf Gauß, Hermite und Minkowski zurückgehen. Die Arbeiten sind jedoch zumeist in der Schreibweise der quadratischen Formen verfaßt, erst in den letzten Jahrzehnten hat sich die von uns verwendete Gitterschreibweise durchgesetzt. Diese ist zum einen geometrisch anschaulicher, zum anderen wurden in den letzten Jahren für diese Schreibweise effiziente Algorithmen entwickelt, so daß Probleme der Gittertheorie mittels Computer gelöst werden können. Ein wichtiges Problem ist, in einem Gitter einen kürzesten nicht verschwindenden Vektor zu bestimmen. Den Grundstein für diese algorithmische Entwicklung legten A.K. Lenstra, H.W. Lenstra Jr. und L. Lovasz mit ihrer Arbeit. In dieser führten sie einen Reduktionsbegriff ein, der durch einen Polynomialzeitalgorithmus erreicht werden kann. Ein weiterer Reduktionsbegriff, die Blockreduktion, geht auf Schnorr zurück. Euchner hat im Rahmen seiner Diplomarbeit effiziente Algorithmen für diese beiden Reduktionsbegriffe auf Workstations implementiert und auch in Dimensionen > 100 erfolgreich getestet. Die Verbesserungen von Schnittechniken des in der Blockreduktion verwendeten Aufzählungsverfahrens und die Einführung einer geschnittenen Aufzählung über die gesamte Gitterbasis hat Hörner in seiner Diplomarbeit beschrieben. Ziel der folgenden Arbeit war es nun, diese bereits auf sequentiellen Computern implementierten Algorithmen zu modifizieren, um auf parallelen Rechnern, speziell Vektorrechnern, einen möglichst hohen Geschwindigkeitsgewinn zu erzielen. Wie in den seriellen Algorithmen werden die Basisvektoren stets in exakter Darstellung mitgeführt, so daß das Endergebnis einer Berechnung nicht durch Rundungsfehler verfälscht wird.
Vorliegender Text ist die leicht erweiterte Fassung von: Harald Hillgärtner: Ein Kramladen des Glücks. Filesharing aus Leidenschaft, in: Harald Hillgärtner, Thomas Küpper (Hg.): Medien und Ästhetik. Festschrift für Burkhardt Lindner, Bielefeld: transcript 2003, S. 332-342. Dieser Aufsatz war Grundlage eines Vortrages bei der Tagung "interfiction X - 2003 filesharer values - Ökonomien des (Aus-)Tauschs Utopien und Realitäten von Kulturproduktion unter Netzbedingungen", aus der Anregungen für diesen Text hervorgingen.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, mit der Themenstellung "Netzaktivismus" eine relativ aktuelle Entwicklung aufzugreifen. Als nötig erschien mir hierbei von vornherein, den eigentlichen Kontext des Netzaktivismus, das Internet, einigermaßen genau in den Blick zu bekommen. Ursprünglich war also vorgesehen, zur Einleitung die militärgeschichtliche Herkunft des Internet zu klären und zu bewerten, um dann, anhand der Genese des Internet zu einem Massenmedium unter dem Stichpunkt "Gegenwärtige Nutzungsformen des Internet" der Frage nach der Faszination an diesem neuen Medium nachzugehen. Herausfinden wollte ich dabei, ob die Nutzer sich vornehmlich aktiv oder passiv an dem neuen Medium beteiligen und ob die "Aktivitäten", um die es schließlich in meiner Arbeit geht, überhaupt eine Relevanz für den Großteil der Internetnutzer hat. Dies stellte sich aber als schwieriger heraus, als erwartet. So kann auch in dieser Arbeit wenig darüber gesagt werden, warum denn das Internet in der Gegenwart eine so wichtige Rolle zu spielen scheint. An gegebener Stelle wird noch darauf zurückzukommen sein.
Im Jahr 1993 schlug A. Shamir Protokolle zur Erstellung digitaler Unterschriften vor, die auf rationalen Funktionen kleinen Grades beruhen. D. Coppersmith, J. Stern und S. Vaudenay präsentierten die ersten Angriffe auf die Verfahren. Diese Angriffe können den geheimen Schlüssel nicht ermitteln. Für eine der von Shamir vorgeschlagenen Varianten zeigen wir, wie der geheime Schlüssel ermittelt werden kann. Das zweite Signaturschema von Shamir hängt von der Wahl einer algebraischen Basis ab. Eine besondere Bedeutung haben Basen, deren Elemente polynomiale Terme vom Grad 2 sind. Wir analysieren die Struktur der algebraischen Basen. Für den hervorgehobenen Spezialfall kann eine vollständige Klassifikation durchgeführt werden.
Extrazelluläre Nukleotide fungieren als auto- und parakrine Signalstoffe aus. Im peripheren und zentralen Nervensystem dienen Nukleotide als Neurotransmitter und Neuromodulatoren. Die nahezu ubiquitäre Expression von Purin-Rezeptoren läßt auf umfassende physiologische Funktionen schließen. Nukleotide konnen über ionotrope P2X-Rezeptoren oder metabotrobe P2Y-Rezeptoren ihre Signalwirkung vermitteln. Via P1-Rezeptoren kann Adenosin, ein Baustein bzw. Abbauprodukt von ATP, seine neuromodulatorische und neuroprotektive Wirkung entfalten. Alkalische Phosphatasen, die Ekto-Nukleotid-Pyrophosphatase/Phosphodiesterase Familie (NPP-Familie) und die Ekto-Nukleosid-Triphosphat-Diphosphohydrolase-Familie (E-NTPDasen) können Nukleosiddiphosphate und Nukleosidtriphosphate hydrolysieren. Die E-NTPDasen sind die wahrscheinlichsten Kandidaten für die Moduluation purinerger Signale im Nervensystem. In dieser Arbeit wurde die Klonierung und Charakterisierung der NTPDase3 der Ratte beschrieben. Ein vollständiger cDNA-Klon der NTPDase3 wurde aus einer Rattenhirnbank isoliert, sequenziert und anhand der familientypischen Sequenzmuster (ACRŽs) als E-NTPDase identifiziert. Die Sequenz enthielt einen offenen Leserahmen der für ein 529 Aminosäuren großes Protein kodierte. Sequenzvergleiche zeigten eine große Ähnlichkeit des Proteins mit den NTPDasen 1, 2 und 8, welche plasmamembranständige Ekto-Enzyme sind. Eine plasmamembranständige Lokalisation konnte in NTPDase3-transfizierten CHO-Zellen und in PC12-Zellen mit endogener NTPDase3-Expression nachgewiesen werden. Anhand von Computeranalysen und Sequenzvergleichen wurden Überlegungen zur Sekundär- und Tertiärstruktur angestellt und Ähnlichkeiten zur Zuckerkinase/ Hitzeschock-Protein 70/Aktin-Superfamilie aufgezeigt. Das Protein war entsprechend der in silico-Analyse glykosiliert und ließ sich über das Lektin ConcavalinA anreichern. Messungen an Membranfraktionen heterelog transfizierter CHO-Zellen zeigten die Hydrolyse verschiedener Nukleosidtriphosphate und Nukleosiddiphosphate mit einer Präferenz für Nukleosidtriphosphate. Das Enzym ist primär Kalziumabhängig und a rbeitet optimal im physiologischen pH-Bereich von pH 7,5 bis pH 8,0. Mit einem ATPase:ADPase-Verhältnis von 5:1 liegt die NTPDase3 zwischen der NTPDase1 und der NTPDase2. Seine biochemischen Eigenschaften machen das Ekto-Enzym zu einem Kandidaten für die Modulation purinerger Signale. Nukleotid-vermittelte Signale können via Hydrolyse durch die NTPDase3, möglicherweise in Kombination mit anderen E-NTPDasen, beendet werden. Als Bestandteil einer Enzymkette mit der Ekto-5Ž-Nukleotidase kann das Enzym zur Produktion des neuromodulatorisch und neuroprotektiv wirkenden Adenosins beitragen. Mögliche Rollen bei der Regulation autokriner, parakriner und synaptischer Signale in nichtneuronalen wie neuronalen Geweben wurden für die Gewebe diskutiert, in denen die NTPDase3 per Westernblot nachgewiesen werden konnte. Neben Dünndarm, Prostata, Pancreas, Nebenhoden und Samenleiter wurde ein NTPDase3-Band vor allem im zentralen Nervensystem gefunden. In allen geprüften Hirnteilen (Bulbus olfactorius, Cerebellum, Cortex, Mesencephalon, Diencephalon, Hippocampus, Striatum, Medulla oblongata), dem Rückenmark und der Hypophyse wurde die NTPDase3 im Westernblot detektiert. Das Enzym könnte an der Regulation exokriner Drüsenfunktionen im Pancreas und am epithelialem Ionentransport involviert sein oder auch bei endokrinen Funktionen des Pankreas und der Hypophyse mitwirken. Möglicherweise hat die NTPDase3 funktionelle Bedeutung bei der Termination und Modulation purinerger Neurotransmission im enterischen Nervensystem, im Rückenmark und in verschiedenen Hirnregionen. An verschiedenen zentralnervösen Funktionen, wie Schmerzwahrnehmung, Atmungs- und Kreislauf-Regulation sowie Gedächtnis- und Lernprozessen sind purinerge Signale maßgeblich beteiligt und es ist wahrscheinlich, daß E-NTPDasen an der Modulation dieser Signale mitwirken. Die in dieser Arbeit beschriebene NTPDase3 ist ein viel versprechender Kandidat für die Regulation purinerger Signale im peripheren und zentralen Nervensystem.
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
In hac lacrimarum valle. Adornos Stellung zur Metaphysik in ihrem Stande einer mataphysica deiecta
(2004)
Eröffnungsvortrag der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
We introduce a new method for representing and solving a general class of non-preemptive resource-constrained project scheduling problems. The new approach is to represent scheduling problems as de- scriptions (activity terms) in a language called RSV, which allows nested expressions using pll, seq, and xor. The activity-terms of RSV are similar to concepts in a description logic. The language RSV generalizes previous approaches to scheduling with variants insofar as it permits xor's not only of atomic activities but also of arbitrary activity terms. A specific semantics that assigns their set of active schedules to activity terms shows correctness of a calculus normalizing activity terms RSV similar to propositional DNF-computation. Based on RSV, this paper describes a diagram-based algorithm for the RSV-problem which uses a scan-line principle. The scan-line principle is used for determining and resolving the occurring resource conflicts and leads to a nonredundant generation of all active schedules and thus to a computation of the optimal schedule.
Ziel der hier pointiert zusammenfassenden Gesamtschau der Beobachtungen aus den unterschiedlichen Forschungsmodulen des 'Monitoringsystem Drogentrends' (MoSyD) ist es, sich abzeichnende Veränderungen (Trends) und Muster des Konsums legaler und illegaler Drogen in Frankfurt am Main herauszustellen. Die Darstellung abstrahiert weitgehend von konkreten Daten und Einzelbeobachtungen - diese finden sich ausführlich in den einzelnen Berichtsteilen dokumentiert, die jeweils mit detaillierten Zusammenfassungen enden. Eine Ausnahme bilden hier die punktuellen Vergleiche mit Beobachtungen aus Hamburg, die im Rahmen der dort erstmalig in der Intention eines Trendmonitorings durchgeführten Schülerbefragung gemacht wurden (vgl. Baumgärtner 2004, s. auch 3.2.3). Damit können die Ergebnisse unmittelbar mit aktuellen Daten aus einer in vielerlei Hinsicht vergleichbaren deutschen Großstadt verglichen werden. Zwecks weiterer Vergleichbarkeit werden die Ergebnisse der MoSyD-Schülerbefragung im Abschnitt zu Jugendlichen/ jungen Erwachsenen in Bezug zu den Ergebnissen der ersten deutschen Erhebungen im Rahmen der europäischen Schülerbefragung ESPAD (vgl. Hibel et al. 2000, Kraus et al. 2004) gesetzt.
Der vorliegende Bericht zur ‘Szenestudie 2002’ vermittelt eine aktuelle Situationsbeschreibung der offenen Drogenszene in Frankfurt am Main. Diese Studie zum Drogengebrauchsverhalten und Alltagsgeschehen auf der offenen Drogenszene versteht sich als eine Teilstudie im Rahmen eines komplexen Monitoringsystems (MoSyD _‘Monitoring-System Drogentrends’), welches in 2002 in der Stadt Frankfurt eingerichtet wurde, um zeitnah und umfassend neue Entwicklungen im Bereich des Konsums legaler wie illegaler Drogen verfolgen zu können (ausführlich: Kemmesies und Hess 2001). Die folgende Zusammenfassung gibt die zentralen Beobachtungen und Ergebnisse der Erhebung wieder. Diese Teilstudie vom MoSyD fokussiert auf den so genannten problematischen Kern des Drogenphänomens: Mit der Erscheinung offener Drogenszenen gehen vielfältige drogenpolitischen Herausforderungen einher. Diese beziehen sich sowohl auf sozial-medizinische wie strafrechtliche Aspekte, wie sie in den Stichworten Infektionskrankheiten, Beschaffungskriminalität, Deprivation, Verelendung et cetera geradezu greifbare Realität gewinnen. Aufgrund der enormen sozial-, gesundheits- wie ordnungspolitischen Herausforderungen und einer mitunter rasanten Veränderungsdynamik im mittelbaren und unmittelbaren Umfeld der offenen Drogenszene dokumentieren wir bereits hiermit - außerhalb des projektierten jährlichen Berichtsturnus vom MoSyD und zeitnah zur Interviewerhebung - unsere Beobachtungen. Im Vorgriff auf die konkreten Ergebnisse sei bereits angemerkt, dass sich die Situation offenbar innerhalb der letzten Jahre stark verändert hat: Wenn bisher eine offene Drogenszene in Deutschland in erster Linie mit dem klassischen Vorstellungsbild von einem intravenös Heroin konsumierenden ‘Junkie’ assoziiert war, so scheint diese Assoziation – zumindest mit Blick auf Frankfurt – die Realität nur noch äußerst gebrochen widerzuspiegeln. Denn Heroin hat seine dominierende Position auf dem Drogenschwarzmarkt verloren und an Kokain beziehungsweise dessen Derivat Crack abgegeben. Darüber hinaus hat sich der intravenöse Drogenkonsum insgesamt deutlich – um etwa die Hälfte – reduziert. Da systematisch vergleichbare Daten weit zurückreichen und erst aus dem Jahre 1995 vorliegen (Kemmesies 1995b), lässt sich nicht näher ergründen, wie es um die Dynamik der prozessualen Veränderungen bestellt ist: Befinden wir uns am Ende einer Entwicklung oder aber stecken wir mitten in einem grundsätzlichen Veränderungsprozess, innerhalb dessen sich das Bild der offenen Drogenszene grundlegend wandeln wird. Um einen besseren Einblick in die Veränderungsdynamik gewinnen zu können, schlagen wir vor, von dem ursprünglich im Rahmen vom MoSyD vorgesehenen zweijährigen Erhebungsturnus abzurücken und die Szenestudie bereits 2003 erneut durchzuführen. Ausgehend von zentralen Ergebnissen wäre näher zu ergründen, inwieweit der offensichtliche Trend einer Altersanhebung im Umfeld der offenen Drogenszene anhält, ob es zu einer fortschreitenden Ausweitung von kokain-/crackorientierten Drogengebrauchsmustern kommt, und inwieweit diese Entwicklungen sich im allgemeinen Gesundheitszustand der Drogenkonsumenten abbilden. Weiterhin wäre zu prüfen, ob die geplante Ausweitung der Substitutionsbehandlung in Gestalt des Heroinerprobungsprogramms sich auch auf das ‘typische’ Drogengebrauchsverhalten auf der offenen Drogenszene auswirkt.
Gitter sind diskrete, additive Untergruppen des IRm, ein linear unabhängiges Erzeugendensystem eines Gitters heißt Gitterbasis. Die Anzahl der Basisvektoren eines Gitters ist eindeutig bestimmt und heißt Rang des Gitters. Zu jedem Gitter vom Rang n gibt es mehrere Gitterbasen, die man alle erhält, indem man eine Basismatrix B = [b1, · · · , bn] von rechts mit allen Matrizen aus der Gruppe GLn(ZZ) multipliziert. Eine wichtige Fragestellung der Gittertheorie ist es, zu einem gegebenen Gitter einen kürzesten, vom Nullvektor verschiedenen Gittervektor zu finden. Dieses Problem heißt das kürzeste Gittervektorproblem . Ein dazu verwandtes Problem ist das "nächste Gittervektorproblem", das zu einem beliebigen Vektor x aus IRm einen Gittervektor sucht, dessen Abstand zu x minimal ist. Aus dem "kürzesten Gittervektorproblem" entwickelte sich die Gitterbasenreduktion, deren Ziel es ist, eine gegebene Gitterbasis in eine Gitterbasis zu transformieren, deren Vektoren bzgl. der Euklidischen Norm kurz und möglichst orthogonal zueinander sind. Wichtig für die Güte einer Reduktion ist der Begriff der sukzessiven Minima ¸1(L), · · · , ¸n(L) eines Gitters L. Dabei ist ¸i(L) die kleinste reelle Zahl r > 0, für die es i linear unabhängige Vektoren cj 2 L gibt mit kcjk · r für j = 1, · · · , i. Man versucht, für ein Gitter L eine Gitterbasis b1, · · · , bn zu finden, bei der die Größe kbik / ¸i(L) für i = 1, · · · , n möglichst klein ist. Für Gitter vom Rang 2 liefert das Gauß'sche Reduktionsverfahren eine Gitterbasis mit kbik = ¸i(L) für i = 1, 2. Eine Verallgemeinerung der Gauß-Reduktion auf Gitter mit beliebigem Rang ist die im Jahre 1982 von Lenstra, Lenstra, Lovasz vorgeschlagene L3-Reduktion einer Gitterbasis, deren Laufzeit polynomiell in der Bitlänge der Eingabe ist. L3-reduzierte Gitterbasen approximieren die sukzessiven Minima bis auf einen (im Rang des Gitters) exponentiellen Faktor. Die vorliegende Arbeit besteht aus zwei Teilen. Im ersten Teil (Kapitel 1-6) wird ein neues Reduktionskonzept von M. Seysen aus der Arbeit "A Measure for the Non-Orthogonality of a Lattice Basis" behandelt und im zweiten Teil (Kapitel 7) ein aktuelles Ergebnis von M. Ajtai über die Faktorisierung ganzer Zahlen aus "The Shortest Vector Problem in L2 is NP-hard for Randomized Reductions"[2]. Seysen führte in [13] zu einer gegebenen Gitterbasis b1, · · · , bn die Größe ¾(A) ein, die nur von den Einträgen der zugehörigen Gram-Matrix A = [b1, · · · , bn]T · [b1, · · · , bn] und der Inversen A 1 abhängt. Sie hat die Eigenschaft, daß für jede Gitterbasis b1, · · · , bn mit Gram-Matrix A gilt, daß ¾(A) ¸ 1, wobei die Gleichheit genau dann gilt, wenn b1, · · · , bn orthogonal ist. Aus dieser Defintion ergibt sich folgender Reduktionsbegriff: Eine Gitterbasis b1, · · · , bn mit Gram-Matrix A heißt genau dann ¿ -reduziert, wenn ¾(A) minimal für alle Basen des Gitters ist. Der wesentliche Unterschied der ¿-Reduktion zur L3-Reduktion ist, daß die Größe ¾(A) unabhängig von der Reihenfolge der Basisvektoren ist, so daß eine ¿ -reduzierte Gitterbasis bei beliebiger Permutation der Basisvektoren ¿ -reduziert bleibt. Die ¿-Reduktion reduziert also im Gegensatz zur L3-Reduktion die Basisvektoren gleichmäßig. Seysen zeigte, daß man zu jedem Gitter vom Rang n eine Gitterbasis mit Gram-Matrix A findet, so daß ¾(A) durch eO((ln n)2) beschränkt ist. Daraus läßt sich ableiten, daß ¿ -reduzierte Gitterbasen eines Gitters vom Rang n die sukzessiven Minima bis auf den Faktor eO((ln n)2) approximieren. Da es sich bei der ¿-Reduktion um einen sehr starken Reduktionsbegriff handelt, für den es schwer ist, einen effizienten Algorithmus zu finden, definiert man folgenden schwächeren Reduktionsbegriff: b1, · · · , bn heißt genau dann ¿2-reduziert, wenn keine Basistransformation der Form bj := bj +k · bi mit 1 · i 6= j · n und k 2 ZZ die Gr¨oße ¾(A) erniedrigt. Für n = 2 entspricht die ¿-Reduktion sowohl der ¿2- Reduktion als auch der Gauß-Reduktion. Für die ¿2-Reduktion findet man einen effizienten Algorithmus. Wendet man diesen Algorithmus auf Rucksackprobleme an, so ergibt sich, daß durch einen Algorithmus, bestehend aus ¿2-Reduktion und anschließender L3-Reduktion, bei großer Dichte und bei kleiner Dimension wesentlich mehr Rucksackprobleme gelöst werden als durch den L3-Algorithmus. Die Faktorisierung großer ganzer Zahlen ist ein fundamentales Problem mit großer kryptographischer Bedeutung. Schnorr stellte in [11] erstmals einen Zusammenhang zwischen Gitterbasenreduktion und Faktorisierung her, indem er das Faktorisieren ganzer Zahlen auf das "nächste Gittervektorproblem in der Eins-Norm" zurückführte. Adleman führte in [1] das Faktorisieren ganzer Zahlen sogar auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" zurück, allerdings unter zahlentheoretischen Annahmen. In [2] stellte Ajtai ein neues Ergebnis vor, in dem er das Faktorisieren ganzer Zahlen auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" ohne zusätzliche Annahmen zurückführte.
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
In the last decade, much effort went into the design of robust third-person pronominal anaphor resolution algorithms. Typical approaches are reported to achieve an accuracy of 60-85%. Recent research addresses the question of how to deal with the remaining difficult-toresolve anaphors. Lappin (2004) proposes a sequenced model of anaphor resolution according to which a cascade of processing modules employing knowledge and inferencing techniques of increasing complexity should be applied. The individual modules should only deal with and, hence, recognize the subset of anaphors for which they are competent. It will be shown that the problem of focusing on the competence cases is equivalent to the problem of giving precision precedence over recall. Three systems for high precision robust knowledge-poor anaphor resolution will be designed and compared: a ruleset-based approach, a salience threshold approach, and a machine-learning-based approach. According to corpus-based evaluation, there is no unique best approach. Which approach scores highest depends upon type of pronominal anaphor as well as upon text genre.
Assessing enhanced knowledge discovery systems (eKDSs) constitutes an intricate issue that is understood merely to a certain extent by now. Based upon an analysis of why it is difficult to formally evaluate eKDSs, it is argued for a change of perspective: eKDSs should be understood as intelligent tools for qualitative analysis that support, rather than substitute, the user in the exploration of the data; a qualitative gap will be identified as the main reason why the evaluation of enhanced knowledge discovery systems is difficult. In order to deal with this problem, the construction of a best practice model for eKDSs is advocated. Based on a brief recapitulation of similar work on spoken language dialogue systems, first steps towards achieving this goal are performed, and directions of future research are outlined.
Robuste Anaphernresolution
(2004)
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
Syntactic coindexing restrictions are by now known to be of central importance to practical anaphor resolution approaches. Since, in particular due to structural ambiguity, the assumption of the availability of a unique syntactic reading proves to be unrealistic, robust anaphor resolution relies on techniques to overcome this deficiency. In this paper, two approaches are presented which generalize the verification of coindexing constraints to de cient descriptions. At first, a partly heuristic method is described, which has been implemented. Secondly, a provable complete method is specified. It provides the means to exploit the results of anaphor resolution for a further structural disambiguation. By rendering possible a parallel processing model, this method exhibits, in a general sense, a higher degree of robustness. As a practically optimal solution, a combination of the two approaches is suggested.
An anaphor resolution algorithm is presented which relies on a combination of strategies for narrowing down and selecting from antecedent sets for re exive pronouns, nonre exive pronouns, and common nouns. The work focuses on syntactic restrictions which are derived from Chomsky's Binding Theory. It is discussed how these constraints can be incorporated adequately in an anaphor resolution algorithm. Moreover, by showing that pragmatic inferences may be necessary, the limits of syntactic restrictions are elucidated.
Im Zeitalter der ständig wachsenden Mobilitätsanforderungen kommt dem flexiblen, dezentralen Zugriff auf Datenbestände aller Art eine immer größere Bedeutung zu. Steht ein Zugang via Internet nicht zur Verfügung, so bietet sich als Alternative die Verwendung eines Mobiltelefons an. Auf der Grundlage des WAP-Protokolls konnen elementare grafische Zugriffsschnittstellen geschaffen werden; deren Möglichkeiten sind jedoch begrenzt: Im Vergleich zu stationären Computerterminals ist die Displaygröße i.d.R. gering; entsprchend aufwändig verlauft das Browsing. Die gegenwärtige Technologie verfügt über eine geringe Bandbreite. die Navigation über Tasten wird vom Benutzer als umständlich empfunden. Es gibt Einsatzkontexte, die eine tastaturbasierte Interaktion a priori ausschließen. Als Alternative bieten sich gesprochensprachige Schnittstellen an, in denen der Benutzer einen Mensch-Maschine-Dialog mit einem telefonbasierten Sprachportal führt. Die Grundlage derartiger Anwendungen bietet Hardware- bzw. Software-Technologie zu Computer-Telefonie-Integration, Spracherkennung, Sprachsynthese. Mit diesen technologischen Basiskomponenten alleine ist es jedoch noch nicht getan: In Abhängigkeit von den spezifischen Erfordernissen der jeweiligen Anwendung sind geeignete Vorgaben zu spezifizieren, die den Computer in die Lage versetzen, den Dialog mit seinem menschlichen Gegenüber in problemadaquater Weise zu führen. Wichtige Anforderungen sind: Natürlichkeit: Ausgestaltung der sprachlichen Interaktion in einer Weise, die den Erwartungen des Anwenders hinsichtlich des jeweiligen Anwendungsfalls entsprechen; Flexibilität: Anpassung an die Eigenarten des jeweiligen Nutzers (Novize oder geübter Anwender etc.); 2 Robustheit: geeignetes Handling von Missverständnissen, unvollständigem Benutzer-Input sowie Unzulänglichkeiten der maschinellen Sprachverarbeitung (insbesondere Fehler in der Spracherkennung) etc. Formale Spezifikationen des maschinellen Dialogverhaltens werden als Dialogmodelle bezeichnet. Hinsichtlich der generischen Wiederverwendbarkeit der Dialogsoftware ist es sinnvoll, derartige Beschreibungen in einem standardisierten Formalismus, einer Dialogmodellierungssprache abzufassen, die sich somit in erster Näherung als eine "Programmiersprache" für eine generische Dialogmaschine auffassen lässt. Folglich stellt sich die Frage, wie eine geeignete Dialogmodellierungssprache aussehen könnte. In Bezug auf webbasierte Sprachportale wurde vom W3C die XML-basierte Dialogmodellierungssprache VoiceXML als Standardisierungsvorschlag erarbeitet ([7]). Im vorliegenden Dokument sollen zunächst Reichweite und Grenzen der Sprache VoiceXML evaluiert werden. Auf der Grundlage der Evaluation sollen strategischen Empfehlungen fur Unternehmen abgeleitet werden, die sich als Anwendungsentwickler auf dem Innovationsmarkt der telefonbasierten Sprachportale betätigen wollen. Die zentralen Fragen lauten: 1. Welches sind die zentralen Probleme der Entwicklung telefonbasierter Sprachportale? 2. Inwieweit löst VoiceXML diese Probleme? 3. Inwiefern lohnt es sich somit, (z.B. zwecks Herausbildung eines Alleinstellungsmerkmals) auf die Technologie VoiceXML zu setzen? 4. Welche Alternativen existieren? In welchen anderen Bereichen sollte man ggf. Kernkompetenzen herausbilden?
Coreference-Based Summarization and Question Answering: a Case for High Precision Anaphor Resolution
(2003)
Approaches to Text Summarization and Question Answering are known to benefit from the availability of coreference information. Based on an analysis of its contributions, a more detailed look at coreference processing for these applications will be proposed: it should be considered as a task of anaphor resolution rather than coreference resolution. It will be further argued that high precision approaches to anaphor resolution optimally match the specific requirements. Three such approaches will be described and empirically evaluated, and the implications for Text Summarization and Question Answering will be discussed.
Syntactic coindexing restrictions are by now known to be of central importance to practical anaphor resolution approaches. Since, in particular due to structural ambiguity, the assumption of the availability of a unique syntactic reading proves to be unrealistic, robust anaphor resolution relies on techniques to overcome this deficiency.
This paper describes the ROSANA approach, which generalizes the verification of coindexing restrictions in order to make it applicable to the deficient syntactic descriptions that are provided by a robust state-of-the-art parser. By a formal evaluation on two corpora that differ with respect to text genre and domain, it is shown that ROSANA achieves high-quality robust coreference resolution. Moreover, by an in-depth analysis, it is proven that the robust implementation of syntactic disjoint reference is nearly optimal. The study reveals that, compared with approaches that rely on shallow preprocessing, the largely nonheuristic disjoint reference algorithmization opens up the possibility/or a slight improvement. Furthermore, it is shown that more significant gains are to be expected elsewhere, particularly from a text-genre-specific choice of preference strategies.
The performance study of the ROSANA system crucially rests on an enhanced evaluation methodology for coreference resolution systems, the development of which constitutes the second major contribution o/the paper. As a supplement to the model-theoretic scoring scheme that was developed for the Message Understanding Conference (MUC) evaluations, additional evaluation measures are defined that, on one hand, support the developer of anaphor resolution systems, and, on the other hand, shed light on application aspects of pronoun interpretation.
A und B möchten digitale Unterschriften auf faire Weise austauschen, d.h. A soll genau dann eine Unterschrift von B erhalten, wenn B eine Unterschrift von A erhält. Der triviale Ansatz zum Austausch zweier Unterschriften, daß A seine Unterschrift an B sendet und dann B seine Unterschrift an A schickt, ist nicht fair, da B nach Erhalt der Unterschrift von A das Protokoll vorzeitig beenden oder eine ungültige Unterschrift senden kann. Bei den bekannten praktikablen Protokollen zum fairen Austausch unterteilen die Teilnehmer die Unterschriften in kleine Blöcke aus wenigen Bits und tauschen die Blöcke dann schrittweise aus. Diese Protokolle garantieren einerseits, daß man sofort überprüfen kann, ob ein erhaltener Block korrekt ist. Andererseits geben die bereits ausgetauschten Blöcke so wenig wie möglich über den restlichen Teil der Unterschrift preis. Versucht in diesem Fall ein Teilnehmer zu betrügen, indem er beispielsweise einen falschen Wert sendet, so kann der andere Teilnehmer dies unmittelbar bemerken und stoppen. Da die noch nicht ausgetauschten Blöcke fast nichts über den übrigen Teil der Unterschrift preisgeben, hat der Betrüger höchstens einen Block mehr als der ehrliche Teilnehmer erhalten. Ist die Blockgröße hinreichend klein, kann der ehrliche Teilnehmer den Nachteil durch Raten bzw. Probieren ausgleichen. In dieser Diplomarbeit entwickeln wir Protokolle zum fairen Austausch sogenannter Diskreter- Logarithmus-Unterschriften. Die bekannten praktikablen Protokolle zum Austausch dieses Unterschriftentyps verwenden als Sicherheitsvoraussetzung die Faktorisierungsannahme. Im Unterschied dazu beruht die Sicherheit unseres Austauschprotokolls auf der Diskreten- Logarithmus-Annahme und damit auf der des Unterschriftenverfahrens. Ferner erlauben unsere Protokoll die Herausgabe der Blöcke in beliebiger, auch vom Protokollverlauf abhängiger Reihenfolge, während die Reihenfolge bei den bisherigen Protokollen von vornherein festgelegt ist.
Der Begriff der editierfreundlichen Kryptographie wurde von Mihir Bellare, Oded Goldreich und Shafi Goldwasser 1994 bzw. 1995 eingeführt. Mit einem editierfreundlicher Verschlüsselungs- oder Unterschriftenverfahren kann man aus einer Verschlüsselung bzw. Unterschrift zu einer Nachricht schnell eine Verschlüsselung oder Unterschrift zu einer ähnlichen Nachricht erstellen. Wir geben eine Übersicht über die bekannten editierfreundlichen Verfahren und entwickeln sowohl ein symmetrisches als auch ein asymmetrisches editierfreundliches Unterschriftenverfahren (IncXMACC und IncHSig). Wir zeigen, wie man mit editierfreundlichen Schemata überprüfen kann, ob die Implementierung einer Datenstruktur korrekt arbeitet. Basierend auf den Ideen der editierfreundlichen Kryptographie entwickeln wir effiziente Verfahren für spezielle Datenstrukturen. Diese Ergebnisse sind in zwei Arbeiten [F97a, F97b] zusammengefaßt worden.
In der vorliegenden Diplomarbeit beschäftigen wir uns mit kryptographisch sicheren Pseudozufallsgeneratoren. Diese e±zienten Algorithmen erzeugen zu zufälliger Eingabe deterministisch eine längere Bitfolge, die praktisch von einer Folge zufälliger Münzwürfe nicht unterscheidbar ist. Wir geben die Definitionen von A. Yao sowie M. Blum und S. Micali, beweisen die Äquivalenz und charakterisieren den Unterschied zur klassischen Sichtweise von Zufallsgeneratoren. Mit der Blum-Micali-Konstruktion zeigen wir, wie man aus einer Oneway-Permutation und zugehörigem Hardcore-Prädikat einen kryptographisch sicheren Pseudozufallsgenerator konstruiert: Man wendet auf einen zufälligen Startwert iterativ die Oneway-Funktion an und gibt jeweils das Hardcore-Prädikat des Urbilds aus. Wir stellen das allgemeine Hardcore- Prädikat inneres Produkt modulo 2 von L.A. Levin und O. Goldreich vor und beweisen mit Hilfe des XOR-Lemmas von U.V. Vazirani und V.V. Vazirani die Verallgemeinerung zu einer Hardcore-Funktion, die statt eines Prädikats mehrere Bits ausgibt. Man geht davon aus, daß die Verschlüsselungsfunktionen des RSA- und des Rabin-Public- Key-Kryptosystems Oneway-Permutationen sind. Basierend auf dem Rabin-System haben L. Blum, M. Blum und M. Shub den x2-mod-N-Generator aufgebaut, W. Alexi, B. Chor, O. Goldreich und C.P. Schnorr haben den RSA-Generator konstruiert und den Sicherheitsbeweis zum x2-mod-N-Generator verbessert. Diese Generatoren basieren auf der Blum-Micali-Konstruktion mit dem Hardcore-Prädikat des untersten Bits. Durch neue Ideen können wir die beweisbare Sicherheit der Generatoren deutlich erhöhen, so daß in der Praxis kleinere Schlüssellängen genügen. Bisher war zum Beispiel für den x2-mod-N-Generator bekannt, daß man mit einem Algorithmus A, der das unterste Bit der Wurzel modulo einer n-Bit- Blumzahl mit Wahrscheinlichkeit 1 2 + ² in Zeit |A| = ¡n3¢ berechnet, den Modul in Zeit O¡n3² 9|A|¢ mit Wahrscheinlichkeit ²2 64 faktorisieren kann. Wir verbessern die Laufzeit zu O¡n² 4 log2(n² 1)|A|¢ und Wahrscheinlichkeit 1 9 . Diese neuen Resultate wurden auf der Eurocrypt-Konferenz im Mai 1997 in Konstanz vorgestellt, D.E. Knuth hat sie bereits in die neue Auflage seines Standardwerks The Art of Computer Programming aufgenommen.
Die zunehmende Bedeutung des Internets für den Informationstransfer stellt Bibliotheken vor eine neue Herausforderung. Es stellt sich die Frage, in welcher Weise Bibliotheken auf diese Entwicklung reagieren können. Um dieser Frage nachzugehen, hat die Senckenbergische Bibliothek in Frankfurt eine Studie in Auftrag gegeben, die anhand einer bundesweiten Befragung das aktuelle Informationsverhalten wie auch den aktuellen Informationsbedarf von Biologen in Deutschland ermittelt hat. Die Befragung wurde im November 2003 durchgeführt. Biologen aus verschiedenen Tätigkeitsbereichen wurden nach Kenntnis, Nutzung und Wichtigkeit von konventionellen und neuen Informationsangeboten bzw. quellen befragt. Insgesamt haben 1582 Biologen an der Befragung teilgenommen. Die Ergebnisse sollen dazu beitragen, das Angebot der Sondersammelgebiete der Senckenbergischen Bibliothek den aktuellen Bedürfnissen ihrer Nutzer anzupassen und bei Bedarf ein zentrales Informationsportal für biologische Literatur- und Fachinformation aufzubauen, das den Erwartungen der Nutzer entspricht.
Eine spieltheoretische Analyse von Zulieferer-Abnehmer-Beziehungen auf Basis des JELS-Modells
(2001)
This paper is focused on the coordination of order and production policy between buyers and suppliers in supply chains. When a buyer and a supplier of an item work independently, the buyer will place orders based on his economic order quantity (EOQ). However, the buyer s EOQ may not lead to an optimal policy for the supplier. It can be shown that a cooperative batching policy can reduce total cost significantly. Should the buyer have the more powerful position to enforce his EOQ on the supplier, then no incentive exists for him to deviate from his EOQ in order to choose a cooperative batching policy. To provide an incentive to order in quantities suitable to the supplier, the supplier could offer a side payment. One critical assumption made throughout in the literature dealing with incentive schemes to influence buyer s ordering policy is that the supplier has complete information regarding buyer s cost structure. However, this assumption is far from realistic. As a consequence, the buyer has no incentive to report truthfully on his cost structure. Moreover there is an incentive to overstate the total relevant cost in order to obtain as high a side payment as possible. This paper provides a bargaining model with asymmetric information about the buyer s cost structure assuming that the buyer has the bargaining power to enforce his EOQ on the supplier in case of a break-down in negotiations. An algorithm for the determination of an optimal set of contracts which are specifically designed for different cost structures of the buyer, assumed by the supplier, will be presented. This algorithm was implemented in a software application, that supports the supplier in determining the optimal set of contracts.
Komplexität von Gitterproblemen : Nicht-Approximierbarkeit und Grenzen der Nicht-Approximierbarkeit
(2000)
Ein Gitter vom Rang n ist die Menge der ganzzahligen Linerkombinationen von n linear unabhängigen Vektoren im Rm. Unter der Annahme P <> NP beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der eine kürzeste Gitterbasis bis auf einen Faktor nO exp(1/log log n) berechnet, wobei die Länge einer Menge von Vektoren durch die maximale Euklidische Länge der Vektoren definiert ist. Weiter zeigen wir, daß eine Verbesserung dieses Resultates bis hin zu einem Faktor n/ sqrt(log n) unter plausiblen Annahmen nicht möglich ist. Ein simultaner Diophantischer Best Approximations Nenner für reelle Zahlen alpha1, .... , alpha n und Hauptnennerschranke N ist eine natürliche Zahl q mit 1 <= q >= N, so daß maxi minp2Z |q alpha i - p| minimal ist. Unter der Annahme, daß die Klasse NP keine fast-polynomiellen Algorithmen besitzt, beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der für gegebene rationale Zahlen. Ein Gitter vom Rang n ist die Menge der ganzzahligen Linerkombinationen von n linear unabhängigen Vektoren im Rm. Unter der Annahme P 6= NP beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der eine kürzeste Gitterbasis bis auf einen Faktor nO(1= log log n) berechnet, wobei die Länge einer Menge von Vektoren durch die maximale Euklidische Länge der Vektoren definiert ist. Weiter zeigen wir, daß eine Verbesserung dieses Resultates bis hin zu einem Faktor n=plog n unter plausiblen Annahmen nicht möglich ist. Ein simultaner Diophantischer Best Approximations Nenner für reelle Zahlen alpha1, .... , alpha n und Hauptnennerschranke N ist eine natürliche Zahl q mit 1 <= q <= N, so daß maxi ...... minimal ist. Unter der Annahme, daß die Klasse NP keine fast-polynomiellen Algorithmen besitzt, beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der für gegebene rationale Zahlen alpha1,......, alphan und eine Hauptnennerschranke N einen Nenner ~q mit 1 <= ~q <= f(n)N berechnet, so daß ~q bis auf einen Faktor f(n) = nO(1= log0:5+epsilon n) ein Best Approximations Nenner ist, wobei epsilon > 0 eine beliebige Konstante ist. Wir zeigen, daß eine Verbesserung dieses Resultates bis hin zu einem Faktor n=log n unter plausiblen Annahmen nicht mölich ist. Wir untersuchen die Konsequenzen dieser Resultate zur Konstruktion von im Durchschnitt schwierigen Gitterproblemen.
Als Methode zur inhaltlichen Erschließung von Texten, dem überwiegenden Ausgangsmaterial empirischer Untersuchungen, kommt der Inhaltsanalyse in den Sozialwissenschaften eine Schlüsselstellung zu. Allgemein wird unterschieden zwischen quantitativen, wörterbuchbasierten und qualitativen, »hermeneutischen« Verfahren; gemäß der weithin vertretenen Lehrmeinung ist nur die quantitative, einzelwortorientierte Inhaltsanalyse von Computern durchführbar. Der Autor zeigt auf, daß sich auf der Grundlage der Dichotomisierung »quantitativ-qualitativ « kein geeignetes Kriterium ergibt, um die Frage nach Reichweite und Grenzen der algorithmischen Inhaltsanalyse abschließend zu beantworten. Unter interdisziplinärem Rekurs auf aktuelle Entwicklungen in Computerlinguistik, Künstlicher Intelligenz und Kognitionswissenschaften wird der Nachweis erbracht, daß die computergestützte Textinhaltserschließung nicht notwendig auf die Einzelwortanalyse beschränkt ist. Für ein zentrales qualitatives Problem der klassischen wörterbuchbasierten Inhaltsanalyse, die referentielle Interpretation von Pronomen, wird eine algorithmische Lösung erarbeitet, softwaretechnisch umgesetzt und unter Anwendungsbedingungen empirisch evaluiert. Mit der vorliegenden Arbeit gelingt der Nachweis, daß die im Kontext der »Qualitativ- Quantitativ « - Kontroverse postulierten »prinzipiellen Grenzen« der computergestützten Inhaltsanalyse nichtzutreffend, da auf algorithmischem Wege transzendierbar sind. Somit ergeben sich völlig neue Perspektiven für den Einsatz von Computern in der Inhaltsanalyse.
Die zunehmende Monopolisierung auf dem Markt für Informationsressourcen im akademischen Sektor führte in den vergangenen Jahren zu einer verstärkten Bildung von Bibliothekskonsortien auf der Abnehmerseite, die einen Gegenpol in Form einer Einkaufsgenossenschaft darstellen sollten [McCa02]. Diese Tendenzen lassen sich in verschiedenen Ländern wie etwa in Deutschland, England, der Schweiz und der Niederlande beobachten [Okerso]. In den USA sind Konsortien eher selten zu finden; das größte Konsortium ist hier OHIO-Link (http://www.lib.ohio-state.edu/). In Deutschland richten sich die meisten Konsortien wegen der föderalen Finanzierungsstrukturen regional aus; überregionale bzw. deutschlandweite Konsortien sind derzeit noch selten. Ein Zusammenschluss auf thematischer Grundlage findet derzeit so gut wie gar nicht statt, vielmehr werden möglichst viele Bibliotheken in Konsortien unabhängig von den an den jeweiligen Standorten betriebenen Forschungsschwerpunkten eingebunden [AnDe02]....
Elektronische (digitale) Zeitschriften spielen seit mehreren Jahren eine zunehmend wichtigere Rolle in der Informationsversorgung von Wissenschaft und Forschung. Während jedoch die Nutzungsformen sich so gut wie vollständig an den Standards des www mit all seinen Vorzügen orientieren, sind die Preisbildungsmechanismen noch stark an der Welt der gedruckten Zeitschriften orientiert. Sie unterliegen allerdings zur Zeit einem erheblichen Wandel, ohne dass erkennbar wäre, welche Preisstrukturen zukünftig den Markt bestimmen werden. Das seit November 2001 laufende DFG-Projekt "Perspektiven für den Bezug elektronischer Informationsressourcen in der Bundesrepublik Deutschland" hat sich zum Ziel gesetzt, die Marktsituation für elektronische Informationsversorgung im hochschulischen Bereich zu analysieren und davon ausgehend Perspektiven abzuleiten. In einer ersten Phase sollen zunächst die Nutzungsgewohnheiten seitens der Wissenschaftler und Studierenden untersucht werden. Die Ergebnisse werden in der vorliegenden Arbeit exemplarisch aufgezeigt, eine detaillierte Nutzungsanalyse wird zu einem späteren Zeitpunkt veröffentlicht.
Eine bedeutende Stelle der betrieblichen Funktionen nimmt die Beschaffung der Ware am Markt ein. Die Organisation des Beschaffungswesens ist dabei integraler Bestandteil der Unternehmensstrategie und führung. Die Beschaffung im engeren Sinne umfasst dabei den Einkauf von Anlagegütern, Roh-, Hilfs- und Betriebsstoffen, Fertigwaren sowie von Dienstleistungen (z. B. Transportleistungen) und Rechten (z. B. Lizenzen aus Patenten). Die Beschaffung ist neben der Produktions- und Absatzfunktion einer der Hauptbereiche betrieblicher Planung und Leistungserstellung [Bichler/Krohn 2001]. Die Hauptaufgabe des Einkaufs im Industrieunternehmen besteht in der Beschaffung von Materialen und Teilen nach den von den zuständigen Fachabteilungen vorgegebenen Qualitätsvorschriften, zu günstigen Konditionen und zum richtigen Zeitpunkt, wodurch die termingerechte Produktion sicher gestellt werden kann. Eine weiterführende Aufgabe des Einkaufs besteht in einer Analyse des Beschaffungsmarktes sowie in der Aufbereitung und Weitergabe von Informationen an den Vertrieb. Es sind die Hersteller auf dem Markt zu suchen und zu katalogisieren, welche die entsprechenden Materialien in gleich bleibender Qualität und zu günstigen Preisen liefern können [Bichler/Krohn 2001]. Die Organisation des Einkaufsprozesses stellt einen bedeutenden Problemfokus für die Unternehmensleitung dar. Gegenstand dieser Untersuchung ist die Fragestellung, wie sich Einkaufgenossenschaften im Bibliothekswesen optimal bilden sollen. Die Frage der Optimalität muss dazu zunächst präzisiert werden und wird vor dem Hintergrund verschiedener Zielsetzungen näher diskutiert. Einkaufsgenossenschaften und verbünde finden sich in der Praxis immer häufiger und stellen probate Mittel dar, die Kosten für den Bezug von nötigen Betriebsmaterialen nachhaltig zu senken. Im Sektor der wissenschaftlichen Informationsversorgung können seit einigen Jahren im Bereich der elektronischen Informationsressourcen ebenfalls Einkaufsverbünde in Form von Bibliothekskonsortien beobachtet werden. Ziel dieser Genossenschaften ist es, gemeinsam Lizenzen für elektronische Informationen zu erwerben. Die derzeitige Bezugspraxis zeigt, dass Konsortien überwiegend regional ausgerichtet sind und weniger auf thematischer Ebene agieren. Auch die Größe sowie Nachfragestruktur und intensität finden weitestgehend noch keine Beachtung. Diese Arbeit untersucht Vor- und Nachteile von Einkaufgenossenschaften und diskutiert verschiedene Entscheidungsmodelle zur Bestimmung einer optimalen Konsortialstruktur vor dem Hintergrund der derzeitig gegebenen Marktstrukturen im Sektor der wissenschaftlichen Informationsversorgung.
Die Arbeit ist Teil der konzeptionellen Vorbereitung einer Dissertation zum Thema Innovationsfinanzierung im Mittelstand. Sie stellt gleichzeitig die Grundlage einer explorativen Erhebung zur Innovationstätigkeit und Finanzierungsproblematik Kunststoff verarbeitender Unternehmen der südlichen Westpfalz dar, welche im Sommer 2004 durchgeführt wurde. Innovationspolitische Diskussionen konzentrieren sich in Deutschland fast ausschließlich auf so genannte High Tech-Industrien. Unter Verwendung von Indikatoren zur Messung des Personal- und des Investitionsaufwandes in Forschungs- und Entwicklungsabteilungen, der Kooperationshäufigkeit zwischen Forschungseinrichtungen und Unternehmen oder Patentanmeldungen werden Branchen hinsichtlich Innovativität und nachhaltiger Förderwürdigkeit bewertet. Aufgrund fehlender alternativer Indikatoren zur Innovationstätigkeit in Unternehmen werden weite Teile des Mittelstandes ausgeblendet. Regionen, in denen sich traditionelle Branchen konzentrieren, werden für die dynamische Entwicklung der Volkswirtschaft als weniger bedeutend eingestuft. So liegen beispielsweise die FuE-Aufwendungen der Kunststoff verarbeitenden Industrie unter dem Durchschnitt des verarbeitenden Gewerbes. Sie ist eine typische Zulieferindustrie. Über Interaktionen mit Zulieferern und Kunden erschließen sich Kunststoff verarbeitende Unternehmen wichtige Innovationsimpulse. Mit praktischen Kompetenzen generiert sie einen Mehrwert an technologischem Fortschritt für eine Vielzahl vor- und nachgelagerter Industriezweige. Die Beziehungen der Kunststoffverarbeiter zu ihren Kunden sind stark projektbezogen. Es dominieren inkrementelle Innovationen. Die Struktur der Branche unterliegt daher einem stetigen Wandel. Erfolgreiche lohnfertigende Zulieferer werden zu System-Zulieferern oder bringen eigene Produkte auf den Markt. Die statistische Erfassung der Innovationsleistungen der Branche wird durch ihre Zuliefer-Rolle zusätzlich erschwert. Auch die Ableitung des tatsächlichen Innovationsaufwandes kann nicht ohne weiteres erfolgen. Es bedarf eines angepassten Innovationsverständnisses. Ziel der Arbeit ist es, ein Verständnis für die Innovationsleistungen einer mittelständisch geprägten, in Wertschöpfungsketten eingebetteten Low Tech Branche zu entwickeln. Es sollen Ansatzpunkte für eine Klassifikation der Innovationsaktivitäten und aufwendungen erarbeitet werden. Nach einer kurzen Diskussion der Unzweckmäßigkeit einer einseitigen Verwendung FuE-basierter Indikatoren werden im dritten Kapitel für die Kunststoff verarbeitenden Industrie Aspekte branchenspezifischer Innovationsprozesse ermittelt und klassifiziert. Die Entwicklung von Produkt-, Werkstoff- und Werkzeugkonzepten durch Kunststoff verarbeitende Unternehmen werden als zentrale Innovationsaktivitäten der Branche herausgearbeitet. Das letzte Kapitel dient der Diskussion der zu erwartenden Risiken und Investitionsaufwendungen dieser Entwicklungsleistungen. Mögliche Finanzierungsformen werden abgeleitet.
This paper provides global terrestrial surface balances of nitrogen (N) at a resolution of 0.5 by 0.5 degree for the years 1961, 1995 and 2050 as simulated by the model WaterGAP-N. The terms livestock N excretion (Nanm), synthetic N fertilizer (Nfert), atmospheric N deposition (Ndep) and biological N fixation (Nfix) are considered as input while N export by plant uptake (Nexp) and ammonia volatilization (Nvol) are taken into account as output terms. The different terms in the balance are compared to results of other global models and uncertainties are described. Total global surface N surplus increased from 161 Tg N yr-1 in 1961 to 230 Tg N yr-1 in 1995. Using assumptions for the scenario A1B of the Special Report on Emission Scenarios (SRES) of the International Panel on Climate Change (IPCC) as quantified by the IMAGE model, total global surface N surplus is estimated to be 229 Tg N yr-1 in 2050. However, the implementation of these scenario assumptions leads to negative surface balances in many agricultural areas on the globe, which indicates that the assumptions about N fertilizer use and crop production changes are not consistent. Recommendations are made on how to change the assumptions about N fertilizer use to receive a more consistent scenario, which would lead to higher N surpluses in 2050 as compared to 1995.
The Land and Water Development Division of the Food and Agriculture Organization of the United Nations and the Johann Wolfgang Goethe University, Frankfurt am Main, Germany, are cooperating in the development of a global irrigation-mapping facility. This report describes an update of the Digital Global Map of Irrigated Areas for the continent of Asia. For this update, an inventory of subnational irrigation statistics for the continent was compiled. The reference year for the statistics is 2000. Adding up the irrigated areas per country as documented in the report gives a total of 188.5 million ha for the entire continent. The total number of subnational units used in the inventory is 4 428. In order to distribute the irrigation statistics per subnational unit, digital spatial data layers and printed maps were used. Irrigation maps were derived from project reports, irrigation subsector studies, and books related to irrigation and drainage. These maps were digitized and compared with satellite images of many regions. In areas without spatial information on irrigated areas, additional information was used to locate areas where irrigation is likely, such as land-cover and land-use maps that indicate agricultural areas or areas with crops that are usually grown under irrigation. Contents 1. Working Report I: Generation of a map of administrative units compatible with statistics used to update the Digital Global Map of Irrigated Areas in Asia 2. Working Report II: The inventory of subnational irrigation statistics for the Asian part of the Digital Global Map of Irrigated Areas 3. Working Report III: Geospatial information used to locate irrigated areas within the subnational units in the Asian part of the Digital Global Map of Irrigated Areas 4. Working Report IV: Update of the Digital Global Map of Irrigated Areas in Asia, Results Maps
Pseudorandom function tribe ensembles based on one-way permutations: improvements and applications
(1999)
Pseudorandom function tribe ensembles are pseudorandom function ensembles that have an additional collision resistance property: almost all functions have disjoint ranges. We present an alternative to the construction of pseudorandom function tribe ensembles based on oneway permutations given by Canetti, Micciancio and Reingold [CMR98]. Our approach yields two different but related solutions: One construction is somewhat theoretic, but conceptually simple and therefore gives an easier proof that one-way permutations suffice to construct pseudorandom function tribe ensembles. The other, slightly more complicated solution provides a practical construction; it starts with an arbitrary pseudorandom function ensemble and assimilates the one-way permutation to this ensemble. Therefore, the second solution inherits important characteristics of the underlying pseudorandom function ensemble: it is almost as effcient and if the starting pseudorandom function ensemble is efficiently invertible (given the secret key) then so is the derived tribe ensemble. We also show that the latter solution yields so-called committing private-key encryption schemes. i.e., where each ciphertext corresponds to exactly one plaintext independently of the choice of the secret key or the random bits used in the encryption process.