Refine
Year of publication
Document Type
- Article (30294)
- Part of Periodical (11874)
- Book (8248)
- Doctoral Thesis (5676)
- Part of a Book (3665)
- Working Paper (3383)
- Review (2878)
- Contribution to a Periodical (2338)
- Preprint (1922)
- Report (1544)
- Conference Proceeding (1278)
- Other (390)
- Periodical (274)
- diplomthesis (222)
- Bachelor Thesis (158)
- Master's Thesis (125)
- magisterthesis (124)
- Diploma Thesis (114)
- Magister's Thesis (83)
- Habilitation (23)
- Lecture (14)
- Sound (10)
- Course Material (7)
- Study Thesis (7)
- Examination Thesis (1)
Language
- German (42301)
- English (28810)
- French (1067)
- Portuguese (723)
- Multiple languages (307)
- Croatian (302)
- Spanish (301)
- Italian (194)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (74652) (remove)
Keywords
- Deutsch (1038)
- Literatur (807)
- taxonomy (748)
- Deutschland (543)
- Rezension (491)
- new species (443)
- Frankfurt <Main> / Universität (341)
- Rezeption (323)
- Geschichte (292)
- Linguistik (268)
Institute
- Medizin (7632)
- Präsidium (5157)
- Physik (4249)
- Wirtschaftswissenschaften (2678)
- Extern (2661)
- Gesellschaftswissenschaften (2371)
- Biowissenschaften (2166)
- Biochemie und Chemie (1970)
- Center for Financial Studies (CFS) (1620)
- Informatik (1603)
Es wird gezeigt, daß man die langwelligen Absorptionsspektren der magnetisch normalen oktaedrischen Komplexionen mit den Übergangsmetallionen Ti3+, V3+, Cr3+, Mn3+ und Fe3+ verstehen kann, wenn man annimmt, daß die schwachen langwelligen Banden durch Übergänge zwischen den Aufspaltungsprodukten der jeweiligen Grundterme entstehen, wobei die Auf-spaltungen durch das elektrostatische Feld der Liganden zustande kommen.
Im Gegensatz zur Minimierung von DFAs ist die exakte Minimierung von NFAs oder regulären Ausdrücken nachweislich schwierig, im allgemeinen Fall PSpace-schwer. Wir zeigen, dass selbst schwache Approximationen zur Minimierung von NFAs und regulären Ausdrücken wahrscheinlich nicht effizient möglich sind. Falls als Eingabe ein NFA oder regulärer Ausdruck der Größe n gegeben ist, löst ein Approximationsalgorithmus für das Minimierungsproblem mit Approximationsfaktor o(n) bereits ein PSpace-vollständiges Problem. Wenn wir uns auf NFAs oder reguläre Ausdrücke über einem unären - also einelementigen - Alphabet beschränken, so ist das Problem der exakten Minimierung NP-vollständig. Wir weisen nach, dass effiziente Approximationen für das unäre Minimierungsproblem mit Approximationsfaktor n^(1-delta) für jedes delta>0 nicht möglich sind, sofern P != NP gilt. Liegt die Eingabe als DFA mit n Zuständen vor, kann sie exponentiell größer sein als ein äquivalenter NFA oder regulärer Ausdruck. Dennoch bleibt das Minimierungsproblem PSpace-schwer, wenn die Anzahl der Übergänge oder Zustände in einem äquivalenten NFA oder die Länge eines äquivalenten regulären Ausdrucks zu bestimmen ist. Wir zeigen, dass auch hierfür keine guten Approximationen zu erwarten sind. Unter der Annahme der Existenz von Pseudozufallsfunktionen, die wiederum auf der Annahme basiert, dass Faktorisierung schwierig ist, zeigen wir, dass kein effizienter Algorithmus einen Approximationsfaktor n/(poly(log n)) für die Zahl der Übergänge im NFA oder die Länge des regulären Ausdrucks garantieren kann. Für die Zahl der Zustände im NFA weisen wir nach, dass effiziente Approximationen mit Approximationsfaktor (n^(1/2))/(poly(log n)) ausgeschlossen sind. Wir betrachten dann Lernprobleme für reguläre Sprachen als Konzeptklasse. Mit den entwickelten Methoden, die auf der Annahme der Existenz von Pseudozufallsfunktionen beruhen, zeigen wir auch, dass es für das Problem des minimalen konsistenten DFAs keine effizienten Approximationen mit Approximationsfaktor n/(poly(log n)) gibt. Für den unären Fall hingegen weisen wir nach, dass es einen effizienten Algorithmus gibt, der einen minimalen konsistenten DFA konstruiert und erhalten somit auch einen effizienten PAC-Algorithmus für unäre reguläre Sprachen, die von DFAs mit n Zuständen akzeptiert werden. Für unäre Beispielmengen weisen wir außerdem nach, dass es keine effizienten Algorithmen gibt, die minimale konsistente NFAs konstruieren, falls NP-vollständige Probleme nicht in Zeit (n^(O(log n)) gelöst werden können. Andererseits geben wir einen effizienten Algorithmus an, der zu unären Beispielmengen einen konsistenten NFA mit höchstens O(opt^2) Zuständen konstruiert, wenn ein minimaler konsistenter NFA opt Zustände hat. Abschließend betrachten wir das Lernen von DFAs durch Äquivalenzfragen. Für den nicht-unären Fall ist bekannt, dass exponentiell viele Fragen für DFAs mit n Zuständen benötigt werden. Für unäre zyklische DFAs mit primer Zykluslänge und höchstens n Zuständen zeigen wir, dass Theta((n^2)/(ln n)) Äquivalenzfragen hinreichend und notwendig sind. Erlauben wir größere zyklische DFAs als Hypothesen, kommen wir mit weniger Fragen aus: Um zyklische DFAs mit höchstens n Zuständen durch Äquivalenzfragen mit zyklischen DFAs mit höchstens n^d Zuständen für d <= n als Hypothesen zu lernen, sind O((n^2)/d) Fragen hinreichend und Omega((n^2 ln d)/(d (ln n)^2)) Fragen nötig.
Über die allmähliche Verfertigung des Romans beim Schreiben : zur Entstehungsgeschichte des "Butt"
(2018)
Nach dem Abschluss der später so genannten Danziger Trilogie war das Themenreservoir aus Nazi- und Kriegszeit, das Grass als Zeitgenosse und Augenzeuge zu 'anhaltender Schreibwut' angetrieben hatte, erschöpft. Um zu einem erneuten großen Wurf ausholen zu können, musste er sich dem Problem stellen, wie er einen neuen Stoff, der nicht aus der lebensgeschichtlichen Erfahrung stammt, aus der produktiven Einbildungskraft entwickeln könne – ein mühsamer Prozess der Ideenfindung, den die Untersuchung anhand der erhaltenen Vorarbeiten von den ersten Brainstormings an zu rekonstruieren versucht. Derartige assoziative Verfahren zur Erzeugung eines epischen flow mündeten allerdings in eine veritable Schreibkrise. Um die schweigende Muse zu reaktivieren, war eine Reihe von Impulsen vonnöten, wobei die Einflüsse 'exogenetischer', also psycho-sozio-kultureller Faktoren (die Schwangerschaft der Lebensgefährtin; der andauernd heftige Beziehungskrieg mit dieser; die Geburt der Tochter Helene) entscheidende Impulse erbrachten, die unmittelbar in Literatur umgesetzt wurden. Ein lange währendes 'warming up' – das Einschalten zahlreicher Gedichte und Graphiken – war aber immer noch vonnöten, um die autonome Motivation aufrechtzuerhalten, bis der wunderbare Fischfang gelang, der den Butt ans Tageslicht holte. Wie und unter welchen Umständen Grass dieser Ideenfund zufiel, einen sprechenden Plattfisch zur Zentralfigur seines Romans zu machen, bleibt im dunkeln verborgen: Es war ein echtes Serendipity-Erlebnis, das einen Kreativitätsschub zur Folge hatte, der allerdings weiterhin chaotisch, unstetig und sprunghaft verlief. Die amorphe Stoffmasse konnte erst bewältigt werden, nachdem mit der Disposition (dem Neunmonateschema der Schwangerschaft) und der diachronen Anlage vom Neolithikum bis in die Gegenwart des Autors das Organisationssystem erarbeitet war: Finderglück und selbstvergessenes Schreiben allein erzeugen noch kein episches Großwerk, sofern nicht 'die Fähigkeit zum Ausnutzen von Gelegenheiten' mitwirkt, die nach Luhmann Kreativität ausmacht.
Wer wüsste nicht, was ein Märchen ist, eine irgendwie sehr alte, mündlich überlieferte und formelhaft erzählte Geschichte von kleinen Helden, die inmitten von selbstverständlichen Wundern und bösen Widersachern groß herauskommen und am Ende belohnt werden. Märchen, das sind für uns vor allem Zaubermärchen, die dem Wunderbarem ganz beiläufig Raum lassen und dem Prinzip der poetischen Gerechtigkeit folgen, wo der Beste die Schönste bekommt und alles gut ausgeht. Sie haben etwas, das sie mit Mythen und Träumen verbindet, schon weil ihre Figuren aus alter Zeit zu stammen scheinen, stark typisiert sind und entweder arme Leute oder gleich König und Königin darstellen. Mit den immer selben Figuren und Handlungsmotiven erzählen Märchen einfach und meist knapp entlang des Geschehensverlaufs. Ereignis reiht sich an Ereignis;psychologische Begründungen fallen hier aus. Alles passiert auf der Oberfläche der Handlung geradezu unmittelbar. Und die, die in solchen einfachen Formen erzählen, das sind Leute aus dem Volk, besonders die Frauen, genauer noch eher die alten und die vom Lande. Schließlich sind Märchen für Kinder da. "Kinder brauchen Märchen" wurde die deutsche Ausgabe des Erfolgsbuchs des deutsch-amerikanischen Psychoanalytikers Bruno Bettelheim überschrieben, und das haben dann viele bis heute übernommen. Weil Märchen gut ausgehen und das Wunder wie eine Selbstverständlichkeit behandeln, fördern Märchen die kindliche Kreativität und Moralität wie keine andere Gattung. Märchen sind also gut und machen ihre kleinen wie großen Leser glücklich. Von alledem sind wir überzeugt.
Im Bereich der deutsch-ungarischen literarischen Wechselbeziehungen offenbaren sich kontinuierlich neue Forschungslücken, die Fragestellungen aufwerfen, welche bislang weder von der Germanistik, noch von der hungarologischen Forschung hinreichend beantwortet wurden. Die Wirkungsgeschichte Hölderlins in Ungarn stellt zweifels ohne eine derartige Forschungslücke dar: selbst in den groß angelegten Forschungsprojekten zur Geschichte der Aufnahme der deutschsprachigen Literaturen in Ungarn wurde auf die Rezeption des Hölderlinschen Werkes entweder nur am Rande oder gar nicht eingegangen. Dies überrascht umso mehr, als die Rezeptionshandlungen bereits seit Jahrzehnten über die Grenze des Textmediums hinaus wiesen. In der Folge soll Andor Sas’ 1909 veröffentlichter Hölderlinaufsatz – der den Beginn der ungarischen Hölderlinforschung darstellt – einer kritischen Analyse unterzogen werden.
Über die Anzahlfunktion π(x)
(1999)
Bereits Euklid wusste, dass es unendlich viele Primzahlen gibt. Euler zeigte die qualitative Aussage ¼(x) x ! 0 bei x ! 1. Legendre definierte als erster die Anzahlfunktion ¼(x) als die Anzahl aller Primzahlen · x, (x 2 R) und vermutete irrtümlicherweise, dass ¼(x) = x log(x)¡B; wobei lim x!1 B(x) = 1; 083 66 : : : ist. Gauss vermutete, dass die Funktionen ¼(x) und li(x) := lim "!0 ">0 0@ u=1¡" Z u=0 du log(u) + u=x Z u=1+" du log(u)1A asymptotisch Äquivalent sind. Tschebyschew konnte die Legendresche Vermutung widerlegen; außerdem bewies er: Wenn der Grenzwert lim x!1 ¼(x) x log(x) existiert, so muss dieser gleich 1 sein. Dank wegweisender Vorarbeiten von Riemann, gelang es im Jahr 1896 unabhängig voneinander und nahezu zeitgleich Hadamard und De La Vallee Poussin, den Primzahlsatz analytisch zu beweisen. Beide verwendeten entscheidend die Tatsache, dass die Zetafunktion ³ in der Halbebene Re(s) ¸ 1 nicht verschwindet. Die Beweise waren zuerst so lang und kompliziert, dass sie heutzutage nur noch einen historischen Wert besitzen. Es dauerte weitere 84 Jahre bis der Beweis so vereinfacht werden konnte, dass er nur wenige Seiten in Anspruch nimmt. Ein wichtiger Verdienst kommt hierbei der Arbeit von Newman aus dem Jahre 1980 zu. Lange Zeit wurde es für kaum möglich gehalten, einen Beweis des Primzahlsatzes zu finden, der ohne eine gewisse Kenntnis der komplexen Nullstellen der Zetafunktion auskommt. Und doch glückte 1948 ein solcher Beweis durch Selberg und Erdös mit elementaren Mitteln. Erwähnenswert dabei, dass der Beweis noch lange nicht einfach ist. Uns schienen die analytischen Beweise durchsichtiger zu sein. Daher haben wir in dieser Arbeit auf einen elementaren Beweis verzichtet. Der analytischen Weg zum Primzahlsatz von Newman kommt einerseits mit Integration längs endlicher Wege (und der Tatsache ³(s) 6= 0 in ¾ ¸ 1) aus, umgeht also Abschätzungen bei 1; andererseits ist er frei von Sätzen der Fourier-Analysis. Beim Beweis des Primzahlsatzes von Wolke benutzt man anstelle von ³0(s) ³(s) die Funktion ³ 1 k mit großen k. Wegen des Pols bei s=1 bringt dies bei der Integration leichte Komplikationen, hat aber den Vorteil, dass außer der Nullstellen-Freiheit keine nichttriviale Abschätzung für ³ oder ³0 erforderlich ist. Dank der elementaren Äquivalenz zwischen dem Primzahlsatz und der Konvergenz von 1Pn=1 ¹(n) n brauchte Newman nur die Konvergenz von 1Pn=1 ¹(n) n zu zeigen. Dies erreichte er mit Hilfe seines Konvergenzsatzes. Die Legendresche Formel, die auf dem Sieb des Eratosthenes basiert, erlaubt die exakte Berechnung von ¼(x), wenn alle px nicht übersteigenden Primzahlen bekannt sind. Diese prinzipielle Möglichkeit zur Ermittlung von ¼(x) ist in der Praxis natürlich stark limitiert durch die mit x rasch anwachsende Anzahl der rechts in der Legendresche Formel zu berücksichtigenden Summanden. Mit verfeinerten Siebtechniken haben verschiedene Autoren zur Legendresche Formel analoge Formeln ¼(x) ersonnen, bei denen der genannte Nachteil von Legendresche Formel sukzessive reduziert wurde. Zu erwähnen sind hier vor allem Meissel, Lehmer, sowie Lagarias, Miller und Odlyzko. Aus den Graphen von R(x)¡¼(x); li(x)¡¼(x) und x log(x) ¡¼(x) für den betrachteten Bereich x · 1018 konnten wir feststellen, dass R(x); li(x) sowie x log(x) die Anzahlfunktion Pi (x) annähern, wobei R(x) die beste Approximation für Pi(x) von allen drei ist.
Die Vegetation an Weidezäunen in Umtriebsweidekomplexen wird von Gesellschaften gebildet, die eine Zwischenstellung zwischen Wiesen und Weiden einnehmen und im wesentlichen Varianten der Festuca-rubra-Agrostis-capillaris-Gesellschaft zuzurechnen sind. Es bestehen Übergänge zum mageren und bracheähnlichen Lolio-Cynosuretum und zum Festuco-Cynosuretum sowie zu Beständen, die den Nardetalia nahestehen. Die Besonderheit dieser Gesellschaften liegt in der Kombination von lichtliebenden, eng dem Boden anliegenden Kräutern und den zum Teil mit beträchtlichen Massenanteilen vorkommenden Wiesenarten, die in Weiden nur selten aspektbildend sind. Wesentliche Steuerungsfaktoren sind die hohe Verbißintensität und die damit einhergehende Aushagerung der Standorte, insbesondere eine Verringerung der Phosphatversorgung. Eine Verbißtiefe zwischen vier und acht Zentimetern über die gesamte Vegetationsperiode begrenzt die Artenzusammensetzung auf relativ wenige Arten mit angepaßter Wuchsform. Ein wesentlicher Unterschied zu den Weiden besteht neben der Artenzusammensetzung in dem um circa 20 % höheren Porenvolumen im Weidezaunbereich.
Während des Alterungsprozesses kommt es u.a. im Gehirn zu einem signifikanten Verlust
postmitotischer Zellen, was zu Hirnleistungsstörungen im Alter führen kann.
Der Grund für diesen Zellverlust durch Apoptose könnte sein, dass es im Alter zu erhöhtem
oxidativen Streß und zu einer Veränderung in der Konzentration der an der Apoptose beteiligten
Proteine und Faktoren kommt. Diese Studie befaßt sich mit der neuronalen Apoptose und den daran
beteiligten Proteinen und Regulatoren. Ziel war es, herauszufinden, ob es im Alter zu einer
gesteigerten Apoptoserate im Hippokampus und zu einer Veränderung der Konzentration von
Proteinen kommt, die das Auftreten bzw. die Hemmung der Apoptose begünstigen könnte.
Untersucht wurden die Hippokampi von Pavianen als mögliches Primaten-Modell für altersbedingte
Pathologien, die das menschliche Gehirn betreffen können.
Um apoptotische Zellen im Hippokampus der Paviane nachzuweisen, wurde mit der TUNEL-Methode
gearbeitet und mittels Immunhistochemie untersucht, welchen Effekt das Alter auf die Verteilung der
Immunreaktivität von Cytochrom C, AIF, Bax, Bcl-2, Caspase-3 sowie von XIAP, einem Inhibitor der
Apoptose, hat. Auch die Immunreaktivität der Enzyme PARP und ICAD wurde dargestellt. Die
Ergebnisse zeigen, dass in den Hippokampi der gealterten Paviane das anti-apoptotische Protein Bcl-2
in unveränderter Reaktivität vorlag und das pro-apoptotische Protein Bax hochreguliert war. Es gab
eine Umverteilung und möglicherweise Freisetzung von Cytochrom C, jedoch aber keine Aktivierung
von Caspase-3. Diese Ergebnisse zeigen eine gewebepezifische Änderung des Bcl-2/Bax-
Verhältnisses in den Hippokampi der alten Primaten, die zur Beeinflussung der Cytochrom CFreisetzung
beitragen, ohne jedoch zur Apoptose der Zelle zu führen. Apoptotische Zellen konnten
mittels TUNEL-Färbung nicht nachgewiesen werden. Das könnte damit zusammenhängen, dass
XIAP, ein inhibitorisches Regulatorprotein der Apoptose, bei den gealterten Pavianen hochreguliert
war, ebenso wie das DNA-Reparaturenzym PARP. Auch das Enzym ICAD, welches in aktivierter
Form während der Apoptose wesentlich zum Chromatinabbau beiträgt zeigte im Alter eine erhöhte
Aktivität. Da in einer Studie über Tau-Pathologie im Hippokampus von Pavianen für das Auftreten
dieser Pathologie ein Zusammenhang mit dem Alter nachgewiesen werden konnte, und man weiß,
dass Zellen in der Nähe der β-Amyloidablagerung bei M.Alzheimer durch Apoptose absterben, wurde
mit Hilfe der Immunfloureszenz die Reaktivität des Enzyms Neprelysin untersucht, welches für den
β-Amyloidablagerung zuständig ist. Dieses war in seiner Reaktivität in den Hippokampi
der älteren Paviane im Gegensatz zu der in den Hippokampi der jüngeren Primaten erniedrigt, was auf
eine altersbedingte Disposition zu diesen Plaques hinweist.
Nach der von Sander (F. Sander: Einfache Bestimmung des Säuregrades im Harn mittels Aciditätsquotient. Zeitschrift für Urologie, 25, 1931.) angegebenen Methode sind Bestimmungen des Aciditätsquotienten des Harns ausgeführt worden, mit dem Ziele, die Veränderungen desselben festzustellen, 1. nach Aufnahme von Eierklar, 2. nach Aufnahme von Eidotter, 3. nach Aufnahme von Lecithin, 4. nach Aufnahme von Eiweiß und Lecithin. Die zu diesem Zwecke ausgeführten Versuche zeitigten folgende Ergebnisse: 1. Der bis zum Mittag verfolgte Verlauf der Harnaciditätsquotientenkurve bei normaler Kost zeigt dasselbe typische Verhalten wie die Normalkurven bei meinen Vorgängern, d. h. etwa 4 Stunden nach der Nahrungsaufnahme erreicht der A.-Qu. sein Minimum und steigt dann bis zur nächsten Mahlzeit wieder an. 2. Der Harnaciditätsquotient sinkt nach Zusatz von Eiweiß zum üblichen Frühstück schneller und tiefer ab. 3. Eine Zulage von Eidotter zum Frühstück führt zu größeren Harnaciditätsquotienten-Werten, als wir sie ohne die Beigabe finden. 4. Bei der Lecithinaufnahme, die etwa dem Gehalt dreier Eidotter an diesem Lipoid entspricht, wurden noch höhere Werte des A.-Qu. des Harnes festgestellt, als bei dem Genuß der ganzen Eidotter. 5. Aus diesen experimentell festgestellten Tatsachen wird abgeleitet, daß durch die Aufnahme von Lecithin der Salzsäureverlust des Blutes durch die Magensaftausscheidung bis zu einem gewissen Grade kompensiert wird durch Resorption der Phosphorsäure des Lecithins aus dem Magen in das Blut. Infolgedessen kommt es zu einer relativ geringen Veränderung des Säurebasengleichgewichtes des Blutes, die natürlich sich in einer nur geringen Änderung des Aciditätsquotienten widerspiegeln kann.
Über die Bestäubungsvorrichtung und die Fliegenfalle des Hundskohles, Apocynum androsaemifolium L.
(1880)
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.