Refine
Year of publication
- 2004 (1224) (remove)
Document Type
- Article (491)
- Doctoral Thesis (235)
- Review (107)
- Part of Periodical (97)
- Part of a Book (85)
- Working Paper (43)
- Book (41)
- Report (33)
- Conference Proceeding (21)
- diplomthesis (21)
Language
- German (1224) (remove)
Keywords
- Johann Wolfgang von Goethe (36)
- Frankfurt <Main> / Universität (29)
- Rezension (24)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
- Deutschland (18)
- Deutsch (15)
- Goethe, Johann Wolfgang von (15)
- Literatur (14)
- Vormärz (14)
Institute
- Medizin (124)
- Extern (60)
- Biochemie und Chemie (46)
- Rechtswissenschaft (45)
- Physik (32)
- Erziehungswissenschaften (30)
- Biowissenschaften (26)
- Präsidium (26)
- Universitätsbibliothek (23)
- Kulturwissenschaften (22)
Propagandakarten, auch als politische, geopolitische, Agitations- oder Suggestivkarten bezeichnet, sind kartenrelevante Darstellungen, die durch gezielte Konstruktion und spezielle Inhalte eine emotionale Wirkung beim Kartennutzer hervorrufen wollen. Zum Teil können auch sogenannte Pressekarten in diese Kartenkategorie fallen. Wie bei allen Bezeichnungen ist aber zu beachten, daß zeitliche und räumliche Einschränkungen gemacht werden müssen: nicht jede Pressekarte ist eine Propagandakarte.
Welche Schätze in Bibliotheken verborgen sind, entdeckt man oft nur bei besonderen Anlässen. Einen derartigen Anlaß stellt vielleicht der aktuell erstellte Katalog der Deutschen Kolonialbibliothek dar. Die Kolonialbibliothek gelangte nach dem Zweiten Weltkrieg auf abenteuerliche Weise zur Stadt- und Universitätsbibliothek Frankfurt a.M., wo sie heute beheimatet ist. Sie besteht aus den Bibliotheken mehrerer Kolonialverbände, die 1936 zum Reichskolonialbund zusammengefaßt wurden. Den größten Bestand brachte die Bibliothek der 1882 gegründeten Deutschen Kolonialgesellschaft ein. Während die 18.000 Monographien der Kolonialbibliothek als geschlossener Bestand erhalten blieben, sind die ebenfalls enthalten Zeitschriften in den allgemeinen Bestand der Universitätsbibliothek überführt worden.
Vom analogen Foto zum digitalen Image : die Sicherung historischer Fotos durch HERRMANN & KRAEMER
(2004)
Die fototechnische Realisierung des Projektes und die Schaffung einer digitalen Benutzerausgabe bei Wahrung aller Bildinformationen gestaltete sich durchaus anspruchsvoll: handelt es sich doch um einen hinsichtlich Vorlagenart, Erhaltungszustand und Verwahrungsform in jeder Weise sehr differenzierten Bestand. Die Dokumente, Fotografi en und Negative befinden sich nicht nur im Besitz der StUB. In das Projekt einbezogen wurden auch Bestände aus der Sam-Cohen-Library in Swakopmund und viele engagierten Privatpersonen stellten Alben, Filme und vereinzelt sogar Wandkarten und gerahmte Bilder zur Verfügung. Speziell die „externen“ Bestände hatte man aus verständlichen Gründen nur für einen begrenzten Zeitraum zur Verfügung. Zugleich existierte bislang noch kein langzeitarchivbeständiges Sicherungsmedium, weshalb dem Sicherungsgedanken – auch angesichts eines Brandes, den es bei Sam Cohen gegeben hat – verständlicherweise größte Bedeutung beigemessen wurde.
Im Rahmen der Sicherungsmaßnahmen des Bildbestandes der Deutschen Kolonialgesellschaft (DKG) an der Stadt- und Universitätsbibliothek Frankfurt am Main galt es eine geeignete Datenverwaltung bzw. eine geeignete Datenpräsentation zu entwickeln. Während der Sicherungsverfi lmung des Bildbestandes der DKG entstand die Idee einer Onlinedatenbank zur Bildrecherche. Obwohl das Internet zu dieser Zeit schon seinen 27sten Geburtstag gefeiert hatte, war die Allgemeinheit mit dieser Technologie noch nicht sehr vertraut. Die Stadt- und Universitätsbibliothek Frankfurt am Main und die Hochschule für Technik und Wirtschaft Dresden (FH) begannen diese Idee in die „Virtuelle Realität“ des World Wide Web umzusetzen. Das „Digitalisierte koloniale Bildarchiv“ ging erstmals im Herbst 1999 ans Netz.
In Amerika wird Crack, eine rauchbare Form von Kokain, seit Mitte der 1980er Jahre konsumiert. In Deutschland wähnte man sich vor dieser »Ghetto-Droge« sicher. Doch seit Mitte der 1990er Jahre gibt es auch in Frankfurt und Hamburg Crack-Szenen. In der Main-Metropole war es zunächst eine kleine, von den Heroin-Süchtigen getrennte Raucherszene, aber schon 2002 hatte Crack das Kokain-Pulver völlig verdrängt und sogar das Heroin als bisher meistgebrauchte Droge auf den zweiten Rang verwiesen. Heute konsumieren 60 Prozent der Frankfurter Szene-Junkies mehrmals in der Woche Heroin, aber über 80 Prozent – oftmals dieselben Drogenabhängigen – auch mehrmals in der Woche Crack. Da bei dieser Droge der Kick zwar stark, aber nicht nachhaltig ist und die Junkies sich deshalb nie gesättigt fühlen, treibt die Abhängigen eine enorme Unruhe. Beobachtungen und Interviews mit Betroffenen zeigen, wie sich der Konsum dieser Droge verschärfend auf das Leben der Junkies und damit auf die gesamte Szene auswirkt.
Umzug des Fachbereichs Physik steht bevor : das Stern-Gerlach-Zentrum für experimentelle Physik
(2004)
7 Zusammenfassung und Ausblick 7.1 Synthese des PNA-Bausteine Primäres Ziel der Diplomarbeit war die Synthese von 6-Aminochinolin-2(1H)-on (3) und dessen Kupplung über die Carbonsäure (4) mit dem PNA-Grundgerüst (6). ... Das Chinolin (3) wurde durch eine dreistufige Synthese aus para-Phenylendiamin (2) erhalten und als Pikrat gefällt. Über eine Ionenaustauschsäule wurde das Hydrochlorid des Chinolins (3b) gewonnen. Durch Charakterisierung des RNA-Liganden mittels FRET konnte ein IC50-Wert des Chinolin Hydrochlorids (3b) von 46 μmol ermittelt werden. Das kupplungsfähige Essigsäurederivat (4) wurde über den tert-Butylesters (87) des Chinolins (3) gewonnen. ... Die literaturbekannte zweistufige Synthese des PNA-Rückgrats (5) geht vom Ethylendiamin ... 7.2 Synthese des PNA-Monomers Das Ziel die Synthese des PNA-Monomers (6), konnte durch Kupplung des Essigsäurederivats (4) und des PNA-Rückgrats (5) mittels DIC/HOBt erreicht werden. ... Das PNA-Monomer sollte in weiterführenden Arbeiten durch kombinatorische Chemie in ein Tripeptid eingebaut werden. Dazu wäre es jedoch notwendig, die tert-Butyl-Schutzgruppe durch Säurezugabe abzuspalten, um die Carbonsäure (88) zu erhalten, die als PNA-Monomer in ein Tripeptid eingebaut werden kann. Es wurde jedoch eine Zersetzung des PNA-Monomers in das Hydrochlorid des Chinolins (3b) und zwei Fragmenten des Fmoc-geschützten Grundgerüsts nachgewiesen. 7.3 Alternative Methoden ... Auf einem anderen Weg konnte das Anhydrid (8) aus Ethylendiamin (9) in vier Syntheseschritten dargestellt werden, das mit dem Chinolin (3) gekuppelt werden konnte. Die resultierende Carbonsäure (10) wurde durch weiterführende Arbeiten in ein Tripeptid eingebaut. Nach der Abspaltung vom Harz und der Entschützung des Tripeptids fand eine intramolekulare Cyclisierung statt, wobei das Chinolin (3) als Abgangsgruppe nachgewiesen wurde. In nachfolgenden Arbeiten sollten die Eigenschaften von Iminochinolin (93) als RNA-Ligand bestimmt werden. Der Syntheseweg sollte über eine dreistufige Synthese vom Chinolin (3) ausgehend zum Iminochinolin (93) führen. Es konnte im Rahmen dieser Arbeit gezeigt werden, dass der erste Schritt, die Darstellung des Chlorochinolins (91), gelingt. 7.4 Ausblick Das erwähnte Iminochinolin (93) sollte in nachfolgenden Arbeiten ebenfalls auf seine Eigenschaft als RNA-Ligand untersucht werden. Die PNA-Monomere ließen sich nur mit geringen Ausbeuten kuppeln. In der Literatur zur Darstellung von PNA-Monomeren werden unterschiedliche Kupplungsreagenzien, wie EDC/HOBt, BOP/HOBt, TOTU oder PyBOP, für die PNA-Grundgerüste angegeben. Um bessere Ausbeuten zu erreichen, ist eine systematische Untersuchung der optimalen Kupplungsbedingungen vorzunehmen. Um die Zersetzung des PNA-Monomers (6) bei der Abspaltung der tert-Butylschutzgruppe zu verhindern, ist nach alternativen PNA-Rückgraden zu suchen. Methyl- oder Ethylester statt tert-Butylester wären durch Verseifung mit Natriumhydroxid in einem Wasser/Dioxan-Gemisch in das jeweilige Carboxylat zu überführen. Aufgrund der niedrigen Ausbeute des Tripeptids (4)-(D)Arg-(D)-Arg-CO-NH2 (96) soll versucht werden die Kupplungsausbeute durch Vermeidung möglicher Nebenreaktionen zu erhöhen. Eine mögliche Nebenreaktion ist die Cyclisierung der zu kuppelnden Carbonsäure (4) mit einer weiteren Carbonsäure (4), die vermieden werden kann durch die Einführung einer Boc-Schutzgruppe am sekundären Amin. Eine Kupplung mit der Boc-geschützten Carbonsäure (97) verspricht bessere Kupplungsausbeuten. ... In vorangegangenen Arbeiten[74][75] konnten das Lactam (98) mittels Heck- oder Suzuki-Reaktion nicht an das Vinylglycinderivat (99) gekuppelt werden. ... Als alternative Kupplungsmethode wird gerade in einer Doktorarbeit die „chiral pool“- Synthese mit Glutaminsäure (101) untersucht, die in die halogenierte Spezies (102) überführt werden soll. Die Kreuzkupplungsreaktion erfolgt durch eine Fe(acac)3 vermittelte Grignard-Reaktion...
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
In dieser Diplomarbeit wurde zunächst eine Einführung in das Gebiet der Unifikationstheorie gegeben, um dann zum Teilgebiet des Kontextmatchings zu kommen. Dieses wurde in das Gesamtgebiet der Unifikation eingeordnet. In Anlehnung an [Schm2003] wurde die Komplexität einiger Einschränkungen des Kontextmatchings betrachtet. Insbesondere wurde ein Algorithmus zur Lösung linearer Kontextmatchingprobleme in polynomieller Zeit vorgestellt. Es folgte die Einführung des Transformationsalgorithmus aus [Schm2003] zur Lösung allgemeiner Kontextmatchingprobleme, wobei nach und nach verbesserte Transformationsregeln für einzelne spezielle Problemsituationen vorgestellt wurden. Über [Schm2003] hinausgehend wurden die Regeln Split: Korrespondierende Lochpfade und Konstantenelimination vorgestellt. Im Rahmen der Diplomarbeit wurden die genannten Algorithmen in der funktionalen Programmiersprache Haskell implementiert, wobei auf eine einfache Erweiterbarkeit um neue Transformationsregeln sowie alternative Heuristiken zur Auswahl der in einem Schritt anzuwendenden Transformationsregel geachtet wurde. Die Implementierung (und damit auch die in ihr implementierten Algorithmen) wurde mit Hilfe von zufällig erzeugten Termen auf ihre Leistungsfähigkeit getestet. Hauptaugenmerk lag dabei darauf, inwiefern sich Regeln, die über die Basisregeln aus Tabelle 3.4.1 hinausgehen, positiv auf die Anzahl der Transformationsschritte auswirken. Das Ergebnis ist beeindruckend: durch die Einführung komplexerer Transformationsregeln ließen sich in unseren Testfällen bis zu 87% der Transformationsschritte einsparen, im Durchschnitt immerhin noch 83%. Speziell komplexere Kontextmatchingprobleme mit einer größeren Anzahl an Kontextvariablen profitieren hiervon. Insbesondere die Erkennung korrespondierender Positionen in Verbindung mit der Regel Split führte zu erheblichen Verbesserungen. Die implementierten Algorithmen zur Erkennung korrespondierender Positionen stellen teilweise nur ein notwendiges Kriterium für die Existenz korrespondierender Löcher dar. Dies kann zu fehlerhaften Erkennungen solcher Positionen führen. Wie sich in unseren Tests zeigte, scheint das jedoch kein gravierendes Problem zu sein, da die entsprechenden Split- Transformationen ohnehin äußerst sparsam eingesetzt werden.
Wir haben ein Softwaresystem entwickelt, das in der Lage ist, Beschreibungen von Termersetzungssystemen höherer Ordnung, deren Reduktionsregeln auf einer strukturellen operationalen Semantik basieren, einzulesen und zu interpretieren. Das System ist dabei fähig, Reduktionskontexte für die Redexsuche zu benutzen, die entweder vom Benutzer definiert werden können oder automatisch anhand der strikten Positionen berechnet werden. Außerdem dürfen Kontexte und spezielle Definitionen für Term-Mengen, die wir Domains nennen, in den Reduktionsregeln verwendet werden. Mit dem resultierenden Reduktionssystem-Format können wir somit nicht nur den „lazy“ Lambda-Kalkül, den Call-by-Value Lambda-Kalkül und verwandte, um Konstruktoren und Fallunterscheidungen erweiterte Kalküle, wie die in Kapitel 4 vorgestellten Kernsprachen KFP und PCF, darstellen, sondern auch den (in Abschnitt 4.3 vorgestellten) Call-by-Need Lambda-Kalkül, welcher sich durch die Verwendung von Kontexten innerhalb der Regeln deutlich von den anderen Kalkülen abhebt. Allerdings hält sich der Call-by-Need Lambda-Kalkül damit nicht an das in Kapitel 5 vorgestellte GDSOS-Format, das u.a. sicherstellt, dass Bisimulation eine Kongruenz ist. Wir haben dabei in Abschnitt 5.3.3 bewiesen, dass sich ein GDSOS-Reduktionssystem in ein äquivalentes strukturiertes Auswertungssystem nach Howe übersetzen lässt. Unser System ist in der Lage, die GDSOS-Bedingungen zu prüfen und gibt eine Warnung aus, falls eine der nötigen Bedingungen nicht erfüllt ist (wobei aus dieser auch gleich der Grund des Verstoßes hervorgeht). Wie wir gesehen haben, ist unser System nicht nur befähigt, die einzelnen Reduktionsschritte für kleinere Bespiele ordnungsgemäß auszuführen, sondern es ist durchaus in der Lage, auch aufwendigere KFP-Ausdrücke, wie in unserem Quicksort- Beispiel, auszuwerten.