Refine
Year of publication
Document Type
- Article (31214)
- Part of Periodical (11562)
- Book (8309)
- Doctoral Thesis (5728)
- Part of a Book (3967)
- Working Paper (3387)
- Review (2939)
- Contribution to a Periodical (2368)
- Preprint (2181)
- Report (1561)
Language
- German (42831)
- English (29413)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (263)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (75882) (remove)
Keywords
- Deutsch (1076)
- Literatur (868)
- taxonomy (766)
- Deutschland (553)
- Rezension (511)
- new species (452)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (329)
- Geschichte (300)
Institute
- Medizin (7722)
- Präsidium (5203)
- Physik (4512)
- Extern (2738)
- Wirtschaftswissenschaften (2696)
- Gesellschaftswissenschaften (2373)
- Biowissenschaften (2187)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1770)
- Center for Financial Studies (CFS) (1630)
Nichts zeigt deutlicher als das Märtyrerdrama, wie sehr Theatralität und Darstellung dem Martyrium inhärent sind, wie aber auch die Figur des Märtyrers spezifische Formen von Theatralität generiert. Dem Märtyrer als Zeugen ist immer schon eine bestimmte Art des Zeigens eigen, er muss nicht nur leiden, sondern dieses Leiden auch zur Schau stellen. Im Fall des Schauspieler-Märtyrers gehen dabei Sein und Schein ineinander über, was man sowohl als Kritik der Scheinhaftigkeit und Eitelkeit der Welt lesen kann - wird doch selbst der Mensch hinter der Maske, der Schauspieler Philemon, als neue Maske entlarvt - als auch als Einbruch von Präsenz in diese Welt, der als Konversion dramatisiert wird. Auf diese zielt das Stück denn auch letztlich ab, denn das abschließende Bekenntnis des Arrianus ist über die Rampe hinweg an die Welt gerichtet: So wie der Schauspieler Philemon den Märtyrer Arrianus hervorbrachte, so soll das Schauspiel nun auch sein Publikum zur Konversion überreden, auf die das Jesuitendrama wesentlich abzielt. Das Martyrium wird, gerade wenn es theatral dargestellt wird, noch mehr Zeugen produzieren. Die Doppelfigur des Schauspieler-Märtyrers ist damit zugleich reflexiv und performativ, sie ist weder eine Auflösung des christlichen Ernstes in bloßes Spiel, noch eine bloße Authentifizierungsgeste des Theaters, weil sie sich eben als Doppelfigur einer solchen Profilierung entzieht und gerade in ihrer Doppeldeutigkeit höchst folgenreich für die europäische Theatralität der Neuzeit ist. Denn vermittelt über diese Figur schreiben sich Elemente der christlichen Tradition in das neuzeitliche Theater ein, die auch dort noch wirksam sind, wo sie nicht mehr direkt religiös semantisiert werden. Das gilt, wie im Folgenden zunächst allgemein umrissen werden soll, (1) insbesondere für das dem Märtyrer spezifische Verhältnis von Körper, Person und Wort, für die Beziehung von Theater zu seiner 'Wirklichkeit' und schließlich für den Raum des Theaters selbst oder für das Theater als Medium. Entfaltet werden kann das an einer Reihe von Stücken, die den Schauspieler als Märtyrer und den Märtyrer als Schauspieler behandeln: (2) an Lope de Vegas 'Lo fingido veradero' (gedruckt 1622), (3) an Jean Rotrous 'Le Veritable Saint Genest' (1645) und (4) an Desfontaines 'L’illustre Comedien' aus demselben Jahr. In ihrer motivischen und zeitlichen Nähe entfalten sie nicht nur die verschiedenen Möglichkeiten, die der Doppelfigur des Märtyrer-Schauspielers innewohnen, sondern zeigen auch bereits in nuce, dass die Theatralisierung des Märtyrers dessen religiösen Anspruch keineswegs relativiert, sondern ihn eher in sich einschließt.
"'Nichts ist wahr. Alles ist erlaubt.' Die letzten Worte von Hasan-i Sabbah . Und was ist das wahrste Kennzeichen des Menschen? Geburt und Tod. Der Alte zeigte seinen Attentätern die Freiheit von Wiedergeburt und Tod. Er schuf wirkliche Wesen, für die Raumfahrt bestimmt." Wenn wir die Reise durch den Raum hier als Metapher für die Überwindung der verlässlichen, wenngleich durch den Menschen wahrgenommenen Naturgesetze verstehen, vermittelt Burroughs uns eine recht präzise Vorstellung einer von den Assassinen ausgehenden Bedrohung, die weit über die unmittelbaren Folgen ihrer Angriffe hinausgeht. Sie sind nicht menschlich, nicht an die Endgültigkeit des Todes gebunden und immun gegen die Drohung, für ihre Handlungen getötet zu werden - dem letzten Mittel zur Aufrechterhaltung der Rechtsordnung - und destabilisieren damit die binären Unterscheidungen zwischen dem Weltlichen und dem Jenseits, Wahrheit und Falschheit, Gut und Böse. So bedeuten sie an sich, d.h. nicht allein durch ihre Attentate, sondern auf einer symbolischen Ebene, eine Gefährdung für die Grundlagen des Sozialen. Während solche Störungen in der Regel gerne mit einem Anderen, beispielsweise der Tradition selbstaufopfernder Gewalt im Nahen Osten oder den bösen Absichten der 'Schurkenstaaten', identifiziert werden, scheint mir, dass die Krise, die sich in den Berichten über die Assassinen und andere Selbstmordattentäter ausdrückt, nicht in erster Linie als Eindringen von etwas zu verstehen ist, das von außerhalb 'unserer' Kultur kommt, sondern vielmehr ein spezifisch westliches Problem betrifft, das mit der Aufklärung und den bürgerlichen Revolutionen einsetzt. Um diese recht gewagte These zu überprüfen, möchte ich zunächst mit Hilfe neuerer historischer Studien zu den Nizari - der ismailitischen Sekte, der der Alte vom Berg zugerechnet wird - einige der wichtigsten Behauptungen diskutieren, die über die Assassinen im Umlauf sind. Anschließend folgt ein kritischer Blick auf Joseph von Hammer-Purgstalls 1818 erschiene 'Geschichte der Assassinen', einen der zentralen Texte in der Entwicklung der modernen Assassinen-Legende.
Zielsetzung. Diese Pilotstudie untersucht den therapeutischen Effekt des RelaxBogens in Bezug auf Bruxismus und Symptome einer kraniomandibulären Dysfunktion (CMD).
Probanden und Methoden. Untersucht wurde eine Gruppe von 10 Probanden. Auswahlkriterien waren ein vorliegender Bruxismus und erste Symptome einer CMD. Dies wurde durch die Anwendung einer Brux-Checker®-Folie für 2 Nächte und eine Schmerzanamnese verifiziert. Eingangs wurden neben einer ausführlichen zahnärztlichen Anamnese folgende CMDParameter erhoben: SL-NRS-Fragebogen sowie Palpation von 42 Muskeln im Kopf-HalsNacken-Bereich und der 6 Austrittspunkte des N. trigeminus. Nach der Voruntersuchung wurde der RelaxBogen mindestens 10 Wochen getragen. Danach wurden die genannten Parameter erneut erhoben und miteinander verglichen.
Ergebnisse. Die Vor- und Nachuntersuchungen zeigten starke Tendenzen der Reduktion sowohl der allgemeinen Symptomatik als auch der Schmerzempfindung im Kieferbereich. Nach dem Tragen des RelaxBogens konnte eine eindeutige Reduktion des durch Palpation ausgelösten, muskulären Schmerzes beobachtet werden. Ebenfalls deutlich positive Tendenzen ließen sich bei der Verbesserung des allgemeinen Wohlbefindens finden. Die Ergebnisse legen nahe, dass bei einer größeren Stichprobe eine statistische Signifikanz zu erwarten ist.
Schlussfolgerung. Der RelaxBogen führt nach den Ergebnissen dieser Pilotstudie bei Patienten, die unter Bruxismus- und CMD-Symptomen leiden, zu einer deutlichen Reduktion der Schmerzwahrnehmung sowie einer eindeutigen Steigerung des Wohlbefindens. Neben der Verringerung des Schmerzempfindens und einem reduzierten Spannungsgefühl in den großen Kiefermuskeln konnten auch positive Tendenzen im Bereich der Hals-, Nacken- und Schultermuskulatur festgestellt werden.
Bilder von Gewalt, Krieg und Zerstörung steigen auf, wenn der Blick sich auf die arabische Welt richtet. Auch die arabische Literatur des 20. und 21. Jahrhunderts ist von diesen Themen geprägt. Nicht nur viele arabische Gegenwartsromane handeln von körperlicher und politischer Gewalt, von Zensur, Krieg, Verletzung der Menschenrechte und staatlichen Repressionen, auch in der zeitgenössischen arabischen Dichtung spielen diese Themen eine wichtige Rolle. Was hier auffällt, ist eine oft provokante Aufarbeitung von Krieg, Gewalt und Tod, in der das poetische Ich als pathetisch überhöhte Leidensfigur auftritt. "Leidend die Welt zu überwinden", dem erfahrenen Unrecht mit leidenschaftlichem "Gegenleiden" zu begegnen, diese von Erich Auerbach christlicher Weltfeindschaft zugeschriebene Lebenshaltung scheint auch das Motto vieler Gedichte arabischer Autoren zu sein. Die Qualen an sich und der Welt werden nicht selten apokalyptisch dramatisiert, das eigene tragische Ende erscheint als Selbstopfer und so letztlich als moralischer oder auch transzendentaler Sieg, bei dem der Autor sich als Christus am Kreuz, als Zarathustra oder Prophet und damit als Erlöserfigur imaginiert, umgeben von blutigen Horrorszenarien der Gewalt und Angst. Warum zeugen so viele zeitgenössische Gedichte, Romane und Dramen mit derart drastischen Bildern von Krieg, Gewalt und Tod, und welche Funktion haben diese Themen in der Literatur und in der Gesellschaft? Handelt es sich bei den oft pathetischen Selbststilisierungen um narzisstischen Manierismus und maßlose Selbstüberschätzung, oder sind sie vielleicht eine erschütternde, aber schlicht angemessene literarische Antwort auf eine kaum mehr zu ertragende, rücksichtslose und grausame Realität in der arabischen Welt? Um diesen heiklen Fragen auf den Grund zu gehen, sollen in diesem Beitrag einige Gedichte und einige literarische Grenzfiguren untersucht werden.
Angesichts des Schicksals ihrer Imame ist es kaum überraschend, dass die Schia den frühesten und expressivsten Märtyrerkult im Islam entwickelte: Die mutmaßlichen Gräber des zum Herrn der Märtyrer ('sayyid al-schuhada') verklärten Husain und seiner Gefährten bei Karbala entwickelten sich schon bald zu Anlaufstätten für Trauer- und Gedächtnisrituale ihrer Anhänger. Gemeinsam mit den Grabstätten der nachfolgenden Imame sowie denen vieler weiterer, männlicher und weiblicher, Nachkommen der Familie Alis wuchs hier im Lauf der Jahrhunderte ein regional weit verzweigter Märtyrer- und Heiligenkult heran, der an den schon in vorislamischer Zeit im Nahen Osten weit verbreiteten Totenkult anknüpfen konnte und maßgeblich dazu beitrug, die Oppositionsbewegungen der Schia in der lokalen 'Volkskultur' zu verankern. Die Tatsache, dass 'Frauen', vor allem durch rituelles Weinen, gerade beim Trauerkult eine herausgehobene öffentliche Rolle spielen konnten, scheint die Breitenwirkung dieser Bewegungen ebenso begünstigt zu haben wie die bedeutende Rolle Fatimas in der Legitimitätsstruktur der Schia. Obwohl die Figur Alis der zentrale politisch-theologische Angelpunkt der Schia ist und obwohl auch sein Tod alle Ingredienzien eines Märtyrertods enthält und mehrere schiitische Feiertage das Andenken des Herrschers der Gläubigen ('amir al-mu’minin') pflegen, sind die wichtigsten Rituale der Schia dennoch auf seinen jüngeren Sohn Husain ausgerichtet, dessen heroischer Untergang bei Karbala im Irak mit 72 seiner Verwandten und Gefährten gegen eine Übermacht von mehreren tausend Soldaten des Kalifen Yazid I. (reg. 680–683) bis heute mit ausgedehnten Gedächtnis- und Trauerfeiern begangen wird. Nicht zufällig wurden die religiösen Versammlungsräume der Schia unter dem Namen "Husainiya" bekannt.
This is the last post in the blog series „Movements and Institutions“. Check out the introductory post for more information on the series and click here for all contributions.
This blog series reflected on the interactions between social movements and institutions. These interactions have proven to be among the most complicated areas of social movement research, especially because causality is very hard to establish: (how) do movements influence formal political institutions – and vice versa? How to study, understand and explain the consequences of the institutionalization of social movements? The difficulties of addressing these questions are also related to definitional problems as social movements and institutions can be understood and defined in various ways. All authors contributing to this blog series highlight the importance of studying interactions between social movements from one perspective or another.
Die Geschichte der Folter und die der Märtyrer, das zeigt nicht erst Gallonio, gehen Hand in Hand. Bereits im Mittelalter bezeichnete 'cruciatus' auch die Folter und die Pein, ebenso wie das mhd. 'Marter' aus dem Leiden Christi über das Blutzeugnis die Bedeutung Folter entwickelt hat. Rein begrifflich landeten somit die Passion und das Martyrium wieder dort, wo sie ihren Ausgang genommen hatten: in der Geschichte des Rechts und seiner Zeugen. Im Martyrium ist immer schon ein gewisser Juridismus am Werk: Es beginnt mit einer Konfrontation vor Gericht, vollzieht sich in einer spezifischen Verbindung von Zwang und Zeugenschaft und bezeugt zuletzt, in seiner eschatologischen Dimension, die Hoffnung auf eine weltgeschichtliche Wiederherstellung des Rechts. Vergleichbar aber sind Folter und Martyrium auch darin, dass sie beide 'diskursive Praktiken' im strengen Sinn darstellen: Beide bestehen in einem Sprechakt, der durch einen Akt körperlicher Gewalt beglaubigt werden muss. Erst unter der Folter kommt das Bekenntnis oder Geständnis ganz zu sich, und so sehr die Marter und das Martyrium gerade über die sprachlose Evidenz der Schmerzen 'sprechen' machen, so sehr produzieren sie weitere Diskurse: Zuvorderst entstehen Protokolle der peinlichen Befragung oder des Bekenntnisses; und zuletzt wird ein rechtsgültiges Urteil oder aber die kanonische Beurteilung darüber zu den Akten genommen, ob es sich um einen Pseudomärtyrer, um ein gescheitertes Martyrium oder um einen wahren Blutzeugen gehandelt hat. In beiden Fällen sind es Schmerzen oder Leiden, die positiviert und - nach Maßgabe einer weltlichen oder geistlichen Macht - in einer Wahrheit aufgehoben werden. Somit ist selbst jene Selbstautorisierung, die die 'confessores' der ersten Stunde auszeichnet, nur von Gnaden einer Diskursgewalt, welche rechtsgültige Verbrecher 'ex post' in Leidende ('pathontes') und diese in Zeugen ('martyres') verwandelt. Im Archiv der Märtyrer lässt sich dieses Zusammenwirken unterschiedlicher Diskurspraktiken schon am Grundstock der frühchristlichen Märtyrerakten studieren: Zuweilen als Briefe verfasst und als solche an die gesamte expandierende Christenheit adressiert, vermischen sie Augenzeugenberichte und Dokumente, Urkunden und Fälschungen, Glaubensunterweisungen und Erzählungen, Protokolle und authentische Textzeugen. Stets präsentieren sie eine juristische Fallgeschichte und statuieren aus ihr ein heilsgeschichtliches Exempel. Als Gallonios Kollegen an der Wende zum 17. Jahrhundert die Märtyrerakten historisch-kritisch bearbeiteten, vereinigten sie die verstreuten Textzeugnisse und brachten die diskursive Ordnung der Blutzeugnisse auf den neuesten Stand. Martyrologie ist so gesehen immer auch eine fortlaufend aktualisierte Ableitung der Heils- aus der Rechtsgeschichte.
Die Krisenproteste in Frankfurt am Main und insb. das Blockupy-Bündnis und dessen Praxen zwischen 2012 und 2015 stehen im Mittelpunkt der folgenden Auseinandersetzung. Insgesamt stellt Blockupy den wohl breitesten Versuch dar, in Deutschland Widerstand gegen das „europäische Krisenregime“ zu organisieren. Hierfür trat das Bündnis 2012 und 2013 mit Aktionen des zivilen Ungehorsams in Frankfurt, im Mai 2014 mit dezentralen Aktionen in ganz Europa sowie der Mobilisierung gegen die Eröffnungsfeier des Neubaus der EZB im Frankfurter Ostend 2015 in Erscheinung. In dichter Form werden die Ereignisse skizziert und abschließend bewertet. Zentralgestellt werden in der Auseinandersetzung mit Blockupy dessen Praxen des Widerspruchs, die Aktionsformen sowie die Prozesse der Bündnisbildung. Gefragt wird nach Blockupys Organisation, den vollzogenen Lernprozessen sowie den inhaltlichen und praxisbezogenen Verschiebungen. Herausgearbeitet wird, dass Blockupy zunächst stark auf die Kritik an „Banken und Konzernen“ abzielte, dann aber immer expliziter auf die EZB fokussierte und eine antikapitalistische Position entwickelte. Immer stärker wird auch die internationale Ausrichtung des Bündnisses, womit die Zielsetzung der Etablierung eines ‚Europas von unten‘ entgegen der ‚autoritären EU von oben‘ einherging.
The future heavy-ion experiment CBM (FAIR/GSI, Darmstadt, Germany) will focus on measurement of very rare probes at interaction rates up to 10 MHz with data flow of up to 1 TB/s. The beam will provide free stream of beam particles without bunch structure. That requires full online event reconstruction and selection not only in space, but also in time, so-called 4D event building and selection.
The FLES (First-Level Event Selection) reconstruction and selection package consists of several modules: track finding, track fitting, short-lived particles finding, event building and event selection. A time-slice is reconstructed in parallel between cores within a same CPU, thus minimizing the communication between CPUs. After all tracks are found and fitted in 4D, they are collected into clusters of tracks originated from common primary vertices, which then are fitted, thus identifying 4D interaction points registered within the time-slice. Secondary tracks are associated with primary vertices according to their estimated production time. After that, short-lived particles are found and the full event building process is finished. The last stage of the FLES package is the selection of events according to the requested trigger signatures.
Mumien im Film
(2016)
Inhalt:
Hans J. Wulff: Von lebenden Toten, der Verfluchung der Lebenden und später Rache: Die Mumien der Filmgeschichte.
Hans J. Wulff: Mumien im Film. Filmographie.
Fiktionale Filme, Serien und Serienfolgen.
Dokumentationen, Dokumentarfilme, Reality-TV-Sendungen.
Eismumien im Film.
Prähistorische Moorleichen.
Die Mumienfilme der Universal Pictures (1940–1955).
Die Mumienfilme der Hammer Film Productions.
Die mexikanischen Mumienfilme.
Adaptionen von Bram Stokers Roman Jewel of Seven Stars.
Hans J. Wulff: Mumien im Film. Bibliographie.
Missionsfilme
(2016)
Inhalt:
Ludger Kaczmarek / Hans J. Wulff: Missionsfilm.
Missionsfilm. Ein filmo-bibliographisches Verzeichnis. Kompiliert von Gerlinde Waz mit Ergänzungen durch Hans J. Wulff.
1. Filmographie des deutschen Missionsfilms nach dem Ersten Weltkrieg (im Alphabet der Titel).
2. Chronologischer Index der Missionsfilme.
3. Bibliographie zum Missionsfilm.
Within the family of NADPH oxidases, NOX4 is unique as it is predominantly localized in the endoplasmic reticulum, has constitutive activity, and generates hydrogen peroxide (H2O2). We hypothesize that these features are consequences of a so far unidentified NOX4-interacting protein. Two-dimensional blue native (BN) electrophorese combined with SDS-PAGE yielded NOX4 to reside in macromolecular complexes. Interacting proteins were screened by quantitative SILAC (stable isotope labeling of amino acids in cell culture) co-immunoprecipitation (Co-IP) in HEK293 cells stably overexpressing NOX4. By this technique, several interacting proteins were identified with calnexin showing the most robust interaction. Calnexin also resided in NOX4-containing complexes as demonstrated by complexome profiling from BN-PAGE. The calnexin NOX4 interaction could be confirmed by reverse Co-IP and proximity ligation assay, whereas NOX1, NOX2, or NOX5 did not interact with calnexin. Calnexin deficiency as studied in mouse embryonic fibroblasts from calnexin(-/-)mice or in response to calnexin shRNA reduced cellular NOX4 protein expression and reactive oxygen species formation. Our results suggest that endogenous NOX4 forms macromolecular complexes with calnexin, which are needed for the proper maturation, processing, and function of NOX4 in the endoplasmic reticulum.
Hepatitis C virus (HCV) substantially affects lipid metabolism, and remodeling of sphingolipids appears to be essential for HCV persistence in vitro. The aim of the current study is the evaluation of serum sphingolipid variations during acute HCV infection. We enrolled prospectively 60 consecutive patients with acute HCV infection, most of them already infected with human immunodeficiency virus (HIV), and serum was collected at the time of diagnosis and longitudinally over a six-month period until initiation of antiviral therapy or confirmed spontaneous clearance. Quantification of serum sphingolipids was performed by liquid chromatography-tandem mass spectrometry (LC-MS/MS). Spontaneous clearance was observed in 11 out of 60 patients (18.3%), a sustained viral response (SVR) in 43 out of 45 patients (95.5%) receiving an antiviral treatment after follow-up, whereas persistence of HCV occurred in six out of 60 patients (10%). C24-ceramide (C24-Cer)-levels increased at follow-up in patients with spontaneous HCV eradication (p < 0.01), as compared to baseline. Sphingosine and sphinganine values were significantly upregulated in patients unable to clear HCV over time compared to patients with spontaneous clearance of HCV infection on follow-up (p = 0.013 and 0.006, respectively). In summary, the persistence of HCV after acute infection induces a downregulation of C24Cer and a simultaneous elevation of serum sphingosine and sphinganine concentrations.
Influence of antibiotic-regimens on intensive-care unit-mortality and liver-cirrhosis as risk factor
(2016)
AIM: To assess the rate of infection, appropriateness of antimicrobial-therapy and mortality on intensive care unit (ICU). Special focus was drawn on patients with liver cirrhosis.
METHODS: The study was approved by the local ethical committee. All patients admitted to the Internal Medicine-ICU between April 1, 2007 and December 31, 2009 were included. Data were extracted retrospectively from all patients using patient charts and electronic documentations on infection, microbiological laboratory reports, diagnosis and therapy. Due to the large hepatology department and liver transplantation center, special interest was on the subgroup of patients with liver cirrhosis. The primary statistical-endpoint was the evaluation of the influence of appropriate versus inappropriate antimicrobial-therapy on in-hospital-mortality.
RESULTS: Charts of 1979 patients were available. The overall infection-rate was 53%. Multiresistant-bacteria were present in 23% of patients with infection and were associated with increased mortality (P < 0.000001). Patients with infection had significantly increased in-hospital-mortality (34% vs 17%, P < 0.000001). Only 9% of patients with infection received inappropriate initial antimicrobial-therapy, no influence on mortality was observed. Independent risk-factors for in-hospital-mortality were the presence of septic-shock, prior chemotherapy for malignoma and infection with Pseudomonas spp. Infection and mortality-rate among 175 patients with liver-cirrhosis was significantly higher than in patients without liver-cirrhosis. Infection increased mortality 2.24-fold in patients with cirrhosis. Patients with liver cirrhosis were at an increased risk to receive inappropriate initial antimicrobial therapy.
CONCLUSION: The results of the present study report the successful implementation of early-goal-directed therapy. Liver cirrhosis patients are at increased risk of infection, mortality and to receive inappropriate therapy. Increasing burden are multiresistant-bacteria.
Background and aims: Despite the clinical importance of atherosclerosis, the origin of cells within atherosclerotic plaques is not fully understood. Due to the lack of a definitive lineage-tracing strategy, previous studies have provided controversial results about the origin of cells expressing smooth muscle and macrophage markers in atherosclerosis. We here aim to identify the origin of vascular smooth muscle (SM) cells and macrophages within atherosclerosis lesions.
Methods: We combined a genetic fate mapping approach with single cell expression analysis in a murine model of atherosclerosis.
Results: We found that 16% of CD68-positive plaque macrophage-like cells were derived from mature SM cells and not from myeloid sources, whereas 31% of αSMA-positive smooth muscle-like cells in plaques were not SM-derived. Further analysis at the single cell level showed that SM-derived CD68+ cells expressed higher levels of inflammatory markers such as cyclooxygenase 2 (Ptgs2, p = 0.02), and vascular cell adhesion molecule (Vcam1, p = 0.05), as well as increased mRNA levels of genes related to matrix synthesis such as Col1a2 (p = 0.01) and Fn1 (p = 0.04), than non SM-derived CD68+ cells.
Conclusions: These results demonstrate that smooth muscle cells within atherosclerotic lesions can switch to a macrophage-like phenotype characterized by higher expression of inflammatory and synthetic markers genes that may further contribute to plaque progression.
Elevated tumor interstitial fluid pressure (TIFP) is a prominent feature of solid tumors and hampers the transmigration of therapeutic macromolecules, for example, large monoclonal antibodies, from tumor-supplying vessels into the tumor interstitium. TIFP values of up to 40 mm Hg have been measured in experimental solid tumors using two conventional invasive techniques: the wick-in-needle and the micropuncture technique. We propose a novel noninvasive method of determining TIFP via ultrasonic investigation with scanning acoustic microscopy at 30-MHz frequency. In our experimental setup, we observed for the impedance fluctuations in the outer tumor hull of A431-vulva carcinoma–derived tumor xenograft mice. The gain dependence of signal strength was quantified, and the relaxation of tissue was calibrated with simultaneous hydrostatic pressure measurements. Signal patterns from the acoustical images were translated into TIFP curves, and a putative saturation effect was found for tumor pressures larger than 3 mm Hg. This is the first noninvasive approach to determine TIFP values in tumors. This technique can provide a potentially promising noninvasive assessment of TIFP and, therefore, can be used to determine the TIFP before treatment approach as well to measure therapeutic efficacy highlighted by lowered TFP values.
Cryptochrome 1a, located in the UV/violet-sensitive cones in the avian retina, is discussed as receptor molecule for the magnetic compass of birds. Our previous immunohistochemical studies of chicken retinae with an antiserum that labelled only activated cryptochrome 1a had shown activation of cryptochrome 1a under 373 nm UV, 424 nm blue, 502 nm turquoise and 565 nm green light. Green light, however, does not allow the first step of photoreduction of oxidized cryptochromes to the semiquinone. As the chickens had been kept under ‘white’ light before, we suggested that there was a supply of the semiquinone present at the beginning of the exposure to green light, which could be further reduced and then re-oxidized. To test this hypothesis, we exposed chickens to various wavelengths (1) for 30 min after being kept in daylight, (2) for 30 min after a 30 min pre-exposure to total darkness, and (3) for 1 h after being kept in daylight. In the first case, we found activated cryptochrome 1a under UV, blue, turquoise and green light; in the second two cases we found activated cryptochrome 1a only under UV to turquoise light, where the complete redox cycle of cryptochrome can run, but not under green light. This observation is in agreement with the hypothesis that activated cryptochrome 1a is found as long as there is some of the semiquinone left, but not when the supply is depleted. It supports the idea that the crucial radical pair for magnetoreception is generated during re-oxidation.
Process pharmacology : a pharmacological data science approach to drug development and therapy
(2016)
A novel functional-genomics based concept of pharmacology that uses artificial intelligence techniques for mining and knowledge discovery in "big data" providing comprehensive information about the drugs’ targets and their functional genomics is proposed. In “process pharmacology”, drugs are associated with biological processes. This puts the disease, regarded as alterations in the activity in one or several cellular processes, in the focus of drug therapy. In this setting, the molecular drug targets are merely intermediates. The identification of drugs for therapeutic or repurposing is based on similarities in the high-dimensional space of the biological processes that a drug influences. Applying this principle to data associated with lymphoblastic leukemia identified a short list of candidate drugs, including one that was recently proposed as novel rescue medication for lymphocytic leukemia. The pharmacological data science approach provides successful selections of drug candidates within development and repurposing tasks.
Ataxia telangiectasia (A-T) is a rare, progressive, multisystem disease that has a large number of complex and diverse manifestations which vary with age. Patients with A-T die prematurely with the leading causes of death being respiratory diseases and cancer. Respiratory manifestations include immune dysfunction leading to recurrent upper and lower respiratory infections; aspiration resulting from dysfunctional swallowing due to neurodegenerative deficits; inefficient cough; and interstitial lung disease/pulmonary fibrosis. Malnutrition is a significant comorbidity. The increased radiosensitivity and increased risk of cancer should be borne in mind when requesting radiological investigations. Aggressive proactive monitoring and treatment of these various aspects of lung disease under multidisciplinary expertise in the experience of national multidisciplinary clinics internationally forms the basis of this statement on the management of lung disease in A-T. Neurological management is outwith the scope of this document.
Convection-permitting climate model are promising tools for improved representation of extremes, but the number of regions for which these models have been evaluated are still rather limited to make robust conclusions. In addition, an integrated interpretation of near-surface characteristics (typically temperature and precipitation) together with cloud properties is limited. The objective of this paper is to comprehensively evaluate the performance of a ‘state-of-the-art’ regional convection-permitting climate model for a mid-latitude coastal region with little orographic forcing. For this purpose, an 11-year integration with the COSMO-CLM model at Convection-Permitting Scale (CPS) using a grid spacing of 2.8 km was compared with in-situ and satellite-based observations of precipitation, temperature, cloud properties and radiation (both at the surface and the top of the atmosphere). CPS clearly improves the representation of precipitation, in especially the diurnal cycle, intensity and spatial distribution of hourly precipitation. Improvements in the representation of temperature are less obvious. In fact the CPS integration overestimates both low and high temperature extremes. The underlying cause for the overestimation of high temperature extremes was attributed to deficiencies in the cloud properties: The modelled cloud fraction is only 46 % whereas a cloud fraction of 65 % was observed. Surprisingly, the effect of this deficiency was less pronounced at the radiation balance at the top of the atmosphere due to a compensating error, in particular an overestimation of the reflectivity of clouds when they are present. Overall, a better representation of convective precipitation and a very good representation of the daily cycle in different cloud types were demonstrated. However, to overcome remaining deficiencies, additional efforts are necessary to improve cloud characteristics in CPS. This will be a challenging task due to compensating deficiencies that currently exist in ‘state-of-the-art’ models, yielding a good representation of average climate conditions. In the light of using the CPS models to study climate change it is necessary that these deficiencies are addressed in future research.
The current intense political and public debate about the financing system for academic medicine in Germany lacks one major argument concerning the output of university hospitals and medical faculties. The following research project presents an economic discussion about the benefits of Academic Medicine Frankfurt am Main by determining the value-added, employment and tax effects for public authorities in addition to the pre-economic effects in 10 identified performance areas, with three core areas: teaching, patient care and research.
It is common practice to use a 30-year period to derive climatological values, as recommended by the World Meteorological Organization. However this convention relies on important assumptions, of which the validity can be examined by deriving the uncertainty inherent to using a limited time-period for deriving climatological values. In this study a new method, aiming at deriving this uncertainty, has been developed with an application to precipitation for a station in Europe (Westdorpe) and one in Africa (Gulu). The weather generator framework is used to produce synthetic daily precipitation time-series that can also be regarded as alternative climate realizations. The framework consists of an improved Markov model, which shows good performance in reproducing the 5-day precipitation variability. The sub-seasonal, seasonal and the inter-annual signals are introduced in the weather generator framework by including covariates. These covariates are derived from an empirical mode decomposition analysis with an improved stability and significance assessment. Introducing covariates was found to substantially improve the monthly precipitation variability for Gulu. From the weather generator, 1,000 synthetic time-series were produced. The divergence between these time-series demonstrates an uncertainty, inherent to using a 30-year period for mean precipitation, of 11 % for Westdorpe and 15 % for Gulu. The uncertainty for precipitation 10-year return levels was found to be 37 % for both sites.
This study aims to assess the skill of regional climate models (RCMs) at reproducing the climatology of Mediterranean cyclones. Seven RCMs are considered, five of which were also coupled with an oceanic model. All simulations were forced at the lateral boundaries by the ERA-Interim reanalysis for a common 20-year period (1989–2008). Six different cyclone tracking methods have been applied to all twelve RCM simulations and to the ERA-Interim reanalysis in order to assess the RCMs from the perspective of different cyclone definitions. All RCMs reproduce the main areas of high cyclone occurrence in the region south of the Alps, in the Adriatic, Ionian and Aegean Seas, as well as in the areas close to Cyprus and to Atlas mountains. The RCMs tend to underestimate intense cyclone occurrences over the Mediterranean Sea and reproduce 24–40 % of these systems, as identified in the reanalysis. The use of grid nudging in one of the RCMs is shown to be beneficial, reproducing about 60 % of the intense cyclones and keeping a better track of the seasonal cycle of intense cyclogenesis. Finally, the most intense cyclones tend to be similarly reproduced in coupled and uncoupled model simulations, suggesting that modeling atmosphere–ocean coupled processes has only a weak impact on the climatology and intensity of Mediterranean cyclones.
This paper is a contribution to the special issue on Med-CORDEX, an international coordinated initiative dedicated to the multi-component regional climate modelling (atmosphere, ocean, land surface, river) of the Mediterranean under the umbrella of HyMeX, CORDEX, and Med-CLIVAR and coordinated by Samuel Somot, Paolo Ruti, Erika Coppola, Gianmaria Sannino, Bodo Ahrens, and Gabriel Jordà.
Global climate change is one of the major driving forces for adaptive shifts in migration and breeding phenology and possibly impacts demographic changes if a species fails to adapt sufficiently. In Western Europe, pied flycatchers (Ficedula hypoleuca) have insufficiently adapted their breeding phenology to the ongoing advance of food peaks within their breeding area and consequently suffered local population declines. We address the question whether this population decline led to a loss of genetic variation, using two neutral marker sets (mitochondrial control region and microsatellites), and one potentially selectively non-neutral marker (avian Clock gene). We report temporal changes in genetic diversity in extant populations and biological archives over more than a century, using samples from sites differing in the extent of climate change. Comparing genetic differentiation over this period revealed that only the recent Dutch population, which underwent population declines, showed slightly lower genetic variation than the historic Dutch population. As that loss of variation was only moderate and not observed in all markers, current gene flow across Western and Central European populations might have compensated local loss of variation over the last decades. A comparison of genetic differentiation in neutral loci versus the Clock gene locus provided evidence for stabilizing selection. Furthermore, in all genetic markers, we found a greater genetic differentiation in space than in time. This pattern suggests that local adaptation or historic processes might have a stronger effect on the population structure and genetic variation in the pied flycatcher than recent global climate changes.
In this study we investigate the scaling of precipitation extremes with temperature in the Mediterranean region by assessing against observations the present day and future regional climate simulations performed in the frame of the HyMeX and MED-CORDEX programs. Over the 1979–2008 period, despite differences in quantitative precipitation simulation across the various models, the change in precipitation extremes with respect to temperature is robust and consistent. The spatial variability of the temperature–precipitation extremes relationship displays a hook shape across the Mediterranean, with negative slope at high temperatures and a slope following Clausius–Clapeyron (CC)-scaling at low temperatures. The temperature at which the slope of the temperature–precipitation extreme relation sharply changes (or temperature break), ranges from about 20 °C in the western Mediterranean to <10 °C in Greece. In addition, this slope is always negative in the arid regions of the Mediterranean. The scaling of the simulated precipitation extremes is insensitive to ocean–atmosphere coupling, while it depends very weakly on the resolution at high temperatures for short precipitation accumulation times. In future climate scenario simulations covering the 2070–2100 period, the temperature break shifts to higher temperatures by a value which is on average the mean regional temperature change due to global warming. The slope of the simulated future temperature–precipitation extremes relationship is close to CC-scaling at temperatures below the temperature break, while at high temperatures, the negative slope is close, but somewhat flatter or steeper, than in the current climate depending on the model. Overall, models predict more intense precipitation extremes in the future. Adjusting the temperature–precipitation extremes relationship in the present climate using the CC law and the temperature shift in the future allows the recovery of the temperature–precipitation extremes relationship in the future climate. This implies negligible regional changes of relative humidity in the future despite the large warming and drying over the Mediterranean. This suggests that the Mediterranean Sea is the primary source of moisture which counteracts the drying and warming impacts on relative humidity in parts of the Mediterranean region.
In der Zeit der Kreuzzüge von 1096 bis 1291 war die arabische Kultur in fast allen Bereichen der abendländischen Kultur überlegen: in der Medizin, in der Astronomie, in der Mathematik, vor allem aber auch in der Literatur. Später, in der Zeit der Aufklärung, der Klassik und der Romantik, gewann die arabische Literatur eine besondere Stellung bei einigen großen deutschen Literaten im Rahmen der so genannten "Weltliteratur" bzw. "Universalpoesie": man erinnert hier an Johann Georg Hamann (1730–1788), Johann Gottfried Herder (1744–1803), Johann Wolfgang von Goethe (1749–1832) und Friedrich von Schlegel (1772–1829). All diese Personen gelten in der Tat auch als wichtige Anreger Rückerts bei seiner großen Beschäftigung mit der orientalischen Literatur im allgemeinen und der arabischen im besonderen. Ziel meiner vorliegenden Untersuchung liegt also darin, den Einfluss der arabischen Kultur und Literatur auf den großen deutschen Dichterund Übersetzer Friedrich Rückert zu erhellen. Ein solcher Versuch könnte – darauf ziele ich eigentlich – ein bedeutender Beitrag zum besseren gegenseitigen Verständnis im Bereich des interkulturellen Dialogs zwischen Deutschen und Arabern sein (das Thema "Interkultureller Dialog" interessiert mich schon seit langer Zeit).
Endoscopic retrograde cholangiopancreatography (ERCP) offers an effective interventional option for treating symptomatic chronic pancreatitis. Endoscopic pancreatic sphincterotomy is performed to facilitated endoscopic treatment. Pancreatic duct strictures can be treated by inserting plastic stents, and a 10 Fr endoprosthesis is adequate in many cases. Before stent insertion, hydrostatic balloon dilation is needed in some cases. Pancreatic stones can be removed with a dormia basket, but combining ERCP and extracorporeal shockwave lithotripsy (ESWL) is often most effective.
Standard and advanced endoscopic treatment approaches are delineated in this article and include stricture dilation with a Soehendra retriever, cSEMS placement and multi-stenting.
Mistral and tramontane wind speed and wind direction patterns in regional climate simulations
(2016)
The Mistral and Tramontane are important wind phenomena that occur over southern France and the northwestern Mediterranean Sea. Both winds travel through constricting valleys before flowing out towards the Mediterranean Sea. The Mistral and Tramontane are thus interesting phenomena, and represent an opportunity to study channeling effects, as well as the interactions between the atmosphere and land/ocean surfaces. This study investigates Mistral and Tramontane simulations using five regional climate models with grid spacing of about 50 km and smaller. All simulations are driven by ERA-Interim reanalysis data. Spatial patterns of surface wind, as well as wind development and error propagation along the wind tracks from inland France to offshore during Mistral and Tramontane events, are presented and discussed. To disentangle the results from large-scale error sources in Mistral and Tramontane simulations, only days with well simulated large-scale sea level pressure field patterns are evaluated. Comparisons with the observations show that the large-scale pressure patterns are well simulated by the considered models, but the orographic modifications to the wind systems are not well simulated by the coarse-grid simulations (with a grid spacing of about 50 km), and are reproduced slightly better by the higher resolution simulations. On days with Mistral and/or Tramontane events, most simulations underestimate (by 13 % on average) the wind speed over the Mediterranean Sea. This effect is strongest at the lateral borders of the main flow—the flow width is underestimated. All simulations of this study show a clockwise wind direction bias over the sea during Mistral and Tramontane events. Simulations with smaller grid spacing show smaller biases than their coarse-grid counterparts.
Scientometric results on publication trends in clinical psychology, which refer to publication type and methodology of case studies/reports, are presented. Absolute and relative frequencies of clinical case studies are identified for the segment “mental and behavioral disorders” in MEDLINE (ICD-10 Chapter V [F]) as well as for clinical psychology publications documented in PsycINFO and PSYNDEX in 40 publication years (1975-2014). Results show an increase of the absolute number of published case studies documented in MEDLINE and PsycINFO (but not in PSYNDEX), which is highly correlated with the total increase of clinical psychology publications in both databases. Relative frequencies show another picture, namely a drop of the percentage of case studies on mental and behavioral disorders in MEDLINE, and a sharp drop in PSYNDEX since the 1980s. The trend for the relative frequency of case studies within all publications on clinical psychology documented in PsycINFO is V-shaped with 6% in the 1970s, 3% in the early 1990s, and 4-5% after the millennium. Pros and cons of case studies in clinical psychology research and education are discussed. Qualitative and quantitative case study methodologies are distinguished with respect to the phases of clinical trials and observational studies in evidence-based and empirically supported psychotherapy. Subsequently, methodological constraints are balanced with specific values in clinical training, applied research, and innovative research on the symptomatology, etiology, and classification of mental disorders as well as on combined and/or integrative treatment techniques and methods.
In seinem unlängst erschienenen Buch „Citizen Science“ untersucht der Wissenschaftstheoretiker Peter Finke die Rolle von Laiinnen und Laien für die Wissenschaft. Sein Anliegen ist es, ihre Bedeutung für den Erkenntnisfortschritt wie auch für ein praxisbezogenes bürgerschaftliches Engagement darzulegen. Aus zahlreichen Blickwinkeln variiert Finke den Grundgedanken einer Kontinuität des Handelns von Laiinnen und Laien zu dem von Fachwissenschaftlerinnen und Fachwissenschaftlern, die durch die institutionalisierten Erscheinungsformen der Wissenschaft verschleiert wird. Demgegenüber sollen im vorliegenden Beitrag Aspekte der Diskontinuität hervorgehoben werden, die es zu berücksichtigen gilt, gerade wenn man von der Wichtigkeit einer Etablierung und Förderung von „Citizen Science“ überzeugt ist.
There is a debate over the association between low testosterone levels in body fluids and the occurrence of chronic periodontitis (CP). The aim of the present systematic review was to assess whether low testosterone levels in body fluids reflect CP. In order to identify studies relevant to the focus question: “Is there a relationship between low testosterone levels in body fluids and CP?” an electronic search without time or language restrictions was conducted up to June 2016 in indexed databases using different keywords: periodontitis, chronic periodontitis, periodontal diseases, testosterone, and gonadal steroid hormones. A total of eight studies were included in the present systematic review. The number of study participants ranged from 24 to 1,838 male individuals with ages ranging from 15 to 95 years. Seven studies measured testosterone levels in serum, two studies in saliva, and one study in gingiva. Four studies reported a negative association between serum testosterone levels and CP. Two studies reported a positive association between decreased testosterone levels in serum and CP. Increased levels of salivary testosterone among patients with CP were reported in one study; whereas one study reported no significant difference in the concentration of salivary testosterone between patients with and without CP. One study identified significant increase in the metabolism of testosterone in the gingiva of patients with CP. Within the limits of the evidence available, the relationship between low testosterone levels and CP remains debatable and further longitudinal studies and control trials are needed.
Mapping a public discourse with the tools of computational text analysis comes with many contingencies in the areas of corpus curation, data processing and analysis, and visualisation. However, the complexity of algorithmic assemblies and the beauty of resulting images give the impression of ‘objectivity’. Instead of concealing uncertainties and artefacts in order to tell a coherent and all-encompassing story, retaining the variety of alternative assemblies may actually strengthen the method. By utilising the mobility of digital devices, we could create mutable mobiles that allow access to our laboratories and enable challenging rearrangements and interpretations.
In the past few years a multidisciplinary team of scholars based at Goethe Universität Frankfurt has been involved in the development of three projects: the research project “Political language in the Middle Ages: Semantic Approaches”, and two online platforms, “Computational Historical Semantics” and “eHumanities Desktop”. These are closely related to each other, as they bring together historical research on Latin medieval texts and Digital Humanities. This article will offer an overview of the projects, focusing particularly on the digital tools which have been developed by the team.
Im Rahmen des Kongresses „Literaturwissenschaften in Frankfurt, 1914 – 1945“, der von Bernd Zegowitz (Germanistik) und Frank Estelmann (Romanistik) am 20. und 21. Juni 2014 an der Universität Frankfurt am Main organisiert wurde, gaben 13 Vortragende an zwei Tagen Einblicke sowohl in die Geschichte als auch in exemplarische Werke von Literaturwissenschaftlern, die in der Zeit zwischen der Universitätsgründung im Jahr 1914 und dem Ende des Nationalsozialismus 1945 an der Universität Frankfurt lehrten und forschten.
MLL-r Leukemia
(2016)
Biografie und Lebenslauf stehen sich nicht mehr antonymisch gegenüber, sondern treten ins Verhältnis zueinander. Auf der theoretischen Grundlage des erweiterten kategorialen Rahmens ist ein breites Forschungsfeld entstanden, das Lehr-Lern-Prozesse aus der Perspektive der Biografie- und Lebenslaufforschung untersucht. Diese Ausgabe referiert auf diese Forschungslage. Sie knüpft damit an die Themenhefte des REPORT „Biografieforschung und biografisches Lernen“ und „Biografie und Bildung“ an, legt aber nun den Schwerpunkt auf die Verknüpfung von Lebenslauf und Biographie im Hinblick auf das Lernen Erwachsener in und außerhalb von Institutionen.
This paper provides a theoretical assessment of gestures in the context of authoring image-related hypertexts by example of the museum information system WikiNect. To this end, a first implementation of gestural writing based on image schemata is provided (Lakoff in Women, fire, and dangerous things: what categories reveal about the mind. University of Chicago Press, Chicago, 1987). Gestural writing is defined as a sort of coding in which propositions are only expressed by means of gestures. In this respect, it is shown that image schemata allow for bridging between natural language predicates and gestural manifestations. Further, it is demonstrated that gestural writing primarily focuses on the perceptual level of image descriptions (Hollink et al. in Int J Hum Comput Stud 61(5):601–626, 2004). By exploring the metaphorical potential of image schemata, it is finally illustrated how to extend the expressiveness of gestural writing in order to reach the conceptual level of image descriptions. In this context, the paper paves the way for implementing museum information systems like WikiNect as systems of kinetic hypertext authoring based on full-fledged gestural writing.
Entwicklung neuer Multikomponentenreaktionen zur Synthese von Amin- und α-Aminosäurederivaten
(2016)
Die Entwicklung neuer Synthesemethoden ist von enormer Bedeutung hinsichtlich der Darstellung von neuen Verbindungen mit speziellen, anwendungsorientierten Eigenschaften und in Bezug auf die Suche nach ökologisch verträglicheren und effizienteren Herstellungsmethoden. Multikomponentenreaktionen (MCRs) bieten hierbei eine gute Ansatzmöglichkeit. Gegenüber den klassischen, linear verlaufenden 2-Stufen-Reaktionen weisen MCRs eine hohe Atom-Ökonomie und effiziente Bindungsbildung auf, können zur Minimierung von Zeit-, Energie-, Material- und Kostenaufwand sowie zur geringeren Generierung von Abfallmengen beitragen und ermöglichen einen schnellen Aufbau diverser Molekülstrukturen. Vor diesem Hintergrund gelang im Rahmen der vorliegenden Arbeit die Entwicklung mehrerer 3-Komponentenreaktionen basierend auf der nukleophilen Addition von Arylboronsäuren an in situ gebildete N-Acyl- bzw. N-Sulfonylimine, womit die Synthese von diversen alpha-substituierten Amiden, chiralen, alpha-substituierten Sulfonamiden, chiralen alpha-Arylglycinen sowie von Arylmethylsulfonamiden erfolgte. Der Schlüssel zu einer erfolgreichen Umsetzung hinsichtlich der Methode mit Amiden war die Verwendung eines dualen Katalysatorsystems aus Lewis-Säure und Pd(II) sowie die Anwesenheit von Wasser. Die enantioselektiven Varianten konnten mittels Sulfonamide anstelle der Amide sowie unter Einsatz von Pd(II) und einem chiralen Oxazolin-Liganden erreicht werden. Die neuen Methoden sind einfach in der Durchführung, weisen einen breiten Substrat-bereich auf und im Falle der asymmetrischen Varianten hohe Enantioselektivitäten.
Allerdings besitzt die Reaktionsführung über Organoboronsäuren zwei entscheidende Nachteile: Zum einen bedarf es der Verwendung vorfunktionalisierter Boronsäuren und zum anderen werden stöchiometrische Mengen borhaltiger Abfälle erzeugt. Daher wurden im Rahmen dieser Arbeit auch Prozesse untersucht, bei denen hinsichtlich der Atom-Ökonomie keine unnötig vorfunktionalisierten Startmaterialien eingesetzt werden und bei denen keine oder nur ökologisch vollkommen unbedenkliche Nebenprodukte entstehen. Ein erster Ansatz in diese Richtung gelang dabei mit der Entwicklung einer neuen 3-Komponentenreaktion basierend auf einer Brønsted-Säurekatalysierten, benzylischen C–H-Bindungsfunktionalisierung von 2-Alkylazaarenen.
In der folgenden Anleitung werden diverse Methoden für den Zugriff auf das Ressourcen-Management, entwickelt von der AG Texttechnologie, erläutert. Das Ressourcen-Management ist für alle Anwendungen identisch. Erklärt wird das Auslesen des Ressourcen-Managements der Projects „PHI Picturing Atlas“. Alle Anweisungen erfolgen per RESTful-Aufrufen. Die API-Dokumentation findet sich unter http://phi.resources.hucompute.org.
Die letzten Jahrzehnte brachten einen enormen Zuwachs des Wissens und Verständnisses über die molekularen Prozesse des Lebens.Möglich wurde dieser Zuwachs durch die Entwicklung diverser Methoden, mit denen beispielsweise gezielt die Konzentration einzelner Stoffe gemessen werden kann oder gar alle anwesenden Metaboliten eines biologischen Systems erfasst werden können. Die großflächige Anwendung dieser Methoden führte zur Ansammlung vieler unterschiedlicher -om-Daten, wie zum Beispiel Metabolom-, Proteom- oder Transkriptoms-Datensätzen. Die Systembiologie greift auf solche Daten zurück, um mathematische Modelle biologischer Systeme zu erstellen, und ermöglicht so ein Studium biologischer Systeme auch außerhalb des Labors.
Für größere biologische Systeme stehen jedoch meistens nicht alle Informationen über Stoffkonzentrationen oder Reaktionsgeschwindigkeiten zur Verfügung, um eine quantitative Modellierung, also die Beschreibung von Änderungsraten kontinuierlicher Variablen, durchführen zu können. In einem solchen Fall wird auf Methoden der qualitativen Modellierung zurückgegriffen. Eine dieser Methoden sind die Petrinetze (PN), welche in den 1960er Jahren von Carl Adam Petri entwickelt wurden, um nebenläufige Prozesse im technischen Umfeld zu beschreiben. Seit Anfang der 1990er Jahre finden PN auch Anwendung in der Systembiologie, um zum Beispiel metabolische Systeme oder Signaltransduktionswege zu modellieren. Einer der Vorteile dieser Methode ist zudem, dass Modelle als qualitative Beschreibung des Systems begonnen werden können und im Laufe der Zeit um quantitative Beschreibungen ergänzt werden können.
Zur Modellierung und Analyse von PN existieren bereits viele Anwendungen. Da das Konzept der PN jedoch ursprünglich nicht für die Systembiologie entwickelt wurde und meist im technischen Bereich verwendet wird, existierten kaum Anwendungen, die für den Einsatz in der Systembiologie entwickelt wurden. Daher ist auch die Durchführung der für die Systembiologie entwickelten Analysemethoden für PN nicht mit diesen Anwendungen möglich. Die Motivation des ersten Teiles dieser Arbeit war daher, eine Anwendung zu schaffen, die speziell für die PN-Modellierung und Analyse in der Systembiologie gedacht ist, also in ihren Analysemethoden und ihrer Terminologie sich an den Bedürfnissen der Systembiologie orientiert. Zudem sollte die Anwendung den Anwender bei der Auswertung der Resultate der Analysemethoden visuell unterstützen, indem diese direkt visuell im Kontext des PN gesetzt werden. Da bei komplexeren PN die Resultate der Analysemethoden in ihrer Zahl drastisch anwachsen, wird eine solche Auswertung dieser notwendig. Aus dieser Motivation heraus entstand die Anwendung MonaLisa, dessen Implementierung und Funktionen im ersten Teil der vorliegenden Arbeit beschrieben werden. Neben den klassischen Analysemethoden für PN, wie den Transitions- und Platz-Invarianten, mit denen grundlegende funktionale Module innerhalb eines PN gefunden werden können, wurden weitere, meist durch die Systembiologie entwickelte, Analysemethoden implementiert. Dazu zählen zum Beispiel die Minimal Cut Sets, die Maximal Common Transitions Sets oder Knock-out-Analysen. Mit MonaLisa ist aber auch die Simulation des dynamischen Verhaltens des modellierten biologischen Systems möglich. Hierzu stehen sowohl deterministische als auch stochastische Verfahren, beispielsweise der Algorithmus von Gillespie zur Simulation chemischer Systeme, zur Verfügung. Für alle zur Verfügung gestellten Analysemethoden wird ebenfalls eine visuelle Repräsentation ihrer Resultate bereitgestellt. Im Falle der Invarianten werden deren Elemente beispielsweise in der Visualisierung des PN eingefärbt. Die Resultate der Simulationen oder der topologischen Analyse können durch verschiedene Graphen ausgewertet werden. Um eine Schnittstelle zu anderen Anwendungen zu schaffen, wurde für MonaLisa eine Unterstützung einiger gängiger Dateiformate der Systembiologie geschaffen, so z.B. für SBML und KGML.
Der zweite Teil der Arbeit beschäftigt sich mit der topologischen Analyse eines Datensatzes von 2641 Gesamtgenom Modellen aus der path2models-Datenbank. Diese Modelle wurden automatisiert aus dem vorhandenen Wissen der KEGG- und der MetaCyc-Datenbank erstellt. Die Analyse der topologischen Eigenschaften eines Graphen ermöglicht es, grundlegende Aussagen über die globalen Eigenschaften des modellierten Systems und dessen Entstehungsprozesses zu treffen. Daher ist eine solche Analyse oft der erste Schritt für das Verständnis eines komplexen biologischen Systems. Für die Analyse der Knotengrade aller Reaktionen und Metaboliten dieser Modelle wurden sie in einem ersten Schritt in PN transformiert. Die topologischen Eigenschaften von metabolischen Systemen werden in der Literatur schon sehr gut beschrieben, wobei die Untersuchungen meist auf einem Netzwerk der Metaboliten oder der Reaktionen basieren. Durch die Verwendung von PN wird es möglich, die topologischen Eigenschaften von Metaboliten und Reaktionen in einem gemeinsamen Netzwerk zu untersuchen. Die Motivation hinter diesen Untersuchungen war, zu überprüfen, ob die schon beschriebenen Eigenschaften auch für eine Darstellung als PN zutreffen und welche neuen Eigenschaften gefunden werden können. Untersucht wurden der Knotengrad und der Clusterkoeffizient der Modelle. Es wird gezeigt, dass einige wenige Metaboliten mit sehr hohem Knotengrad für eine ganze Reihe von Effekten verantwortlich sind, wie beispielsweise dass die Verteilung des Knotengrades und des Clusterkoeffizienten, im Bezug auf Metaboliten, skalenfrei sind und dass sie für die Vernetzung der Nachbarschaft von Reaktionen verantwortlich sind. Weiter wird gezeigt, dass die Größe eines Modelles Einfluss auf dessen topologische Eigenschaften hat. So steigt die Vernetzung der Nachbarschaft eines Metaboliten, je mehr Metaboliten in einem biologischen System vorhanden sind, gleiches gilt für den durchschnittlichen Knotengrad der Metaboliten.
The Large Hadron Collider (LHC) is the biggest and most powerful particle accelerator in the world, designed to collide two proton beams with particle momentum of 7 TeV/c each. The stored energy of 362MJ in each beam is sufficient to melt 500 kg of copper or to evaporate about 300 litre of water. An accidental release of even a small fraction of the beam energy can cause severe damage to accelerator equipment. Reliable machine protection systems are necessary to safely operate the accelerator complex. To design a machine protection system, it is essential to know the damage potential of the stored beam and the consequences in case of a failure. One (catastrophic) failure would be, if the entire beam is lost in the aperture due to a problem with the beam dumping system.
This thesis presents the simulation studies, results of a benchmarking experiment, and detailed target investigation, for this failure case. In the experiment, solid copper cylinders were irradiated with the 440GeV proton beam delivered by the Super Proton Synchrotron (SPS) at the High Radiation to Materials (HiRadMat) facility at CERN. The experiment confirmed the existence of the so-called hydrodynamic tunneling phenomenon for the first time. Detailed numerical simulations for particle-matter interaction with FLUKA, and with the two-dimensional hydrodynamic code, BIG2, were carried out. Excellent agreement was found between the experimental and the simulation results that validate predictions for the 7TeV beam of the LHC. The hydrodynamic tunneling effect is of considerable importance for the design of machine protection systems for accelerators with high stored beam energy. In addition, this thesis presents the first studies of the damage potential with beam parameters of the Future Circular Collider (FCC).
To detect beam losses due to fast failures it is essential to have fast beam instrumentation. Diamond based particle detectors are able to detect beam losses within a nanosecond time scale. Specially designed diamond detectors were used in the experiment mentioned above. Their efficiency and response has been studied for the first time over 5 orders of bunch intensity with electrons at the Beam Test Facility (BTF) at INFN, Frascati, Italy. The results of these measurements are discussed in this thesis. Furthermore an overview of the applications of diamond based particle detectors in damage experiments and for LHC operation is presented.
Trotz eines umfangreichen Angebots an Literatur und Ratgebern im Bereich des Projektmanagements scheitern auch heute noch viele IT-Projekte. Ursache sind oft Probleme im Projektteam oder Fehleinschätzungen in der Planung des Projektes und Überwachung des Projektstatus. Insbesondere durch neue Technologien und Globalisierung entstandene Arbeitsweisen wie das virtuelle Team sind davon betroffen. In dieser Arbeit wird auf die Frage eingegangen, was virtuelle Teams sind und welche Probleme die Arbeit von virtuellen Teams belastet. Dafür werden aktuell existierende Tools aus dem Bereich des Web 2.0 analysiert und aus dem Stand der angebotenen Tools vermeidbare Schwächen der Helfer herausgearbeitet. Anschließend wird ein mittels einer Anforderungsanalyse und eines Konzepts, welches neue Methoden zur Darstellung von Projektstatus und Verknüpfung mit Dokumentation und Kommunikation nutzt, das Tool „TeamVision“ erstellt, welches versucht, virtuelle Teams möglichst effizient zu managenen, Probleme schnell zu erkennen und somit die Arbeit innerhalb des Teams zu beschleunigen. Hierbei wird insbesondere das Ergebnis der Analyse benutzt, dass viele Tools einzelne Verwaltungsaufgaben getrennt durchführen. Informationen müssen vom Nutzer selbst aus den verschiedenen Grafiken, Listen oder anderen Darstellungen gesammelt und selbst assoziiert werden. Die prototypische Implementierung von TeamVision versucht den Informationsfluss beherrschbar zu machen, indem Übersichten in einem Projektbaum zusammengefasst werden, der mittels Zoomfunktionen und visueller Hilfsmitel wie Farbgebung versucht, die Informationsbeschaffung zu erleichtern.
Computing the diameter of a graph is a fundamental part of network analysis. Even if the data fits into main memory the best known algorithm needs O(n2) [3] with high probability to compute the exact diameter. In practice this is usually too costly. Therefore, heuristics have been developed to approximate the diameter much faster. The heuristic “double sweep lower bound” (dslb) has reasonably good results and needs only two Breadth-First Searches (BFS). Hence, dslb has a complexity of O(n+m). If the data does not fit into main memory, an external-memory algorithm is needed. In this thesis the I/O model by Vitter and Shriver [4] is used. It is widely accepted and has produced suitable results in the past. The best known external-memory BFS implementation has an I/O-complexity of W(pn B + sort(n)) for sparse graphs [5]. But this is still very expensive compared to the I/O complexity of sorting with O(N/B * logM/B (N/B)). While there is no improvement for the external-memory computation of BFS yet, Meyer published a different approach called “Parallel clustering growing approach” (PAR_APPROX) that is a trade-off between the I/O complexity and the approximation guarantee [6].
In this thesis different existing approaches will be evaluated. Also, PAR_APPROX will be implemented and analyzed if it is viable in practice. One main result will be that it is difficult to choose the parameter in a way that PAR_APPROX is reasonably fast for every graph class without using the semi external-memory Single Source Shortest Path (SSSP) implementation by [1]. However, the gain is small compared to external-memory BFS using this approach. Therefore, the approach PAR_APPROX_R will be developed. Furthermore, a lower bound for the expected error of PAR_APPROX_R will be proved on a carefully chosen difficult input class. With PAR_APPROX_R the desired gain will be reached.
Dieses Dokument beschreibt eine Applikation namens Stolperwege, die als prototypische Kommunikationstechnologie für eine mobile Public History of the Holocaust dienen soll, und zwar ausgehend vom Beispiel des Kunstprojekts namens Stolpersteine von Gunter Demnig. Auf diese Weise soll eine zentrale Herausforderung bezogen auf die Vermittlung der Geschichte des Holocaust aufgegriffen werden, welche in der Anknüpfung an die neuesten Entwicklungen von Kommunikationsmedien besteht. Die Stolperwege-App richtet sich an Schülerinnen und Schüler, Bewohnerinnen und Bewohner, Historikerinnen und Historiker und allgemein an Besucherinnen und Besucher einer Stadt, die vor Ort den Spuren des Holocaust nachspüren wollen, um sich an der Schreibung einer Public History of the Holocaust aktiv zu beteiligen.
Die folgende Bachelorarbeit beschäftigt sich mit dem Thema des Displacement-Mappings unter Verwendung eines Tessellation-Shaders. Ziel dieser Arbeit ist es, ein Programm zu entwerfen, welches einen visuellen Einblick in die Tessellation und in das Displacement-Mapping bietet. Des Weiteren soll die Leistung der Tessellation mit der des Geometry-Shaders und einem QuadTree-Verfahren verglichen werden.
Dazu wird zuerst beschrieben, welche Umgebung zur Implementierung verwendet wurde. Anschließend werden zunächst einige geläufige Mappingverfahren betrachtet. Im nächsten Abschnitt wird dann auf die Tessellation und das Displacement-Mapping in Bezug auf Funktionsweise und Implementierung eingegangen. Es folgt ein Vergleich der Performance der unterschiedlichen Mapping-Verfahren untereinander. In einem weiteren Vergleich wird die Performance der Tessellation (mit Displacement-Mapping) mit einem Geometry-Shader und einem QuadTree-Verfahren anhand eines Terrains durchgeführt. Abschließend erfolgt die Beschreibung des Programms.
In dieser Arbeit wurde ausgehend von aktuellen Matchmaking Systemen ein 3D Lobbysystem geschaffen. Dabei wurde speziell auf ein intuitives Matchmaking und eine einfache Bedienung wertgelegt, um dieses nicht nur für Core Gamer, sondern auch für Casual Gamer interessant zu machen. Zudem versteht sich dieses Lobbysystem nicht als endgültig, sondern mehr als ein flexibles leicht anpassbares System. Daher ist sie besonders einfach für zukünftige Spiele anpassbar: Sämtliche Szenen, Avatare, Animationen, Einstellungen und GUI Dialoge lassen sich ohne Änderung des Quelltextes nur über Scripte, XML Tabellen und Datenbanken sehr leicht modifizieren. Um ein so komplexes Projekt in kurzer Zeit umzusetzen, war es nicht möglich ohne vorhandene Bibliotheken auszukommen. Aus diesem Grund wurden neben Nebula 2 als 3D Engine, das Mangalore Game Framework, sowie für die Netzwerktechnik die Rakknet Multiplayer Network Engine bei der Implementation des Lobbysystems verwendet. Wie die Tests zeigen befindet sich das entwickelte System in einem einsatzfähigen Zustand. So können sich gleichzeitig in der Lobby bis zu 200 Spieler aufhalten und das Matchmaking durchführen, ohne mit Lags oder Timeouts vom Server rechnen zu müssen. Lediglich die Framerate der einzelnen Clients kann bei sehr vielen eingeloggten Nutzern unter 20 FPS fallen. Je nach der erwarteten Anzahl von Spielern sollte hier ggf. auf Avatare mit weniger Polygonen zurückgegriffen werden.
In dieser Diplomarbeit wird ein Echtzeit-Verfahren vorgestellt, um einen wassergefüllten Ballon zu simulieren. Grundlage des Verfahrens ist ein Feder-Masse-Dämpfer–System, das zusammen mit Methoden zur Erhaltung des Innenvolumens sowie einer topologieerhaltenden Datenstruktur kombiniert wurde. Die Masse des Wassers wird dabei auf Massepartikel an der Oberfläche des Gummiballons aufgeteilt, an denen die Wirkung der physikalischen Kräfte Gravitation, Innendruck und elastische Zugkraft der Oberfläche ausgewertet wird. Dies erfolgt durch iterative Anwendung eines Simulationsschrittes, bei dem die auf die Massepartikel wirkenden Beschleunigungen ermittelt und in eine Bewegung übertragen wird. Bei der Umsetzung in C++ wurde das Verfahren mit Hilfe des Echtzeit-3D-Szenengraphen OGRE (Object-oriented Graphics Rendering Engine) implementiert.
Mögliche Einsatzgebiete sind interaktive Simulationsumgebungen oder andere Echtzeit-Anwendungen in den Bereichen Multimedia und Unterhaltung sowie Nicht-Echtzeit-Verfahren zur Bildgenerierung und physikalischen Simulation.
In der Computergraphik werden immer wieder verschiedenste Objekte des realen Lebens modelliert. Dabei werden oft die Regeln ihres Aufbaus ausgenutzt, um diese Modelle automatisch zu erzeugen.
Gotische Architektur bietet daf¨ur gute Voraussetzungen. Auf Grund ihres hohen Grades an selbst¨ahnlichen Strukturen besteht die Möglichkeit, solche Regeln aus ihrem Aufbau abzuleiten. Wie bei vielen gotischen Elementen lassen sich auch bei den Pfeilern, die die Basis jedes gotischen Gewölbes bilden, solche Strukturen in ihrem teilweise komplexen Grundriss finden.
Die vorliegende Diplomarbeit stellt eine Methode vor, mit der die Grundrisse verschiedener gotischer Pfeiler beschrieben werden können. Die in dieser Arbeit entwickelte Querschnittsbeschreibung, wird die Darstellung der Grundrisse möglichst vieler verschiedener Pfeiler erlauben und automatisch erzeugbar sein. Der Aufbau der Beschreibung erm¨oglicht die Generierung eines 3D-Modells.
Um dies zu erreichen, wird zunächst eine Analyse der Querschnitte verschiedener gotischer Pfeiler vorgenommen. Mit den in der Analyse gewonnenen Informationen wird formal eine Querschnittsbeschreibung entwickelt, die die oben beschriebenen Anforderungen erf¨ullt. Die automatische Erzeugung erfolgt über ein parametrisches L-System. Aus der Beschreibung des Querschnitts wird schließlich das 3D-Modell erzeugt.
Die Implementierung erfolgt komplett in C++. Für die Erzeugung des 3D-Modells wird der Open Source Szenengraph Ogre3D verwendet, der die notwendige 3D-Grafik-Funktionalit¨at zur Verfügung stellt.
Mit der realisierten Anwendung ist es m¨oglich, mit wenigen Eingaben ein Modell eines komplexen gotischen Pfeilers zu erstellen.
Die Gotik ist eine Kunstepoche des Mittelalters, die eine große Anzahl beeindruckender Bauten hervorgebracht hat. Hierbei sind besonders die monumentalen Sakralbauten dieser Zeit mit ihren eindrucksvollen Fenstern hervorzuheben. Rosetten gehören zu den größten Fenstern in gotischen Kathedralen. Sie sind kreisförmige Fenster, die vor allem durch ihre komplexe Aufbauweise auffallen. Das Grundbauelement der Rosetten ist das sog. Maßwerk - ein Steinwerk das als dekoratives Muster für Fenster und Wände in gotischen Bauten eingesetzt wird. Charakteristisch für diese Muster sind sich wiederholende, verschieden große geometrische Formen, was an die Eigenschaft der Selbstähnlichkeit bei Fraktalen erinnert.
Die manuelle Modellierung gotischer Fenster ist auf Grund deren komplexen Aufbaus sehr aufwendig. Eine prozedurale Generierung hingegen automatisiert den Modellierungsprozess weitgehend und verringert damit den Zeit- und Modellierungsaufwand per Hand.
In der vorliegenden Arbeit wurde eine prozedurale Methode beschrieben, die die aufwendige manuelle Modellierung der Rosetten bzw. des Maßwerks zum größten Teil ersetzt. Diese Methode basiert auf der Analyse der fraktalen Struktur des Maßwerks und nutzt dabei dessen Selbstähnlichkeit aus, um Rosetten automatisch zu generieren. Mit der in dieser Arbeit entwickelten Implementierung ist es mögliche, eine große Vielfalt gotischer Rosetten zu beschreiben und mit Hilfe der 3D-Grafik-Engine OGRE graphisch darzustellen.
Manipulierte Bilder werden zu einem immer gröÿeren Problem in der aktuellen Berichterstattung und sie verursachen in vielen Fällen Empörung unter den Lesern.
In dieser Diplomarbeit werden verschiedene Ansätze aus der aktuellen Forschung aufgezeigt, die zur Erkennung von manipulierten digitalen Bildern benutzt werden können. Hierbei liegt der Schwerpunkt besonders auf verschiedenen statistischen Ansätzen von Farid, Johnson und Popescu. Ein Abriss über die wichtigsten inhaltsbasierten Algorithmen wird ebenfalls gegeben.
Weiterhin wird für die Algorithmen, die im Hinblick auf technische Realisierbarkeit, Laufzeit und ein breites Spektrum von möglichen Szenarien vielversprechend wirken, eine Automatisierung entwickelt, die die Analyse ohne weitere Benutzereingaben durchführt. Das Augenmerk liegt hier besonders darauf, dass die zu analysierenden Bilder möglichst wenige Vorraussetzungen erfüllen müssen, damit es eine Möglichkeit der korrekten Erkennung gibt.
Diese Automatisierungen werden implementiert, wenn möglich verbessert und auf einer Menge von Bildern getestet. Enthalten sind sowohl zufallsgenerierte Bilder, als auch aus geometrischen Formen synthetisierte und natürliche Bilder. Die Erkennung der auf die Bilder angewandten Fälschungstechniken beschäftigt sich vor allem mit Duplikationen, Einfügen und Interpolation von Bereichen.
Der Test dieser Implementierung konzentriert sich auf die absolute Effektivität und Effiienz gegen die gegebene Testmenge, betrachtet jedoch auch die spezifischen Vor- und Nachteile der ursprünglichen Algorithmen und der entwickelten Verbesserung. Ihre Ergebnisse, die sie auf den Testbildern erbringen, legen die Grundlage für eine Beurteilung der Algorithmen bezüglich Laufzeit und Effiienz.
Aufbauend auf diesen Analysen wird eine Bewertung der Algotihmen vorgenommen, die auch einen Ausblick auf mögliche Szenarien in der digitalen Bildbearbeitung und der Erkennung von Fälschungen für die nächsten Jahre geben soll.
Im Rahmen dieser Bachelorarbeit wurde eine flashbasierte Anwendung zum Trainieren und Prüfen der Fähigkeit zur korrekten Interpretation von Bildinformationen entwickelt.
Den Ausgangspunkt der Entwicklung bildete eine Analyse von bisher existierenden Anwendungen am Beispiel der Radiologie. Die Analyse ergab, dass die bereits existierenden Anwendungen Interaktionen mit dem Bild in bestimmten Umfang erlauben, jedoch keine Anwendung gefunden werden konnte, bei der ein direktes Markieren von Strukturen im Bild mit z.B. einem Stift möglich ist. Ziel war es, dies zu entwickeln.
Die Entwicklung des Konzeptes begann mit einer Analyse der Anforderungen, die sich aus dem Bildmaterial in der Radiologie ergeben. Daraus wurden drei Aufgabenszenarien entwickelt: Nachfahren einer Struktur, einkreisen einer Struktur und markieren einer Struktur durch einen Stempel. Diese Aufgabenszenarien erfordern verschiedene Zeichen- und Hilfswerkzeuge. Implementiert wurden die Zeichenwerkzeuge Stift, Stempel und aufziehbarer Kreis, so wie die Hilfswerkzeuge Zoom und Helligkeitsregelung.
Für die drei Aufgabenszenarien wurden im Konzept Definitionen des Lösungsbereiches erstellt, den der Ersteller von Übungen im Flash Template an gibt. Diese drei Lösungsbereiche erfordern wiederum unterschiedliche Auswertungen und andere Verfahren zur Fehlerwertungen. Die Fehlerwertung setzt sich je nach Aufgabenszenario aus verschiedenen Verfahren zusammen.
Die anschließende Integration der Anwendung in die LernBar erfolgte über eine Integration von Schnittstellen in die Anwendung, die eine Kommunikation zwischen LernBar Player und der Anwendung erlauben. Zusätzlich wurde das Einlesen von XML Dateien ermöglicht und die Struktur einer XML Datei, zur Übergabe der nötigen Parameter, definiert. Diese XML Datei erlaubt die spätere Einbindung eines Wizards in das LernBar Studio, was im Ausblick erläutert wurde.
Die Implementierung der Anwendung beweist, dass das in dieser Bachelorarbeit aufgestellte Konzept funktioniert.
Diese Arbeit behandelt das Thema der Darstellung und der Simulation von Pflanzen mit Lindenmayer-Systemen. Zur Darstellung der aus Lindenmayer- Systemen entwickelten Strukturen wird das Programm Linde 3D entwickelt, welches dem Benutzer das Erstellen und die Simulation von Objekten unter Verwendung von deterministischen, geschachtelten, stochastischen, kontextsensitiven, umgebungssensitiven und offenen Lindenmayer-Systemen ermöglicht.
Neben der Entwicklung des Programms Linde 3D liegt ein weiterer Schwerpunkt dieser Arbeit auf der Simulation der biologischen Prozesse Vernalisation und Stratifikation. Für die Simulation dieser Prozesse werden Lindenmayer- Systeme entwickelt, welche die Grundfunktionalität der Prozesse simulieren und in Abhängigkeit dieser dreidimensionale Modelle der Pflanze erzeugen.
Das Programm Linde 3D ist so konzipiert, dass es allgemein eingesetzt werden kann. Neben dem Verständnis für die abstrakten Modelle der Lindenmayer-Systeme werden keine speziellen Kenntnisse des Anwenders vorausgesetzt. Die Eingabe der L-Systeme erfolgt entweder über die Auswahl vordefinierter Lindenmayer-Systeme und Umweltdaten oder durch Komposition von Lindenmayer-Systemen und Umweltdaten durch den Anwender. Die graphische Interpretation der Lindenmayer-Systeme erfolgt unter Verwendung des Schildkröten-Modells. Die Ausgabe des Programms Linde 3D besteht zum einen aus einer direkten Darstellung der generierten Szene im Programm und zum anderen aus der Ausgabe der Szene in Form einer oder mehrerer Dateien für den POVRay Raytracer. Die erzeugten Dateien können durch externe Programme aufbereitet und zu einer Animation zusammengefügt werden.
Die vorliegende Arbeit beginnt mit einer kurzen Einführung in das Thema der Fraktale und Lindenmayer-Systeme, sowie den nötigen Grundlagen für das Verständnis der biologischen Hintergründe. Im Anschluss werden dem Leser die notwendigen theoretischen Grundkenntnisse zu Lindenmayer-Systemen und ein Einblick in aktuelle Anwendungen und Entwicklungen vermittelt. Nach einer Beschreibung der Anforderungen, des Aufbaus und der Implementierung des Programms Linde 3D werden die erworbenen Grundkenntnisse im Bereich der Lindenmayer-Systeme und das Programm Linde 3D eingesetzt, um Schritt für Schritt Lindenmayer-Systeme für die Simulation der biologischen Prozesse Vernalisation und Stratifikation zu entwickeln. Nach der Konstruktion der L-Systeme werden die erworbenen theoretischen Grundlagen für den Bereich des Testens von Parser und Schildkröten-Modell auf Funktionalität benötigt. Im Ausblick werden Ideen für Anwendungen und Erweiterungen des Programms Linde 3D beschrieben.
Konzeption und Implementierung einer Kommunikation zwischen Second Life und Web 2.0 Anwendungen
(2009)
Im Rahmen dieser Arbeit haben wir ein Konzept und einen Prototypen zur Kommunikation zwischen Second Life und Web 2.0 entwickelt.
Im Rahmen dieser Diplomarbeit wird ein Konzept und ein Prototyp zur Kommunikation zwischen Second Life und Web 2.0-Anwendungen entwickelt. In der Übung zur Veranstaltung "Einführung in das Projektmanagement" wurden Meetings in Second Life abgehalten. Dabei haben die Studierenden im Rahmen der Übung Protokolle erstellt, die sie im Internet veröffentlichten. Die Protokollierung musste immer manuell durchgeführt werden und war dadurch fehleranfällig und nicht ausfallsicher. Hier entstand der Wunsch, die Protokollierung zu automatisieren und somit den administrativen Aufwand zu reduzieren.
Im Kapitel 2 werden die Grundlagen behandelt, die für das Verständnis der Arbeit notwendig sind. Hierbei werden Second Life, sowie Blog und Wiki als Repräsentanten von Web 2.0 vorgestellt. Außerdem wird eine klare Abgrenzung zwischen diesen Technologien aufgezeigt.
Die Analyse dieser Diplomarbeit umfaÿt unter anderem die verschiedenen Möglichkeiten der Übertragung der Informationen zwischen Second Life und den Web 2.0-Anwendungen.
Im Konzept ist die Gesamtarchitektur zur Kommunikation zwischen Second Life und den Web 2.0 Anwendungen enthalten. Die Hauptsystemkomponenten, die dafür notwendig sind, stellen eine Ansammlung aus Second Life Skripten, dem HTTP Supervisor und den Wiki Bot Skripten dar. Die Second Life und die Wiki Bot Skripten sind eine Ansammlung von Unterprogrammen, die jeweils auf eine Aufgabe spezialisiert sind. Die genaue Erklärung wird im Kapitel 4 Aufgrund der Unterschiede der Web 2.0 Anwendungen wurde ein Bot eingesetzt, der eine Web 2.0 Anwendung bedient. Der HTTP Supervisor dient der Vermittlung dient der Vermittlung der Daten zwischen Second Life und der Web 2.0 Anwendung. Auÿerdem speichert er die Daten in temporäre Dateien. Der Second Life Teil des Programms dient der Steuerung des gesamten Systes.
Durch die prototypische Umsetzung ist die Durchführbarkeit bewiesen, die Daten aus Second Life herauszuführen und im MediaWiki zu speichern.
Lernplattformen sind E-Learning-Systeme, deren Kernfunktionalität die Verwaltung und Verteilung von Lernmaterialien über das World Wide Web ist. In dieser Arbeit wurde untersucht, wie durch Aufzeichnung (Tracking), Auswertung und Visualisierung von Lernaktivitäten in Lernplattformen eine Verbesserung der Lernqualität erreicht werden kann. Der Ansatzpunkt dafür war, Informationen zu Lernaktivitäten in geeigneter Weise Lehrenden und Lernenden zu präsentieren, so dass diese Rückschlüsse ziehen können, um Lernprozesse eigenständig zu optimieren. Viele Lernplattformen verfolgen bereits diesen Ansatz und verfügen deshalb über entsprechende Funktionalität.
Es mussten zwei wesentliche Fragen beantwortet werden:
1. Was müssen Lernende und Lehrende über erfolgte Lernaktivitäten wissen?
2. Wie werden Lernaktivitäten in geeigneter Weise präsentiert?
Diese Fragen wurden durch Betrachtung existierender Lernplattformen (State of the Art) sowie Befragung von Experten in Form von Interviews beantwortet. Zur Beantwortung der 2. Frage wurden außerdem allgemeine Grundlagen der Auswertung und Visualisierung von Daten verwendet sowie (zu einem geringen Teil) Auswertungs- und Visualisierungsverfahren von Systemen, die keine Lernplattformen sind. Besondere Aufmerksamkeit wurde auch dem
Datenschutz gewidmet.
Beruhend auf den gewonnenen Erkenntnissen wurde dann ein Konzept für ein Auswertungs-/Visualisierungssystem entwickelt das in verschiedenen Punkten eine Verbesserung des State of the Art darstellt.
Teile des Konzepts wurden schließlich für das webbasierte Softwaresystem LernBar, das über einen Großteil der Funktionalität einer Lernplattform verfügt, prototypisch implementiert. Durch die Implementierung soll es ermöglicht werden, das Konzept im praktischen Einsatz zu evaluieren, was im Rahmen dieser Arbeit nicht möglich war.
Diese Diplomarbeit hatte das Ziel ein Konzept zu erstellen, welches es ermöglicht, interessante und weniger interessante Artikel innerhalb eines Wikis zu erkennen und diese Informationen in verständlicher Form zur Recherche visuell bereitzustellen.
Dabei sollte das Konzept möglichst offen sein, so dass theoretisch jedes Wiki an die Visualisierung hätte angebunden werden können. Hier lag bereits das erste Problem, zum Zeitpunkt der Arbeit existieren bereits mehr als 100 unterschiedliche Wikis mit unterschiedlichen Architekturen. Wegen der Unterschiede der jeweiligen Wikisysteme entschloss man sich daher zwei Konzepte zu erarbeiten, ein allgemeines, welches wie in der gestellten Zielsetzung, das Einbinden jedes Wikis ermöglicht und ein Spezialfall, der die Vorteile einer API nutzt. Der Spezialfall wurde in ähnlicher Form in einer Implementierung umgesetzt.
Zu Beginn der Diplomarbeit mussten die unterschiedlichen Möglichkeiten der Extraktion von Informationen aus einem Wiki untersucht werden. Es hatte sich ziemlich früh herausgestellt das Links, Backlinks sowie Kategorien wichtige Indikatoren zur Bewertung eines Artikels darstellen. Damit die Bewertung der Informationen nicht nur alleine auf der Struktur eines Wikis beruht, wurde ein Thesaurus zur unterstützenden Bewertung miteinbezogen. Dieser lieferte durchgehend gute Ergebnisse, wobei - wie erwartet - der Thesaurus sehr schnell an seine Grenzen gekommen war, insbesondere wenn man die Anzahl der Artikel eines großen Wikis mit der Anzahl der Wörter die im Thesaurus gespeichert sind vergleicht.
Die extrahierten und gewichteten Informationen wurden im zweiten Schritt visualisiert, dabei hatte sich der Radial-Graph als eine gute Lösung zur Darstellung der Informationen herausgestellt. Neben einem Graphen mit gewichteten Knoten wurden in der Visualisierung unterschiedliche Ansichten der extrahierten Daten bereitgestellt: eine Autorenansicht, die zum gesuchten Artikel die Autoren darstellt, eine semantische Ansicht, die Wortbeziehungen veranschaulicht sowie eine Artikelansicht, die den Nutzer neben den gewichteten Artikeln auch wie gewohnt in einer Wiki lesen lässt.
Klassische Bildmanipulation spielt sich meist im Zweidimensionalen, also in der reinen Bild-ebene ab. So werden beispielsweise Objekte aus Fotos entfernt, indem die dahinterliegende Struktur nachgezeichnet wird, oder es werden mehrere Teilbilder zu einem neuen, verfälschten Motiv zusammengesetzt. Bei der sogenannten Bildretuschierung werden unschöne Bereiche übermalt, um einen besseren Gesamteindruck zu erreichen. All diese Manipulationen haben im Grunde das gleiche Ziel: Das Erstellen einer möglichst realistischen Verfälschung der darge-stellten Szene indem die eigentlich dreidimensionalen Elemente in 2D imitiert werden.
Ziel dieser Arbeit ist es, von der reinen Zweidimensionalität eines Bildes Abstand zu nehmen und ein neues Verfahren zu entwickeln, Manipulationen im wirklichen 3D-Inhalt des Fotogra-fierten vorzunehmen. Dazu wird die klassische Bildmanipulation mit aktuellen Verfahren aus dem Bereich Multi View Stereo verknüpft. In einem ersten Schritt wird aus einer Fotoserie ein 3D-Modell mit passenden Texturen erstellt, welches anschließend nach Belieben manipuliert werden kann. Diese Veränderungen werden schließlich wieder in die Originalbilder übertragen, wodurch eine 3D-unterstützte Bildmanipulation realisiert wird.
Die praktische Umsetzung des vorgestellten Verfahrens basiert teilweise auf bereits vorhan-dener Software, die mit dem Ziel der Bildmanipulation neu kombiniert und durch eigene Um-setzungen ergänzt wird. So entsteht eine funktionierende Implementierung, die den kompletten Weg vom Original bis hin zum manipulierten Bild abdeckt.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Shader zur Bildbearbeitung
(2009)
In den letzten Jahren haben Grafikkarten eine starke Veränderung erfahren. Anfangs war lediglich die Darstellung vorberechneter Primitive möglich, mittlerweile lassen sich Vertex- und Pixelshader komplett frei programmieren. Die Spezialisierung auf den Rendervorgang hat die GPUs (Graphics Processing Units) zu massiv-parallelen Prozessoren wachsen lassen, die unter optimaler Ausnutzung ein Vielfaches der Rechenleistung aktueller CPUs erreichen. Die programmierbaren Shader haben Grafikkarten in der letzten Zeit vermehrt als weiteren Prozessor für General Purpose-Programmierung werden lassen.
Aktuelle Bildbearbeitungsprogramme zeigen, dass sich die Tendenz Richtung GPU bewegt, so wird sich auch in dieser Arbeit die enorme Rechenleistung der GPU für die Bildbearbeitung zu nutzen gemacht. Bildfilter lassen sich als Pixelshader realisieren und ermöglichen so die Ausführung direkt auf der GPU. Das vorgestellte Framework SForge wurde mit dem Ziel entwickelt, zu einem bestehenden Framework kompatibel zu sein. Als bestehendes Framework wurde auf AForge zurückgegriffen. Mit SForge können bestehende und eigene Bildfilter direkt auf der GPU ausgeführt werden, aber auch die Konvertierung von Farbräumen und Farbsystemen wurden realisiert. Das Framework arbeitet floatbasierend. Somit können auch HDR-Daten verarbeitet werden, um beispielsweise Tonemapping anzuwenden. Filter mit Parametern lassen sich über einen optionalen Dialog interaktiv ändern und modifizieren das Resultat in Echtzeit.
In erstem Teil der Arbeit wurde der Begriff Drehbuch in Hinsicht auf die Erstellung von eLearning Kursen erläutert und eLearning Inhalte auf ihre typischen Merkmale untersucht. Dabei war es wichtig zu verstehen, ob und wie die kooperative Arbeit an Inhalten in gängigen Textbearbeitungsprogrammen unterstützt wird und welche Vor- und Nachteile der jeweilige Editor aufweist. Wie sich herausgestellt hat, setzen bestehende Lösungen auf Auszeichnungen von Textbausteinen und der Kursstruktur mit Hilfe von speziellen Makros, so dass beim Transformieren des Kurses diese wiedererkannt werden können. Leider sind diese Lösungen auf einen bestimmten Editor spezialisiert und betrachten die kooperativen Aspekte der Arbeit an Inhalten nicht.
Da das Drehbuch in einem Textbearbeitungsprogramm erstellt wird, ist die Möglichkeit der Wahl von einem Editor für die Autoren vorteilhaft. Deshalb sieht der Lösungsansatz in meiner Arbeit vor, dass die Umsetzung des Drehbuches nicht auf einen bestimmten Editor beschränkt ist und dass für jeden Editor kooperative Bearbeitung ermöglicht wird. Dies wird zum einen durch Verwendung eines Versionskontrollesystems und zum anderen durch die kooperativen Eigenschaften der Editoren erreicht.
Das Transformieren eines Drehbuches zu einem eLearning Kurs wurde einheitlich gestaltet, da HTML als ein gemeinsames Format der Ausgabe von Editoren ausgewählt wurde. In der Implementierung des Lösungsansatzes konnte am Beispiel des Autorensprogramms LernBar die Unterstützung von bereits drei Editoren erreicht werden.
Einige Einschränkungen sind bei der Verwendung dieser Lösung zu beachten. Bei den Veränderungen in der HTML-Ausgabe der Editoren sind möglicherweise auch Anpassungen im Programm vorzunehmen. Die Verwendung von Tabellen impliziert, dass ihre Struktur durch den Autor nicht geändert wird, was durchaus auch versehentlich passieren kann. Bei der Erstellung von Tests ist eine umfassende Validierung empfehlenswert, damit die Tests wie erwartet durchgeführt werden können. Es wurden in der Implementierung nur einige Testtypen umgesetzt und möglicherweise sind einige Tests nicht für die Erfassung im Drehbuch geeignet. In dem Fall müssen sie in den verwendeten Autorenprogramm direkt erstellt werden.
Die rasante Entwicklung von Internettechnologien wird sicherlich neue Möglichkeiten sowohl für die kooperative Arbeit, als auch für Textbearbeitungsfunktionalitäten anbieten. Allein im Jahr 2010 wurden mehrere Neuerungen auf dem Markt von Online-Editoren eingeführt. Microsoft hat eine Online-Version1 von seiner Office-Suite veröffentlicht und damit eine neue Alternative zu Google Docs angeboten. In Google-Docs werden nahezu im monatlichen Takt neue nützliche Funktionen implementiert, die sowohl die Textverarbeitung als auch die Kooperation verbessern.
Das Internet als Informationsmedium ist Plattform für eine nie dagewesene Menge an Information, die für einen einzelnen Menschen nicht mehr zu überblicken ist.
Moderne Web-Suchmaschinen greifen auf die Methoden des Information Retrieval zurück um einem NutzerWerkzeuge anzubieten die zu ihrem Informationsbedürfnis relevanten Dokumente im Internet zu finden. Visualisierungen können diese Dokumentenmenge effektiver durch den Nutzer verarbeitbar machen. Eine komplexe Suchanfrage zu formulieren oder ein Suchergebnis nach bestimmten Kriterien zu filtern ist jedoch heute noch denjenigen vorbehalten die bereit sind, die erweiterten Funktionen der Suchmaschinen zu lernen.
Der in dieser Arbeit vorgestellte Ansatz möchte durch die Kombination der Visualisierung, die einen effektiven Überblick über den Suchergebnisraum gibt, mit den mächtigen Filtermöglichkeiten moderner Suchmaschinen die einfache Filterung von Suchergebnismengen durch ein Direct Maniuplation Interface ermöglichen.
Interactive Gorilla
(2010)
Beeindruckt von einer auf Annäherung reagierenden Dinosaurier-Animation des Brüsseler Naturkundemuseums, entstand die Idee einen noch komplexeren interaktiven Gorilla zu entwerfen. Der Gorilla soll dabei auf einer großen Leinwand dargestellt werden und die Besucher können mit diesem anhand ihrer Position interagieren, worauf er seine Tätigkeit und Gestik an diese anpasst.
Da keine Umsetzung, die durch gezielte Anpassungen das gewünschte Ergebnis liefern würde, vorhanden war, wurde das System im Rahmen dieser Arbeit angefertigt. Der Aufbau lässt sich dabei in drei große Module aufteilen, die auf den Ergebnissen des vorherigen Moduls arbeiten.
Zuerst wurde ein System entwickelt, mit dem es möglich ist die Besucher im Raum zu erfassen und festzustellen an welchen Positionen sie sich aufhalten. Diese Informationen werden von einer Verhaltenssimulation weiterverarbeitet. Diese ist durch einen endlichen Automaten realisiert, der auf einem Graphen operiert. Die Ergebnisse, die vom Erkennungssystem geliefert werden, sind dann dafür verantwortlich, dass sich das Verhalten entsprechend ändert. Zuletzt wird das aktuelle Verhalten des Gorillas mit Hilfe eines 3D-Modells und Animationen auf der Leinwand dargestellt.
Des weiteren sind im Rahmen dieser Arbeit zusätzliche Editoren entstanden um die Zustände des Graphen und die dadurch darzustellenden Animationen nachträglich anzupassen.
Point-Based Animation
(2011)
Die punktbasierte Animation ist ein relativ neues Gebiet im Bereich der Animation. Der Unterschied zu den weit verbreiteten polygonnetzbasierten Verfahren liegt darin, dass zwischen den einzelnen Punkten, welche die Oberfläche des zu animierenden Objekts definieren, keine Topologieinformationen vorhanden sind. Mit polygonnetzbasierten Techniken ist keine Volumensimulation möglich, da keine Volumeninformationen vorhanden sind. Die aktuellen Verfahren im punktbasierten Feld ermöglichen die Animation von Flüssigkeiten, Rauch oder Explosionseffekten. In dieser Arbeit wird eine Animation auf Grundlage eines zur Verfügung gestellten Punktmodells ausgeführt. Um zu gewährleisten, dass die Animation korrekt nach den Gesetzen der Physik arbeitet, wird eine Physikengine zu Hilfe genommen. Diese beiden Bereiche werden in dieser Arbeit miteinander verknüpft. Zunächst werden einfache Simulationen im Sektor der starren Körperdynamik durchgeführt. Dabei werden einzelne Punkte unter Einfluss der Gravitation auf eine Ebene fallen gelassen. Vor allem die Berechnung der Kollision mit der Ebene und der Punkte untereinander ist hierbei interessant. Um sehenswerte physikalische Effekte animieren zu können, muss die Elastizität mit berücksichtigt werden. DesWeiteren wird in der Arbeit die Animation elastischer Körper verwirklicht. Hierbei wird eine an den Ecken fixierte elastische Ebene animiert. Einzelne Punkte können aus diesem elastischen Objekt herausgezogen werden, in Folge dessen sich das Objekt selbst repariert. Ebenfalls kann ein herausgeschnittner Punkt wieder in das Objekt eingefügt werden.
Durch die steigende Bedeutung von multimedialen Lernmaterialien in der Lehre und in der Wirtschaft, wachsen die Anforderungen, die an die Herstellung der Materialien gestellt werden. Verwaltung, Archivierung und Wiederverwendbarkeit sind die zentralen Begriffe um die Effektivität von multimedialen Lernmaterialien zu steigern und damit auch kommerziellen Erfolg zu erzielen. Es ist effektiv wenn Lernmaterialien ein Thema nicht erneut aufarbeiten, wenn es bereits ausreichend Materialien dazu gibt. Vorhandene Materialien können genutzt werden und sparen somit Ressourcen, die ansonsten zur Herstellung neuer Materialien genutzt werden müssten. In dieser Arbeit werden Metadaten als Mittel eingesetzt, um die Effektivität zu steigern. Dabei soll vor allem der Mehrwert durch die Verwendung von Metadaten deutlich gemacht werden. Eine Analyse aktueller Autorensysteme soll zeigen, wie Metadaten bereits eingesetzt werden und wo Probleme existieren. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer Erweiterung des Autorensystems LernBar verwendet. Um den Mehrwert der Metadaten deutlich zu machen, soll der gesamte Autorenprozess innerhalb der LernBar erweitert werden. Das heißt, dass der gesamte Ablauf, vom Erfassen bis zum Verwenden der Metadaten, abgebildet wird. Im Fokus der Erweiterung steht die Unterstützung des Autors bei der Erstellung von Lernmaterialien. Vorlagen und automatisierte Vorgänge dienen der Bedienbarkeit der neuen Funktionen.
Im Rahmen dieser Bachelorarbeit werden verschiedene Non-Photorealistic Rendering Verfahren zur Darstellung von rekonstruierten Artefakten, im Bereich der Paläontologie, beschrieben und implementiert. Hauptsächlich arbeiten die vorgestellten Verfahren im zweidimensionalen Bildraum, um beispielsweise Kanten in Bildern zu detektieren. Hierbei bedienen wir uns sogenannter Normal- und Depthmaps, welche als Zwischenresultate dienen, um die nötigen Informationen zu sammeln, welche zur Erkennung von Kanten im Bild notwendig sind. Neben der Kantendetektion werden NPR Verfahren genutzt, um skizzenhafte Illustrationen zu erzeugen, welche per Hand gezeichnete wissenschaftliche bzw. technische Illustrationen nachahmen und somit (halb)automatisieren sollen. Mithilfe von (programmierbaren) Shadern werden dann spezielle Texturen auf die Oberflächen der Modelle gelegt, um eine skizzenhafte Darstellung zu erzeugen. Solche Verfahren erleichtern demnach die aufwändige Arbeit der Künstler, welche gewöhnlich viel Zeit für ihre Illustrationen benötigen.
Die vorliegende Bachelorarbeit untersucht die Möglichkeiten der mobilen Produktion und Verwaltung von Web- und Multimedia-Inhalten, welche mit geografischen Koordinaten verknüpft sind.
Durch die stetig wachsende Verbreitung mobiler Geräte wie Smartphones, Tablets oder Netbooks und der damit in Anspruch genommenen Verfügbarkeit von mobilen Internetzugängen in Form von WLAN, GPRS, UMTS oder LTE, wird die gemeinsame Erstellung und Verwaltung von geolokalisierten Inhalten durch Teilnehmer einer Interessengruppe ermöglicht.
Besonders Inhalte deren Standort relevant ist, können von automatisierter Lokalisierung profitieren. Durch Ortungsmechanismen können Daten bei ihrer Erstellung oder Bearbeitung automatisch mit dem Standort des Geräts versehen werden. So lassen sich zum einen geografische Daten sammeln und zum anderen Inhalte auf unkomplizierte Art und Weise mit dem Standort des Autors zum Zeitpunkt ihrer Erstellung verknüpfen.
Darüber hinaus können Anwender abhängig von ihrem Aufenthaltsort Informationen über ihre Umgebung abrufen, ohne zuvor in einer Kartenansicht zu ihrer aktuellen Position navigieren zu müssen.
Die vorliegende Arbeit behandelt sowohl das Erhalten als auch das Erzeugen multimedialer Inhalte in Abhängigkeit von ihren geografischen Koordinaten. Die technische Realisierung dieses Konzepts findet mit Hilfe der frei verfügbaren MediaWiki-Software[1] als Content-Management-System sowie einer, für mobile Geräte optimierten Webseite als Frontend statt.
Der Umfang der Arbeit umfasst neben dem Entwurf eines Konzepts und der ausführlichen Beschreibung einer möglichen Implementierung eine Einführung in die Grundlagen der verwendeten Komponenten. Zuletzt sollen ein Fazit und ein Ausblick Konzept und Realisierung kritisch betrachten, um einen Einblick in vorhandene Potenziale der Lösung zu bieten.
In dieser Arbeit wurden Web Browser bezüglich ihrer Eignung zum Erstellen interaktiver eLearning Fragen untersucht. Vor dem Hintergrund der speziellen Charakteristika von mobilen Endgeräten wurden insbesondere die Aspekte der Beschränkung auf standardisierte Technologien, sowie die Clientseitigkeit der Applikation hervorgehoben. Es konnte eine Grundlage geschaffen werden, die das Erstellen von interaktiven Fragen nur mit Hilfe von HTML und Javascript ermöglicht und es wurde ein weitgehender Verzicht auf serverseitige Komponenten erreicht.