Universitätspublikationen
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
- Alzheimer (1)
- Amphisphaeriales (1)
- Angiogenesis (1)
- Arbeitsbedingungen (1)
- Asian Tiger Mosquito (1)
- Asiatische Tigermücke (1)
- Außerschulisches Lernen (1)
- Batten disease (1)
- Beatmung (1)
- Biodiversität (1)
- Biomoleküle (1)
- Blockplay (1)
- Broken symmetry (1)
- CCLM (1)
- CORDEX-EAS (1)
- Call Center (1)
- Carotinoidbiosynthese (1)
- Computerkompetenz (1)
- Conformational Dynamics (1)
- DDX6 (1)
- DFT (1)
- DPOAE (1)
- Delegation (1)
- Density Functional Theory (1)
- Deutschland (1)
- ESD (1)
- Early Childhood (1)
- Emittanz (1)
- Enzymes and Biomimetic Systems (1)
- Epigenetik (1)
- Error Mitigation (1)
- Erythropoetin (1)
- Exercise (1)
- Exercise Metabolism (1)
- Eye Tracking (1)
- FPGA (1)
- FRANZ-Projekt (1)
- Familie (1)
- Family (1)
- Fault Tolerance (1)
- Fettsäuresynthase (1)
- Forschungsbohrung Sichenhausen (1)
- Fragmentierungsquerschnitte (1)
- Freiheit (1)
- Gas Chromatography (1)
- Geoelektrik (1)
- Geometrie (1)
- Geometry (1)
- Germanistik (1)
- Geschichte 1966-2001 (1)
- Geschlechterforschung (1)
- Gespräch (1)
- Gesundheitliche Ungleichheit (1)
- Gesundheitsverhalten (1)
- Grundschule (1)
- HIV (1)
- Halocarbons (1)
- Halogenated Trace Gases (1)
- Handlung (1)
- Hausarztpraxis (1)
- Hegel (1)
- HepG2 Zellen (1)
- Hodgkin-Lymphom (1)
- Holzklötzchen (1)
- Hydroxylation (1)
- Immigration (1)
- Integral Geometry (1)
- Intelligence (1)
- Interaction (1)
- Invariant object recognition (1)
- Inversion (1)
- Ionenquelle (1)
- Ionizing Radiation (1)
- Iran (1)
- Juvenile neuronal ceroid lipofuscinosis (1)
- Karotte (1)
- Kinzigtal (1)
- Konstruktvalidität (1)
- Kurdistan (1)
- LINE-1 (1)
- LU-102 (1)
- Lernen (1)
- Lungenkontusion (1)
- Lösungsprozess (1)
- Material Flow Analysis (1)
- Mathematics Learning (1)
- Mathematik (1)
- Medizinische Fachangestellte (1)
- Mehrsprachigkeit (1)
- Mitochondria (1)
- Mitochondrium (1)
- Modellorganismus (1)
- Moesia Superior (1)
- Molarenevolution (1)
- Monsun (1)
- Multikomponentenreaktion (1)
- Mycophenolat Mofetil (1)
- NMR shift calculation (1)
- Nahrungsmittelallergie (1)
- Namibia (1)
- Nok Culture (1)
- Oligonukleotide (1)
- Optical Spectroscopy (1)
- Ostasien (1)
- P-TEFb (1)
- Palladium-Katalyse (1)
- Participation (1)
- Partizipation (1)
- Pb-Ag (1)
- Pepperpot (1)
- Pestalotia (1)
- Pestalotiopsis (1)
- Phaeodactylum tricornutum (1)
- Pharmacology (1)
- Photodynamics (1)
- Primärversorgung (1)
- Proteine (1)
- Prozedurales Wissen (1)
- Qualifikation (1)
- RCM (1)
- RNAPII (1)
- Rainwater Harvesting (1)
- Reasoning (1)
- Republik Moldau (1)
- Retrotransposition (1)
- Ribonucleic Acids (1)
- Roman (1)
- Rotorest (1)
- SORN (1)
- STARS (1)
- STDP (1)
- Saccharomyces cerevisiae (1)
- Schlitz-Gitter (1)
- Scientific Materials Analysis (1)
- Sellerie (1)
- Single Event Effects (1)
- Single-particle (1)
- Skeletal muscle fiber-type switching (1)
- Soziolinguistik (1)
- Spiel (1)
- Sportunterricht (1)
- Sprachliche Minderheiten (1)
- Staatstheorie (1)
- Stahlenschäden (1)
- Strafrecht (1)
- Strukturwandel (1)
- Support (1)
- Sustainability Evaluation (1)
- Talk (1)
- Technologiebasiertes Problemlösen (1)
- Terracotta Figurines (1)
- Time-of-Flight Mass Spectrometry (1)
- Time-resolved Fluorescence (1)
- Trace Gas Analysis (1)
- Transfer learning (1)
- Transition Metals (1)
- Turkish immigrants (1)
- Türkisch (1)
- Universa feature extraxtion (1)
- Unternehmensstrafrecht (1)
- Unterstützung (1)
- Valuation Theory (1)
- Verankerung (1)
- Verbandsstrafrecht (1)
- Vogelsberg (1)
- Water Reuse (1)
- Wirtschaftsstrafrecht (1)
- Working Memory (1)
- Zelle (1)
- Zellfusion (1)
- Zurechnung (1)
- Zweiphotonen (1)
- archaeometallurgy (1)
- categorisation-elaboration model (1)
- cell biology (1)
- cryo-EM (1)
- drug discovery (1)
- enantioselektive Synthese (1)
- episodic team process model (1)
- frühkindliche Erziehung (1)
- fungi (1)
- global and virtual teams (1)
- high-content screening (1)
- ibrutinib (1)
- ionisierende Strahlung (1)
- kinetische Therapie (1)
- lattice (1)
- magnetic exchange coupling constants (1)
- magnon condensation (1)
- magnon-phonon interactions (1)
- medieval/early modern (1)
- microRNA (1)
- molecular phylogenetics (1)
- multiple myeloma (1)
- neural networks (1)
- phase transitions (1)
- photolabile Schutzgruppe (1)
- plasticity (1)
- proteasom inhibitor (1)
- quantum chromodynamics (1)
- regionale Klimasimulation (1)
- steroid (1)
- synaptic normalization (1)
- team innovation (1)
- unterrichtliche Vor- und Nachbereitung (1)
- variability (1)
- yttrium-iron garnet (1)
- Übergewicht und Adipositas im Kindesalter (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Die Untersuchung befasst sich am Beispiel der fotografischen Arbeiten von Barbara Klemm mit einer aktuellen Entwicklung in der Fotografie. Der Lebens- und Berufsweg der Fotografin steht dabei stellvertretend für eine Generation von Reportage- und Dokumentarfotografen, die in der zweiten Hälfte des 20. Jahrhunderts nicht nur erfolgreich in ihrem Beruf gearbeitet, sondern darüber hinaus auch im musealen Kontext Beachtung erfahren haben. Durch die wachsende öffentliche Aufmerksamkeit und das damit verbundene Ansehen entwickelten sich die Arbeiten von Barbara Klemm von dokumentarischen Zeitungsbildern zu künstlerischen Fotografien. Wie dieser Prozess vom Zeitungsbild zum Museumsbild im Einzelnen abgelaufen ist, wird in der vorliegenden Arbeit untersucht.
Zu Beginn wird der gegenwärtige Umgang mit Fotografie in der Gesellschaft und in der Kunst thematisiert. Es wird die Entwicklung des fotografischen Mediums seit 1960 parallel zu den Wirkjahren von Barbara Klemm untersucht und gezeigt, welchen Einfluss diese Veränderungen auf ihr Werk und dessen Wahrnehmung hatten.
Dies ist im Allgemeinen die Frage nach der Wahrnehmung von Fotografie und im Speziellen nach der Veränderung von Wahrnehmung oder besser nach der Veränderung der Umwelt, die dem Betrachter eine andere Sicht auf die Fotografie ermöglicht. Das Thema ist aus der Sicht der Kunstwissenschaft und Kunstpädagogik bedeutsam, denn es zeigt, wie sich gesellschaftliche Kategorisierungen nicht unmittelbar, sondern im Laufe eines jahrzehntelangen Prozesses verändern. Eine Veränderung, deren Ursachen in einer engen Vernetzung von Wahrnehmung, Kommunikation, gesellschaftlicher Faktoren und ganz unterschiedlicher Entwicklungen innerhalb verschiedener einflussnehmender Systeme in einer gemeinsamen Umwelt zu suchen sind. Die analoge Schwarzweißfotografie ist die Technik in der Barbara Klemm arbeitet. Dies stellt heutzutage eine Besonderheit dar, denn die Sehgewohnheiten der Betrachter sind durch sehr verschiedene Bildarten geprägt. Diese reichen von Schnappschüssen und Amateuraufnahmen mit Kleinbild- oder handykameras bis hin zu professionellen Fotografien in der Werbung oder in Hochglanzmagazinen. Aufgrund der digitalen Technik, bei der mehr Aufnahmen in kurzer Zeit gemacht werden können, treten Komposition, Bildaufbau und Beleuchtung oft in den Hintergrund. Die Unterschiede zwischen analoger und digitaler Fotografie werden zudem in einer geschichtlichen Entwicklung der Reportagefotografie der vergangenen Jahrzehnte vertieft. Barbara Klemm arbeitete den größten Teil ihres Berufslebens als Bildjournalistin bei der Frankfurter Allgemeinen Zeitung. Von 1970 bis 2004 war sie zuständig für die Bereiche Politik und Feuilleton. In diesen Jahren entstanden Bilder, die heute zum kollektiven Gedächtnis vieler Deutscher zählen. Ausgehend von ihrer Arbeit wird dargestellt, wie die Fotografien einem Publikum zugänglich gemacht wurden und im Laufe der Zeit über das Medium der Zeitung hinaus in andere Bereiche der Öffentlichkeit gelangten, vor allem in die Kunst, aber auch in die Bereiche der Geschichte und Erinnerungsarbeit. Unter Verwendung der theoretischen Grundlage und Kategorisierung von Niklas Luhmann werden Arbeiten der Fotografin im System Journalismus und im System Kunst untersucht. An dieser Stelle waren Operatoren notwendig, die ihre Bilder aus dem System des Zeitungswesens in das System der Kunst transferierten. Diese Aufgabe konnten nur bestimmte Schlüsselfiguren (Schlüsselpersonen) erfüllen, denn Barbara Klemm hatte zu keiner Zeit intendiert, künstlerisch zu arbeiten. Das bedeutet, nur ein anerkannter Museumsdirektor oder ein erfahrener Ausstellungskurator konnte ihre Position in das „System Kunst“ einführen.
Nach einer kurzen biografischen Vorstellung der Arbeits- und Lebensstationen werden der Stil, die Technik und die Komposition Barbara Klemms Fotografien analysiert, um anschließend einen Versuch zu unternehmen, die besondere Ästhetisierung der Bilder zu erklären. So besitzt eine gelungene Fotografie von Barbara Klemm einen Mehrwert gegenüber den reinen Reportagebildern. Was der Betrachter vor Barbara Klemms Bildern empfindet und assoziiert, ist zum Teil individuell, zum Teil aber auch sozial, gesellschaftlich und kulturell – also intersubjektiv bestimmt. All seine Erfahrungen prägen die Beziehung zu jedem einzelnen Bild. Dass die Fotografien von Barbara Klemm heute eine breite Akzeptanz erfahren, hängt auch mit gesellschaftlichen Abläufen zusammen. Wissen und Meinungen festigen sich durch Wiederholung, die zur Gewohnheit werden. Vertrautem begegnet man folglich eher mit Sympathie und Wohlwollen, nicht zuletzt vermittelt es eine gewisse Sicherheit. Die langjährige Präsenz als Fotografin bei der Frankfurter Allgemeinen Zeitung stellt demnach eine fruchtbare Basis dar. Symbolisch gesprochen ist ihre Anstellung bei der Tageszeitung das stabile Fundament, auf dem ihr späterer Erfolg als künstlerische Fotografin aufbaut.
Die Inauguraldissertation „Strafrechtsdogmatische und strafprozessuale Probleme bei der Einführung und Umsetzung einer Verbandsstrafbarkeit. Untersuchung des Entwurfs eines Ge-setzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unternehmen und sonstigen Verbänden“ verfasst von Frau Franziska Osterloh, LL.M., befasst sich mit der Einführung einer Verbandsstrafbarkeit. Betreut wurde die Arbeit an der Johann Wolfgang von Goethe – Universität, Frankfurt am Main, von Herrn Prof. Dr. Matthias Jahn. Anlass des aktuellen Auflebens der wissenschaftlichen Diskussion und Anknüpfungspunkt dieser Arbeit war der Entwurf eines Gesetzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unter-nehmen und sonstigen Verbänden, der auf Vorschlag des nordrhein-westfälischen Justiz-ministeriums der Justizministerkonferenz der Länder im November 2013 vorgelegt wurde.
Zu Beginn wird anhand einer kurzen historischen Einführung und einer Darstellung der rechtlichen Grundlagen von Verbandstätigkeit außerhalb des (Kern-)Strafrechts aufgezeigt, dass der Verband als Rechtssubjekt weitestgehend anerkannt und verselbstständigt ist. An-schließend werden die kriminalpolitischen Argumente zur Begründung einer Verbandsstraf-barkeit in ihren wesentlichen Zügen wiedergegeben.
In dem folgenden der Arbeit untersucht die Verfasserin die strafrechtsdogmatischen Probleme der Einführung einer Verbandsstrafbarkeit. Dabei konzentrieren sich die Ausführungen auf die „klassischen“ Eckpunkte des wissenschaftlichen Diskurses, die Handlungs-, Schuld- und Straffähigkeit von Verbänden. Hierbei liegt ein Schwerpunkt auf der Auseinandersetzung mit der Frage der möglichen Schuldfähigkeit eines Verbandes. Als Ergebnis dieses Kapitels wird festgehalten, dass die bloße Zurechnung ebenso wie die selbstständige Verbandsschuld, nicht den Anforderungen des Schuldprinzips genügen kann. Der Bezug zu der natürlichen Hand-lung, die nach außen in Erscheinung tritt, ist mit Hilfe einer Zurechnung erforderlich und dann ausreichend, wenn für den Verband die Möglichkeit bestanden hätte, durch Organi-sationsstrukturen die Ausführung der Handlung zu verhindern.
Anhand dieser Ergebnisse werden die materiell-rechtlichen Aspekte des untersuchten Gesetzesentwurfs näher beleuchtet und insbesondere die in § 2 des Entwurfs enthaltenen Tatbestände, die sich stark an §§ 30, 130 OWiG anlehnen, untersucht. Die Verfasserin kommt zu dem Ergebnis, dass die Tatbestände unter Berücksichtigung einer teleologischen Aus-legung und restriktiven Handhabung nicht gegen Verfassungsrecht verstoßen.
Die Untersuchung der strafprozessualen Aspekte des Gesetzesentwurfs bezieht sich zum einen auf die übergeordneten Verfahrensprinzipien und deren im Ergebnis weitgehende An-wendbarkeit auf Verbände und zum anderen auf die konkreten Normierungen des Entwurfs. Ein Schwerpunkt wird hierbei auf die Beschuldigtenrechte gelegt, die nach Ansicht der Verfasserin noch nicht hinreichend klar normiert sind. Abschließend werden einige strafprozessuale Besonderheiten untersucht, die nicht ausdrücklich oder lediglich beiläufig von dem Gesetzesentwurf aufgefasst werden.
Als Gesamtergebnis der Arbeit wird der untersuchte Gesetzesentwurf zwar als begrüßens-werte Präzisierung und Bereicherung der Diskussion um eine Verbandsstrafbarkeit, jedoch nicht als dessen Schlusspunkt eingeordnet.
Die in den letzten Jahrzehnten erfolgten Entwicklungen im Bereich der Informations- und Kommunikationstechnologien (IKT) haben beinahe alle Teilbereiche der Gesellschaft erreicht (OECD, 2000) und so können Alltag, Beruf, aber auch soziale Interaktionen benannt werden (Autor, Levy, & Murnane, 2003). Das technologiebasierte Problemlösen stellt ein relevantes Kompetenzkonstrukt dar, wobei die empirische Validierung der Testwertinterpretation noch aussteht. „Technologiebasiertes Problemlösen ist die Kompetenz, digitale Technologien, Kommunikationshilfen und Netzwerke erfolgreich für die Suche, Vermittlung und Interpretation von Informationen zu nutzen.“(OECD, 2009; zitiert nach Rammstedt, 2013). Ziel einer Konstruktvalidierung ist es theoretische Annahmen – sowie nomologische Netze – mit empirischen Belegen zu prüfen und somit Aussagen über die Gültigkeit der Testwertinterpretationen treffen zu können (vgl. Messick, 1995). Zu diesem Zweck wurden die folgenden fünf Leithypothesen aufgestellt:
1. Im technologiebasierten Problemlösen können Teilsequenzen durch Routinen im Umgang mit IKT bewältigt werden.
Mit dem Ziel der Analyse von Lösungsprozessen wurden Prozessdaten aus dem Feldtest der PIAAC-Studie genutzt und automatisierbare Teilschritte (beispielsweise Schließen eines Popups) analysiert. Eine schnelle Bearbeitung dieser Teilschritte wurde auch mit einer höheren Lösungswahrscheinlichkeit des Problems assoziiert. Die Testwerte des technologiebasierten Problemlösens spiegeln die bildungsbiographischen Lernerfolge wider, die zu einem routinierten Umgang mit IKT führen.
2. Durch die Entstehungsgeschichte von IKT begründet, bestehen Differenzen im technologiebasierten Problemlösen.
Entstehung moderner IKT legt eine Differenzierung von drei Kohorten nahe (orientiert an lernintensiven Phasen der Kindheit und Jugend):
- Erlebten die Entstehung und Verbreitung von Hardware (geboren 1946-1966)
- Begleiteten die Verbreitung von Computersoftware und dessen Nutzung (geboren 1966-1981)
- Nutzung und Gestaltung digitaler Inhalte des Internets (geboren 1981-1995)
Erwartungsgemäß unterscheiden sich die Kohorten im technologiebasierten Problemlösen – genauer in der Nutzung von Routinen im Lösungsprozess und im erreichten Kompetenzniveau. Ältere Kohorten benötigten im Mittel mehr Zeit für Teilschritte, die durch Routinen bearbeitet werden können und sie erreichten im Mittel niedrigere Kompetenzniveaus. Obwohl Lesekompetenzen eine wesentliche Bedeutung im technologiebasierten Lösen von Problemen haben, können sie die Kohortenunterschiede nicht umfassend aufklären. Weil ältere Personenkohorten während ihrer formellen Ausbildungsphasen IKT – wie sie heute verwendet werden – nicht nutzen konnten, haben informelle Lerngelegenheiten eine wesentliche Bedeutung. So profitieren ältere Personen von einem regelmäßigen, beruflichen oder privaten Umgang mit diesen Technologien. Die Testwerte des technologiebasierten Problemlösens spiegeln entstehungsgeschichtlich begründete Kohortenunterschiede wider, welche durch lebenslange, formelle und informelle Lerngelegenheiten minimiert werden können.
3. Der Umgang mit IKT ist – begründet durch deren Entstehungsgeschichte – eher weniger Teil der formellen und schulischen Bildung.
Technologiebasiertes Problemlösen wird weniger in formellen und schulischen Lerngelegenheiten erworben, als andere Kompetenzen wie beispielsweise mathematische und Lesekompetenzen. Folglich wurden für das technologiebasierte Problemlösen kleinere Differenzen zwischen hohen, mittleren oder niedrigen Bildungsabschlüssen erwartet und konnten empirisch anhand der PIAAC-Daten belegt werden. Vorteile von Personen mit einem hohen Bildungsabschluss konnten durch höhere Lesekompetenzen erklärt werden. Die Testwerte des technologiebasierten Problemlösens bilden entstehungsgeschichtlich begründete Unabhängigkeiten des Kompetenzkonstruktes ab, das zumeist nicht schulisch erworben wurde.
4. Technologiebasiertes Problemlösen ist ein eigenständiges Kompetenzkonstrukt, das Parallelen zu mathematischen und Lesekompetenzen aufweist.
Mathematische und Lesekompetenzen stehen in einem Zusammenhang mit dem Umgang mit IKT und somit auch mit dem technologiebasierten Problemlösen. Die Leseanteile am technologiebasierten Problemlösen werden als größer eingeschätzt, als die der mathematischen Kompetenz und stärkere Effekte durch Lesekompetenz konnten empirisch
nachgewiesen werden. Die Annahme der Eigenständigkeit des technologiebasierten Problemlösens wird im Weiteren dadurch gestützt, dass der alltägliche Umgang mit mathematischen und Leseinhalten weniger stark mit ihm assoziiert ist, als der Umgang mit IKT. Nomologische Netze zwischen technologiebasiertem Problemlösen und mathematischen sowie Lesekompetenzen konnten empirisch gestützt werden und die Annahme der Eigenständigkeit des Kompetenzkonstruktes bestärkt.
5. Die Nutzung von IKT – als Lerngelegenheit verstanden – und andere Lerngelegenheiten sowie Indikatoren erfolgreichen Lernens können zum technologiebasierten Problemlösen beitragen.
Lebenslanges Lernen ist ein Teil der menschlichen Natur und in diesem Rahmen dienen verschiedenste formelle und informelle Lerngelegenheiten dem Erwerb von Wissen und Kompetenzen (Dohmen, 2001). So erreichen Personen im technologiebasierten Problemlösen ein höheres Kompetenzniveau, wenn sie regelmäßig privaten oder beruflichen Umgang mit IKT hatten. Neben diesen informellen Lerngelegenheiten steht auch die Teilnahme an Weiterbildungen in einem positiven Zusammenhang mit der technologiebasierten Bewältigung von Problemen. Des Weiteren hat eine positive Einstellung gegenüber dem Lernen neuer Inhalte einen Einfluss auf die technologiebasierte Problemlösekompetenz. Die Testwerte des technologiebasierten Problemlösens spiegeln die Lernerfolge durch das lebenslange Lernen wider, die durch verschiedene bildungsbiographische Merkmale – insbesondere formelle und informelle Lerngelegenheiten – befördert werden.
Das technologiebasierte Problemlösen in der Operationalisierung der PIAAC-Studie lässt eine konstruktrepräsentative Testwertinterpretation zu und ermöglicht somit eine differenzierte Beschreibung von Kompetenzen im Umgang mit IKT.
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
Different approaches are possible when it comes to modeling the brain. Given its biological nature, models can be constructed out of the chemical and biological building blocks known to be at play in the brain, formulating a given mechanism in terms of the basic interactions underlying it. On the other hand, the functions of the brain can be described in a more general or macroscopic way, in terms of desirable goals. This goals may include reducing metabolic costs, being stable or robust, or being efficient in computational terms. Synaptic plasticity, that is, the study of how the connections between neurons evolve in time, is no exception to this. In the following work we formulate (and study the properties of) synaptic plasticity models, employing two complementary approaches: a top-down approach, deriving a learning rule from a guiding principle for rate-encoding neurons, and a bottom-up approach, where a simple yet biophysical rule for time-dependent plasticity is constructed.
We begin this thesis with a general overview, in Chapter 1, of the properties of neurons and their connections, clarifying notations and the jargon of the field. These will be our building blocks and will also determine the constrains we need to respect when formulating our models. We will discuss the present challenges of computational neuroscience, as well as the role of physicists in this line of research.
In Chapters 2 and 3, we develop and study a local online Hebbian self-limiting synaptic plasticity rule, employing the mentioned top-down approach. Firstly, in Chapter 2 we formulate the stationarity principle of statistical learning, in terms of the Fisher information of the output probability distribution with respect to the synaptic weights. To ensure that the learning rules are formulated in terms of information locally available to a synapse, we employ the local synapse extension to the one dimensional Fisher information. Once the objective function has been defined, we derive an online synaptic plasticity rule via stochastic gradient descent.
In order to test the computational capabilities of a neuron evolving according to this rule (combined with a preexisting intrinsic plasticity rule), we perform a series of numerical experiments, training the neuron with different input distributions.
We observe that, for input distributions closely resembling a multivariate normal distribution, the neuron robustly selects the first principal component of the distribution, showing otherwise a strong preference for directions of large negative excess kurtosis.
In Chapter 3 we study the robustness of the learning rule derived in Chapter 2 with respect to variations in the neural model’s transfer function. In particular, we find an equivalent cubic form of the rule which, given its functional simplicity, permits to analytically compute the attractors (stationary solutions) of the learning procedure, as a function of the statistical moments of the input distribution. In this way, we manage to explain the numerical findings of Chapter 2 analytically, and formulate a prediction: if the neuron is selective to non-Gaussian input directions, it should be suitable for applications to independent component analysis. We close this section by showing how indeed, a neuron operating under these rules can learn the independent components in the non-linear bars problem.
A simple biophysical model for time-dependent plasticity (STDP) is developed in Chapter 4. The model is formulated in terms of two decaying traces present in the synapse, namely the fraction of activated NMDA receptors and the calcium concentration, which serve as clocks, measuring the time of pre- and postsynaptic spikes. While constructed in terms of the key biological elements thought to be involved in the process, we have kept the functional dependencies of the variables as simple as possible to allow for analytic tractability. Despite its simplicity, the model is able to reproduce several experimental results, including the typical pairwise STDP curve and triplet results, in both hippocampal culture and layer 2/3 cortical neurons. Thanks to the model’s functional simplicity, we are able to compute these results analytically, establishing a direct and transparent connection between the model’s internal parameters and the qualitative features of the results.
Finally, in order to make a connection to synaptic plasticity for rate encoding neural models, we train the synapse with Poisson uncorrelated pre- and postsynaptic spike trains and compute the expected synaptic weight change as a function of the frequencies of these spike trains. Interestingly, a Hebbian (in the rate encoding sense of the word) BCM-like behavior is recovered in this setup for hippocampal neurons, while dominating depression seems unavoidable for parameter configurations reproducing experimentally observed triplet nonlinearities in layer 2/3 cortical neurons. Potentiation can however be recovered in these neurons when correlations between pre- and postsynaptic spikes are present. We end this chapter by discussing the relation to existing experimental results, leaving open questions and predictions for future experiments.
A set of summary cards of the models employed, together with listings of the relevant variables and parameters, are presented at the end of the thesis, for easier access and permanent reference for the reader.
Diese Dissertation geht der Frage nach, wie die Literacy-Förderung der Kinder im Kindergartenalter in türkischstämmigen Familien in Deutschland stattfindet. Es wird der Frage nachgegangen, wie sich sozioökonomische und soziokulturelle Verhältnisse der Familien die Literacy-Förderung beeinflussen. Es wurden zwei qualitative Untersuchungen durchgeführt. Im ersten Teil der Arbeit wurden zwölf Mütter anhand halbstrukturierter Interviews befragt. Die Daten wurden anhand der qualitativen Inhaltsanalyse ausgewertet. Im zweiten Teil wurde als nichtteilnehmende, offene Beobachtung der Vorlesesituation durchgeführt. Anhand der Sequenzanalyse wurde die Vorgehensweise der Mütter während des Vorleseprozesses ausgewertet.
Es wurde untersucht, inwieweit der ökonomische Status und das kulturelle Kapital der Eltern für die Literacy-Förderung prägend sind. In den untersuchten Familien sind sowohl die literacy-bezogenen Aktivitäten als auch die Erziehung insgesamt stark an den Normen der Mehrheitsgesellschaft orientiert. Entscheidend sind nicht auf Ethnizität bezogene Zuschreibungen, sondern die sozioökonomische Stellung und das kulturelle Kapital der Eltern bei der Literacy-Förderung in den türkischstämmigen Familien.
Die Untersuchung zeigt im ersten Teil, dass die untersuchten Familien bei der Literacy-Förderung mit zahlreichen Hindernissen konfrontiert sind, die nicht primär ethnisch begründet sind, sondern vielmehr auf sozioökonomische und soziokulturelle Faktoren zurückgeführt werden müssen. Die berufliche Situation und Arbeitsbedingungen der Eltern erschweren die Durchführung der literacy-bezogenen Aktivitäten. Der ökonomische Status und der Bildungsstand sowie das kulturelle Kapital der Eltern ist der Grund für Hindernisse. Das macht sich bemerkbar in drei Gesichtspunkten: (i) Bei der direkten Anregung des Kindes zu Literacy, wenn das Kind zum Schreiben initiiert wird, sein Interesse für Bücher geweckt oder bei alltäglichen Aktivitäten zum Schriftentdecken herangeführt wird. Die Mütter, die über kulturelles Kapital verfügen, führen diese Aktivitäten regelmäßig und effizient durch. (ii) Bei der Gestaltung der Literacy-Umgebung, wenn diese vielfältig gestaltet wird (z.B. die Auswahl elektronischer Medien). Hierbei macht sich der sozioökonomische Status am deutlichsten bemerkbar. (iii) Auch bei der die Vorbildfunktion der Eltern als indirekte Anregung macht sich kulturelles Kapital bemerkbar. Im zweiten Teil der empirischen Untersuchung zur Vorlesesituation sind zwei Handlungsmuster festgestellt worden, die dem Vorleseverhalten der Mütter zugrundeliegen. Dabei ist das kulturelle Kapital entscheidend. Die Mütter mit niedrigem Kulturkapital führen den Vorleseprozess monologisch und einseitig, sodass die Kinder nicht oder nicht hinreichend einbezogen werden. Die Mütter mit höherem Kulturkapital dagegen gestalten den Vorleseprozess dialogisch, sodass das Kind eingebunden wird. Der wichtigste Unterschied zwischen den beiden Handlungsmustern ist die Vermittlung der Erzählung. Im dialogischen Handlungsmuster wird der Vorleseprozess interaktiv gestaltet und die Haupthandlung der Geschichte im Blick behalten. Im monologischen Handlungsmuster aber hoffen die Vorlesenden, dass die Kinder durch bloßes Zuhören die Geschichte begreifen. Hier dominiert die Fokussierung auf die Einzelhandlungen. Während die Mütter höherem Kulturkapital die Vermittlung der Erzählung als ein zu erreichendes Ziel begreifen, tritt dies bei denen mit geringem Kulturkapital in den Hintergrund.
The high selectivity of biological transformations taking place in Nature have long inspired synthetic chemists to develop analogous chemical processes. Similarly, transient intermediates identified in chemical transformations often provide a basis to understand biological processes. Therefore, new insights gained in biological studies are often useful for chemistry and vice versa.
Proteins, and catalytically active enzymes, are among the most essential units of living cells. Metalloproteins or -enzymes, i.e., proteins or enzymes that contain transition metal ions such as copper, nickel, iron or zinc are often involved in processes like (1) metal-ion storage and transport, (2) exchange of electrons with the environment in catalysis and electron transfer reactions, and (3) dioxygen storage, transport, and metabolization.
For decades, copper-mediated biological oxidations have spurred a great deal of interest among synthetic and catalytic chemists. Copper enzymes such as dopamine β-monooxygenase (DβM), peptidylglycine α-hydroxylating monooxygenase (PHM),particulate methane monooxygenase (pMMO) and tyrosinase activate molecular oxygen (O2) and incorporate one of the oxygen atoms selectively into C−H bonds yielding hydroxylated organic substrates. Remarkable progress in bioinorganic research has led to the development of a large number of copper-based model systems supported by various nitrogen donor ligands that bind O2, cleave the O−O bond, and/or afford hydroxylation reactions similar to copper enzymes. These synthetic model systems have helped to understand the structureactivity relationships of their biological role models and supporting theoretical studies have contributed substantially to the development of the field. Specifically, several density functional theory (DFT) studies have provided detailed mechanistic insights into coppermediated aliphatic and aromatic hydroxylation reactions. Until to date, however, pertinent quantum chemical research still suffers from severe problems as to identify sufficiently accurate and efficient methods for mechanistic studies, and conflicting literature reports have created confusions within the scientific community. Therefore, the first aim of this thesis is to identify a DFT method well suited to describe copper-mediated hydroxylation reactions. With this method at hand a number of interesting hydroxylation reactions is investigated aiming at a detailed understanding of the underlying reaction mechanisms.
The thesis is divided into four chapters of which the first, the introductory chapter, is further divided into three sections (1) copper proteins and enzymes, (2) copper-O2 reactivity in enzymes and (3) biomimetic Cu/O2 chemistry. The first section gives a brief overview of a number of copper enzymes. The second section provides a concise introduction to the biochemical transformations brought about by those copper enzymes that perform aliphatic and aromatic hydroxylation reactions. It is shown that such copper enzymes carry different types of active sites which are responsible for their specific biological functions. These copper enzymes with their biological function are the role models for synthetic chemistry. In the third section, biomimetic Cu/O2 chemistry, the insights gathered in the past 35 years of extensive research on copper-based synthetic model systems that mimic various aspects of copper-enzyme reactivity are reviewed. Various types of active copper sites have been realized in these synthetic model systems and a brief introduction to the respective reactivities towards C−H bonds is presented. We will specifically focus on isomerization processes of dinuclear active Cu2O2 sites and the specific reactivity aspects of these isomers, as these phenomena have been the subject of enormous research efforts aiming at the understanding of the function of the enzyme tyrosinase.
Theory has been integral part of this research and density functional theory (DFT) has effectively taken over the role as a working horse in most studies. Therefore, the second chapter is devoted to an exposition of earlier DFT applications in mechanistic studies of Cu/O2 chemistry. We specifically highlight the problems related to the use of DFT in this field and illustrate the present state of knowledge.
The third chapter of this thesis provides results and discussion of (1) DFT benchmark studies and (2) mechanistic studies. In the first section, the results of a careful benchmark study on the performance of various DFT methods to study the μ-η2:η2-peroxodicopper(II)/bis(μ-oxo)dicopper(III) core isomerization and the C–H hydroxylation processes are compared with available experimental reference data. We provide an assessment of the effects of relativity, counteranions, and dispersion on the reference reactions. The most suitable DFT method evolving from this study, BLYP-D/def2-TZVP including solvent and relativistic corrections, is applied in the next sections to investigate the mechanistic scenario underlying three copper-dioxygen mediated hydroxylation reactions of aliphatic and aromatic C–H bonds. Our mechanistic studies show that bis(μ-oxo)dicopper(III) complexes are capable of achieving selective aliphatic and aromatic C–H hydroxylations. The study of substituent effects in these reactions has further shown that the bis(μ-oxo)dicopper complex acts as an electrophile in hydroxylation.
The fourth chapter presents the conclusions of our investigations. Part of the work presented in this thesis has been published in a peer reviewed journal and enclosed in appendix 1. Further research work, not presented in chapters 1-4, was conducted during my PhD time. This has led to two publications which are added in the appendix.
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Basierend auf den Daten der Erhebung „Gesundheit in Deutschland Aktuell“ von 2010 (GEDA2010)vom Robert Koch-Institut wird in dieser Dissertation der Frage nachgegangen, wie sich
Arbeitsbedingungen auf die Gesundheit und das Gesundheitsverhalten auswirken und eine systematische Analyse für Deutschland durchgeführt. Dabei werden sowohl Aspekte der Geschlechterforschung als auch der Erforschung sozialer Ungleichheiten mitbetrachtet. Die Ergebnisse liefern unteranderem Hinweise darauf, dass Gesundheitsverhalten als Coping-Strategie in stressreichen Arbeitssituationen, die beispielsweise durch Leistungsdruck oder Schichtarbeit gekennzeichnet sind, genutzt wird.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.