Universitätspublikationen
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
- Alzheimer (1)
- Amphisphaeriales (1)
- Angiogenesis (1)
- Arbeitsbedingungen (1)
- Asian Tiger Mosquito (1)
- Asiatische Tigermücke (1)
- Außerschulisches Lernen (1)
- Batten disease (1)
- Beatmung (1)
- Biodiversität (1)
- Biomoleküle (1)
- Blockplay (1)
- Broken symmetry (1)
- CCLM (1)
- CORDEX-EAS (1)
- Call Center (1)
- Carotinoidbiosynthese (1)
- Computerkompetenz (1)
- Conformational Dynamics (1)
- DDX6 (1)
- DFT (1)
- DPOAE (1)
- Delegation (1)
- Density Functional Theory (1)
- Deutschland (1)
- ESD (1)
- Early Childhood (1)
- Emittanz (1)
- Enzymes and Biomimetic Systems (1)
- Epigenetik (1)
- Error Mitigation (1)
- Erythropoetin (1)
- Exercise (1)
- Exercise Metabolism (1)
- Eye Tracking (1)
- FPGA (1)
- FRANZ-Projekt (1)
- Familie (1)
- Family (1)
- Fault Tolerance (1)
- Fettsäuresynthase (1)
- Forschungsbohrung Sichenhausen (1)
- Fragmentierungsquerschnitte (1)
- Freiheit (1)
- Gas Chromatography (1)
- Geoelektrik (1)
- Geometrie (1)
- Geometry (1)
- Germanistik (1)
- Geschichte 1966-2001 (1)
- Geschlechterforschung (1)
- Gespräch (1)
- Gesundheitliche Ungleichheit (1)
- Gesundheitsverhalten (1)
- Grundschule (1)
- HIV (1)
- Halocarbons (1)
- Halogenated Trace Gases (1)
- Handlung (1)
- Hausarztpraxis (1)
- Hegel (1)
- HepG2 Zellen (1)
- Hodgkin-Lymphom (1)
- Holzklötzchen (1)
- Hydroxylation (1)
- Immigration (1)
- Integral Geometry (1)
- Intelligence (1)
- Interaction (1)
- Invariant object recognition (1)
- Inversion (1)
- Ionenquelle (1)
- Ionizing Radiation (1)
- Iran (1)
- Juvenile neuronal ceroid lipofuscinosis (1)
- Karotte (1)
- Kinzigtal (1)
- Konstruktvalidität (1)
- Kurdistan (1)
- LINE-1 (1)
- LU-102 (1)
- Lernen (1)
- Lungenkontusion (1)
- Lösungsprozess (1)
- Material Flow Analysis (1)
- Mathematics Learning (1)
- Mathematik (1)
- Medizinische Fachangestellte (1)
- Mehrsprachigkeit (1)
- Mitochondria (1)
- Mitochondrium (1)
- Modellorganismus (1)
- Moesia Superior (1)
- Molarenevolution (1)
- Monsun (1)
- Multikomponentenreaktion (1)
- Mycophenolat Mofetil (1)
- NMR shift calculation (1)
- Nahrungsmittelallergie (1)
- Namibia (1)
- Nok Culture (1)
- Oligonukleotide (1)
- Optical Spectroscopy (1)
- Ostasien (1)
- P-TEFb (1)
- Palladium-Katalyse (1)
- Participation (1)
- Partizipation (1)
- Pb-Ag (1)
- Pepperpot (1)
- Pestalotia (1)
- Pestalotiopsis (1)
- Phaeodactylum tricornutum (1)
- Pharmacology (1)
- Photodynamics (1)
- Primärversorgung (1)
- Proteine (1)
- Prozedurales Wissen (1)
- Qualifikation (1)
- RCM (1)
- RNAPII (1)
- Rainwater Harvesting (1)
- Reasoning (1)
- Republik Moldau (1)
- Retrotransposition (1)
- Ribonucleic Acids (1)
- Roman (1)
- Rotorest (1)
- SORN (1)
- STARS (1)
- STDP (1)
- Saccharomyces cerevisiae (1)
- Schlitz-Gitter (1)
- Scientific Materials Analysis (1)
- Sellerie (1)
- Single Event Effects (1)
- Single-particle (1)
- Skeletal muscle fiber-type switching (1)
- Soziolinguistik (1)
- Spiel (1)
- Sportunterricht (1)
- Sprachliche Minderheiten (1)
- Staatstheorie (1)
- Stahlenschäden (1)
- Strafrecht (1)
- Strukturwandel (1)
- Support (1)
- Sustainability Evaluation (1)
- Talk (1)
- Technologiebasiertes Problemlösen (1)
- Terracotta Figurines (1)
- Time-of-Flight Mass Spectrometry (1)
- Time-resolved Fluorescence (1)
- Trace Gas Analysis (1)
- Transfer learning (1)
- Transition Metals (1)
- Turkish immigrants (1)
- Türkisch (1)
- Universa feature extraxtion (1)
- Unternehmensstrafrecht (1)
- Unterstützung (1)
- Valuation Theory (1)
- Verankerung (1)
- Verbandsstrafrecht (1)
- Vogelsberg (1)
- Water Reuse (1)
- Wirtschaftsstrafrecht (1)
- Working Memory (1)
- Zelle (1)
- Zellfusion (1)
- Zurechnung (1)
- Zweiphotonen (1)
- archaeometallurgy (1)
- categorisation-elaboration model (1)
- cell biology (1)
- cryo-EM (1)
- drug discovery (1)
- enantioselektive Synthese (1)
- episodic team process model (1)
- frühkindliche Erziehung (1)
- fungi (1)
- global and virtual teams (1)
- high-content screening (1)
- ibrutinib (1)
- ionisierende Strahlung (1)
- kinetische Therapie (1)
- lattice (1)
- magnetic exchange coupling constants (1)
- magnon condensation (1)
- magnon-phonon interactions (1)
- medieval/early modern (1)
- microRNA (1)
- molecular phylogenetics (1)
- multiple myeloma (1)
- neural networks (1)
- phase transitions (1)
- photolabile Schutzgruppe (1)
- plasticity (1)
- proteasom inhibitor (1)
- quantum chromodynamics (1)
- regionale Klimasimulation (1)
- steroid (1)
- synaptic normalization (1)
- team innovation (1)
- unterrichtliche Vor- und Nachbereitung (1)
- variability (1)
- yttrium-iron garnet (1)
- Übergewicht und Adipositas im Kindesalter (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Die Untersuchung befasst sich am Beispiel der fotografischen Arbeiten von Barbara Klemm mit einer aktuellen Entwicklung in der Fotografie. Der Lebens- und Berufsweg der Fotografin steht dabei stellvertretend für eine Generation von Reportage- und Dokumentarfotografen, die in der zweiten Hälfte des 20. Jahrhunderts nicht nur erfolgreich in ihrem Beruf gearbeitet, sondern darüber hinaus auch im musealen Kontext Beachtung erfahren haben. Durch die wachsende öffentliche Aufmerksamkeit und das damit verbundene Ansehen entwickelten sich die Arbeiten von Barbara Klemm von dokumentarischen Zeitungsbildern zu künstlerischen Fotografien. Wie dieser Prozess vom Zeitungsbild zum Museumsbild im Einzelnen abgelaufen ist, wird in der vorliegenden Arbeit untersucht.
Zu Beginn wird der gegenwärtige Umgang mit Fotografie in der Gesellschaft und in der Kunst thematisiert. Es wird die Entwicklung des fotografischen Mediums seit 1960 parallel zu den Wirkjahren von Barbara Klemm untersucht und gezeigt, welchen Einfluss diese Veränderungen auf ihr Werk und dessen Wahrnehmung hatten.
Dies ist im Allgemeinen die Frage nach der Wahrnehmung von Fotografie und im Speziellen nach der Veränderung von Wahrnehmung oder besser nach der Veränderung der Umwelt, die dem Betrachter eine andere Sicht auf die Fotografie ermöglicht. Das Thema ist aus der Sicht der Kunstwissenschaft und Kunstpädagogik bedeutsam, denn es zeigt, wie sich gesellschaftliche Kategorisierungen nicht unmittelbar, sondern im Laufe eines jahrzehntelangen Prozesses verändern. Eine Veränderung, deren Ursachen in einer engen Vernetzung von Wahrnehmung, Kommunikation, gesellschaftlicher Faktoren und ganz unterschiedlicher Entwicklungen innerhalb verschiedener einflussnehmender Systeme in einer gemeinsamen Umwelt zu suchen sind. Die analoge Schwarzweißfotografie ist die Technik in der Barbara Klemm arbeitet. Dies stellt heutzutage eine Besonderheit dar, denn die Sehgewohnheiten der Betrachter sind durch sehr verschiedene Bildarten geprägt. Diese reichen von Schnappschüssen und Amateuraufnahmen mit Kleinbild- oder handykameras bis hin zu professionellen Fotografien in der Werbung oder in Hochglanzmagazinen. Aufgrund der digitalen Technik, bei der mehr Aufnahmen in kurzer Zeit gemacht werden können, treten Komposition, Bildaufbau und Beleuchtung oft in den Hintergrund. Die Unterschiede zwischen analoger und digitaler Fotografie werden zudem in einer geschichtlichen Entwicklung der Reportagefotografie der vergangenen Jahrzehnte vertieft. Barbara Klemm arbeitete den größten Teil ihres Berufslebens als Bildjournalistin bei der Frankfurter Allgemeinen Zeitung. Von 1970 bis 2004 war sie zuständig für die Bereiche Politik und Feuilleton. In diesen Jahren entstanden Bilder, die heute zum kollektiven Gedächtnis vieler Deutscher zählen. Ausgehend von ihrer Arbeit wird dargestellt, wie die Fotografien einem Publikum zugänglich gemacht wurden und im Laufe der Zeit über das Medium der Zeitung hinaus in andere Bereiche der Öffentlichkeit gelangten, vor allem in die Kunst, aber auch in die Bereiche der Geschichte und Erinnerungsarbeit. Unter Verwendung der theoretischen Grundlage und Kategorisierung von Niklas Luhmann werden Arbeiten der Fotografin im System Journalismus und im System Kunst untersucht. An dieser Stelle waren Operatoren notwendig, die ihre Bilder aus dem System des Zeitungswesens in das System der Kunst transferierten. Diese Aufgabe konnten nur bestimmte Schlüsselfiguren (Schlüsselpersonen) erfüllen, denn Barbara Klemm hatte zu keiner Zeit intendiert, künstlerisch zu arbeiten. Das bedeutet, nur ein anerkannter Museumsdirektor oder ein erfahrener Ausstellungskurator konnte ihre Position in das „System Kunst“ einführen.
Nach einer kurzen biografischen Vorstellung der Arbeits- und Lebensstationen werden der Stil, die Technik und die Komposition Barbara Klemms Fotografien analysiert, um anschließend einen Versuch zu unternehmen, die besondere Ästhetisierung der Bilder zu erklären. So besitzt eine gelungene Fotografie von Barbara Klemm einen Mehrwert gegenüber den reinen Reportagebildern. Was der Betrachter vor Barbara Klemms Bildern empfindet und assoziiert, ist zum Teil individuell, zum Teil aber auch sozial, gesellschaftlich und kulturell – also intersubjektiv bestimmt. All seine Erfahrungen prägen die Beziehung zu jedem einzelnen Bild. Dass die Fotografien von Barbara Klemm heute eine breite Akzeptanz erfahren, hängt auch mit gesellschaftlichen Abläufen zusammen. Wissen und Meinungen festigen sich durch Wiederholung, die zur Gewohnheit werden. Vertrautem begegnet man folglich eher mit Sympathie und Wohlwollen, nicht zuletzt vermittelt es eine gewisse Sicherheit. Die langjährige Präsenz als Fotografin bei der Frankfurter Allgemeinen Zeitung stellt demnach eine fruchtbare Basis dar. Symbolisch gesprochen ist ihre Anstellung bei der Tageszeitung das stabile Fundament, auf dem ihr späterer Erfolg als künstlerische Fotografin aufbaut.
Die Inauguraldissertation „Strafrechtsdogmatische und strafprozessuale Probleme bei der Einführung und Umsetzung einer Verbandsstrafbarkeit. Untersuchung des Entwurfs eines Ge-setzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unternehmen und sonstigen Verbänden“ verfasst von Frau Franziska Osterloh, LL.M., befasst sich mit der Einführung einer Verbandsstrafbarkeit. Betreut wurde die Arbeit an der Johann Wolfgang von Goethe – Universität, Frankfurt am Main, von Herrn Prof. Dr. Matthias Jahn. Anlass des aktuellen Auflebens der wissenschaftlichen Diskussion und Anknüpfungspunkt dieser Arbeit war der Entwurf eines Gesetzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unter-nehmen und sonstigen Verbänden, der auf Vorschlag des nordrhein-westfälischen Justiz-ministeriums der Justizministerkonferenz der Länder im November 2013 vorgelegt wurde.
Zu Beginn wird anhand einer kurzen historischen Einführung und einer Darstellung der rechtlichen Grundlagen von Verbandstätigkeit außerhalb des (Kern-)Strafrechts aufgezeigt, dass der Verband als Rechtssubjekt weitestgehend anerkannt und verselbstständigt ist. An-schließend werden die kriminalpolitischen Argumente zur Begründung einer Verbandsstraf-barkeit in ihren wesentlichen Zügen wiedergegeben.
In dem folgenden der Arbeit untersucht die Verfasserin die strafrechtsdogmatischen Probleme der Einführung einer Verbandsstrafbarkeit. Dabei konzentrieren sich die Ausführungen auf die „klassischen“ Eckpunkte des wissenschaftlichen Diskurses, die Handlungs-, Schuld- und Straffähigkeit von Verbänden. Hierbei liegt ein Schwerpunkt auf der Auseinandersetzung mit der Frage der möglichen Schuldfähigkeit eines Verbandes. Als Ergebnis dieses Kapitels wird festgehalten, dass die bloße Zurechnung ebenso wie die selbstständige Verbandsschuld, nicht den Anforderungen des Schuldprinzips genügen kann. Der Bezug zu der natürlichen Hand-lung, die nach außen in Erscheinung tritt, ist mit Hilfe einer Zurechnung erforderlich und dann ausreichend, wenn für den Verband die Möglichkeit bestanden hätte, durch Organi-sationsstrukturen die Ausführung der Handlung zu verhindern.
Anhand dieser Ergebnisse werden die materiell-rechtlichen Aspekte des untersuchten Gesetzesentwurfs näher beleuchtet und insbesondere die in § 2 des Entwurfs enthaltenen Tatbestände, die sich stark an §§ 30, 130 OWiG anlehnen, untersucht. Die Verfasserin kommt zu dem Ergebnis, dass die Tatbestände unter Berücksichtigung einer teleologischen Aus-legung und restriktiven Handhabung nicht gegen Verfassungsrecht verstoßen.
Die Untersuchung der strafprozessualen Aspekte des Gesetzesentwurfs bezieht sich zum einen auf die übergeordneten Verfahrensprinzipien und deren im Ergebnis weitgehende An-wendbarkeit auf Verbände und zum anderen auf die konkreten Normierungen des Entwurfs. Ein Schwerpunkt wird hierbei auf die Beschuldigtenrechte gelegt, die nach Ansicht der Verfasserin noch nicht hinreichend klar normiert sind. Abschließend werden einige strafprozessuale Besonderheiten untersucht, die nicht ausdrücklich oder lediglich beiläufig von dem Gesetzesentwurf aufgefasst werden.
Als Gesamtergebnis der Arbeit wird der untersuchte Gesetzesentwurf zwar als begrüßens-werte Präzisierung und Bereicherung der Diskussion um eine Verbandsstrafbarkeit, jedoch nicht als dessen Schlusspunkt eingeordnet.
Die in den letzten Jahrzehnten erfolgten Entwicklungen im Bereich der Informations- und Kommunikationstechnologien (IKT) haben beinahe alle Teilbereiche der Gesellschaft erreicht (OECD, 2000) und so können Alltag, Beruf, aber auch soziale Interaktionen benannt werden (Autor, Levy, & Murnane, 2003). Das technologiebasierte Problemlösen stellt ein relevantes Kompetenzkonstrukt dar, wobei die empirische Validierung der Testwertinterpretation noch aussteht. „Technologiebasiertes Problemlösen ist die Kompetenz, digitale Technologien, Kommunikationshilfen und Netzwerke erfolgreich für die Suche, Vermittlung und Interpretation von Informationen zu nutzen.“(OECD, 2009; zitiert nach Rammstedt, 2013). Ziel einer Konstruktvalidierung ist es theoretische Annahmen – sowie nomologische Netze – mit empirischen Belegen zu prüfen und somit Aussagen über die Gültigkeit der Testwertinterpretationen treffen zu können (vgl. Messick, 1995). Zu diesem Zweck wurden die folgenden fünf Leithypothesen aufgestellt:
1. Im technologiebasierten Problemlösen können Teilsequenzen durch Routinen im Umgang mit IKT bewältigt werden.
Mit dem Ziel der Analyse von Lösungsprozessen wurden Prozessdaten aus dem Feldtest der PIAAC-Studie genutzt und automatisierbare Teilschritte (beispielsweise Schließen eines Popups) analysiert. Eine schnelle Bearbeitung dieser Teilschritte wurde auch mit einer höheren Lösungswahrscheinlichkeit des Problems assoziiert. Die Testwerte des technologiebasierten Problemlösens spiegeln die bildungsbiographischen Lernerfolge wider, die zu einem routinierten Umgang mit IKT führen.
2. Durch die Entstehungsgeschichte von IKT begründet, bestehen Differenzen im technologiebasierten Problemlösen.
Entstehung moderner IKT legt eine Differenzierung von drei Kohorten nahe (orientiert an lernintensiven Phasen der Kindheit und Jugend):
- Erlebten die Entstehung und Verbreitung von Hardware (geboren 1946-1966)
- Begleiteten die Verbreitung von Computersoftware und dessen Nutzung (geboren 1966-1981)
- Nutzung und Gestaltung digitaler Inhalte des Internets (geboren 1981-1995)
Erwartungsgemäß unterscheiden sich die Kohorten im technologiebasierten Problemlösen – genauer in der Nutzung von Routinen im Lösungsprozess und im erreichten Kompetenzniveau. Ältere Kohorten benötigten im Mittel mehr Zeit für Teilschritte, die durch Routinen bearbeitet werden können und sie erreichten im Mittel niedrigere Kompetenzniveaus. Obwohl Lesekompetenzen eine wesentliche Bedeutung im technologiebasierten Lösen von Problemen haben, können sie die Kohortenunterschiede nicht umfassend aufklären. Weil ältere Personenkohorten während ihrer formellen Ausbildungsphasen IKT – wie sie heute verwendet werden – nicht nutzen konnten, haben informelle Lerngelegenheiten eine wesentliche Bedeutung. So profitieren ältere Personen von einem regelmäßigen, beruflichen oder privaten Umgang mit diesen Technologien. Die Testwerte des technologiebasierten Problemlösens spiegeln entstehungsgeschichtlich begründete Kohortenunterschiede wider, welche durch lebenslange, formelle und informelle Lerngelegenheiten minimiert werden können.
3. Der Umgang mit IKT ist – begründet durch deren Entstehungsgeschichte – eher weniger Teil der formellen und schulischen Bildung.
Technologiebasiertes Problemlösen wird weniger in formellen und schulischen Lerngelegenheiten erworben, als andere Kompetenzen wie beispielsweise mathematische und Lesekompetenzen. Folglich wurden für das technologiebasierte Problemlösen kleinere Differenzen zwischen hohen, mittleren oder niedrigen Bildungsabschlüssen erwartet und konnten empirisch anhand der PIAAC-Daten belegt werden. Vorteile von Personen mit einem hohen Bildungsabschluss konnten durch höhere Lesekompetenzen erklärt werden. Die Testwerte des technologiebasierten Problemlösens bilden entstehungsgeschichtlich begründete Unabhängigkeiten des Kompetenzkonstruktes ab, das zumeist nicht schulisch erworben wurde.
4. Technologiebasiertes Problemlösen ist ein eigenständiges Kompetenzkonstrukt, das Parallelen zu mathematischen und Lesekompetenzen aufweist.
Mathematische und Lesekompetenzen stehen in einem Zusammenhang mit dem Umgang mit IKT und somit auch mit dem technologiebasierten Problemlösen. Die Leseanteile am technologiebasierten Problemlösen werden als größer eingeschätzt, als die der mathematischen Kompetenz und stärkere Effekte durch Lesekompetenz konnten empirisch
nachgewiesen werden. Die Annahme der Eigenständigkeit des technologiebasierten Problemlösens wird im Weiteren dadurch gestützt, dass der alltägliche Umgang mit mathematischen und Leseinhalten weniger stark mit ihm assoziiert ist, als der Umgang mit IKT. Nomologische Netze zwischen technologiebasiertem Problemlösen und mathematischen sowie Lesekompetenzen konnten empirisch gestützt werden und die Annahme der Eigenständigkeit des Kompetenzkonstruktes bestärkt.
5. Die Nutzung von IKT – als Lerngelegenheit verstanden – und andere Lerngelegenheiten sowie Indikatoren erfolgreichen Lernens können zum technologiebasierten Problemlösen beitragen.
Lebenslanges Lernen ist ein Teil der menschlichen Natur und in diesem Rahmen dienen verschiedenste formelle und informelle Lerngelegenheiten dem Erwerb von Wissen und Kompetenzen (Dohmen, 2001). So erreichen Personen im technologiebasierten Problemlösen ein höheres Kompetenzniveau, wenn sie regelmäßig privaten oder beruflichen Umgang mit IKT hatten. Neben diesen informellen Lerngelegenheiten steht auch die Teilnahme an Weiterbildungen in einem positiven Zusammenhang mit der technologiebasierten Bewältigung von Problemen. Des Weiteren hat eine positive Einstellung gegenüber dem Lernen neuer Inhalte einen Einfluss auf die technologiebasierte Problemlösekompetenz. Die Testwerte des technologiebasierten Problemlösens spiegeln die Lernerfolge durch das lebenslange Lernen wider, die durch verschiedene bildungsbiographische Merkmale – insbesondere formelle und informelle Lerngelegenheiten – befördert werden.
Das technologiebasierte Problemlösen in der Operationalisierung der PIAAC-Studie lässt eine konstruktrepräsentative Testwertinterpretation zu und ermöglicht somit eine differenzierte Beschreibung von Kompetenzen im Umgang mit IKT.
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
Different approaches are possible when it comes to modeling the brain. Given its biological nature, models can be constructed out of the chemical and biological building blocks known to be at play in the brain, formulating a given mechanism in terms of the basic interactions underlying it. On the other hand, the functions of the brain can be described in a more general or macroscopic way, in terms of desirable goals. This goals may include reducing metabolic costs, being stable or robust, or being efficient in computational terms. Synaptic plasticity, that is, the study of how the connections between neurons evolve in time, is no exception to this. In the following work we formulate (and study the properties of) synaptic plasticity models, employing two complementary approaches: a top-down approach, deriving a learning rule from a guiding principle for rate-encoding neurons, and a bottom-up approach, where a simple yet biophysical rule for time-dependent plasticity is constructed.
We begin this thesis with a general overview, in Chapter 1, of the properties of neurons and their connections, clarifying notations and the jargon of the field. These will be our building blocks and will also determine the constrains we need to respect when formulating our models. We will discuss the present challenges of computational neuroscience, as well as the role of physicists in this line of research.
In Chapters 2 and 3, we develop and study a local online Hebbian self-limiting synaptic plasticity rule, employing the mentioned top-down approach. Firstly, in Chapter 2 we formulate the stationarity principle of statistical learning, in terms of the Fisher information of the output probability distribution with respect to the synaptic weights. To ensure that the learning rules are formulated in terms of information locally available to a synapse, we employ the local synapse extension to the one dimensional Fisher information. Once the objective function has been defined, we derive an online synaptic plasticity rule via stochastic gradient descent.
In order to test the computational capabilities of a neuron evolving according to this rule (combined with a preexisting intrinsic plasticity rule), we perform a series of numerical experiments, training the neuron with different input distributions.
We observe that, for input distributions closely resembling a multivariate normal distribution, the neuron robustly selects the first principal component of the distribution, showing otherwise a strong preference for directions of large negative excess kurtosis.
In Chapter 3 we study the robustness of the learning rule derived in Chapter 2 with respect to variations in the neural model’s transfer function. In particular, we find an equivalent cubic form of the rule which, given its functional simplicity, permits to analytically compute the attractors (stationary solutions) of the learning procedure, as a function of the statistical moments of the input distribution. In this way, we manage to explain the numerical findings of Chapter 2 analytically, and formulate a prediction: if the neuron is selective to non-Gaussian input directions, it should be suitable for applications to independent component analysis. We close this section by showing how indeed, a neuron operating under these rules can learn the independent components in the non-linear bars problem.
A simple biophysical model for time-dependent plasticity (STDP) is developed in Chapter 4. The model is formulated in terms of two decaying traces present in the synapse, namely the fraction of activated NMDA receptors and the calcium concentration, which serve as clocks, measuring the time of pre- and postsynaptic spikes. While constructed in terms of the key biological elements thought to be involved in the process, we have kept the functional dependencies of the variables as simple as possible to allow for analytic tractability. Despite its simplicity, the model is able to reproduce several experimental results, including the typical pairwise STDP curve and triplet results, in both hippocampal culture and layer 2/3 cortical neurons. Thanks to the model’s functional simplicity, we are able to compute these results analytically, establishing a direct and transparent connection between the model’s internal parameters and the qualitative features of the results.
Finally, in order to make a connection to synaptic plasticity for rate encoding neural models, we train the synapse with Poisson uncorrelated pre- and postsynaptic spike trains and compute the expected synaptic weight change as a function of the frequencies of these spike trains. Interestingly, a Hebbian (in the rate encoding sense of the word) BCM-like behavior is recovered in this setup for hippocampal neurons, while dominating depression seems unavoidable for parameter configurations reproducing experimentally observed triplet nonlinearities in layer 2/3 cortical neurons. Potentiation can however be recovered in these neurons when correlations between pre- and postsynaptic spikes are present. We end this chapter by discussing the relation to existing experimental results, leaving open questions and predictions for future experiments.
A set of summary cards of the models employed, together with listings of the relevant variables and parameters, are presented at the end of the thesis, for easier access and permanent reference for the reader.
Diese Dissertation geht der Frage nach, wie die Literacy-Förderung der Kinder im Kindergartenalter in türkischstämmigen Familien in Deutschland stattfindet. Es wird der Frage nachgegangen, wie sich sozioökonomische und soziokulturelle Verhältnisse der Familien die Literacy-Förderung beeinflussen. Es wurden zwei qualitative Untersuchungen durchgeführt. Im ersten Teil der Arbeit wurden zwölf Mütter anhand halbstrukturierter Interviews befragt. Die Daten wurden anhand der qualitativen Inhaltsanalyse ausgewertet. Im zweiten Teil wurde als nichtteilnehmende, offene Beobachtung der Vorlesesituation durchgeführt. Anhand der Sequenzanalyse wurde die Vorgehensweise der Mütter während des Vorleseprozesses ausgewertet.
Es wurde untersucht, inwieweit der ökonomische Status und das kulturelle Kapital der Eltern für die Literacy-Förderung prägend sind. In den untersuchten Familien sind sowohl die literacy-bezogenen Aktivitäten als auch die Erziehung insgesamt stark an den Normen der Mehrheitsgesellschaft orientiert. Entscheidend sind nicht auf Ethnizität bezogene Zuschreibungen, sondern die sozioökonomische Stellung und das kulturelle Kapital der Eltern bei der Literacy-Förderung in den türkischstämmigen Familien.
Die Untersuchung zeigt im ersten Teil, dass die untersuchten Familien bei der Literacy-Förderung mit zahlreichen Hindernissen konfrontiert sind, die nicht primär ethnisch begründet sind, sondern vielmehr auf sozioökonomische und soziokulturelle Faktoren zurückgeführt werden müssen. Die berufliche Situation und Arbeitsbedingungen der Eltern erschweren die Durchführung der literacy-bezogenen Aktivitäten. Der ökonomische Status und der Bildungsstand sowie das kulturelle Kapital der Eltern ist der Grund für Hindernisse. Das macht sich bemerkbar in drei Gesichtspunkten: (i) Bei der direkten Anregung des Kindes zu Literacy, wenn das Kind zum Schreiben initiiert wird, sein Interesse für Bücher geweckt oder bei alltäglichen Aktivitäten zum Schriftentdecken herangeführt wird. Die Mütter, die über kulturelles Kapital verfügen, führen diese Aktivitäten regelmäßig und effizient durch. (ii) Bei der Gestaltung der Literacy-Umgebung, wenn diese vielfältig gestaltet wird (z.B. die Auswahl elektronischer Medien). Hierbei macht sich der sozioökonomische Status am deutlichsten bemerkbar. (iii) Auch bei der die Vorbildfunktion der Eltern als indirekte Anregung macht sich kulturelles Kapital bemerkbar. Im zweiten Teil der empirischen Untersuchung zur Vorlesesituation sind zwei Handlungsmuster festgestellt worden, die dem Vorleseverhalten der Mütter zugrundeliegen. Dabei ist das kulturelle Kapital entscheidend. Die Mütter mit niedrigem Kulturkapital führen den Vorleseprozess monologisch und einseitig, sodass die Kinder nicht oder nicht hinreichend einbezogen werden. Die Mütter mit höherem Kulturkapital dagegen gestalten den Vorleseprozess dialogisch, sodass das Kind eingebunden wird. Der wichtigste Unterschied zwischen den beiden Handlungsmustern ist die Vermittlung der Erzählung. Im dialogischen Handlungsmuster wird der Vorleseprozess interaktiv gestaltet und die Haupthandlung der Geschichte im Blick behalten. Im monologischen Handlungsmuster aber hoffen die Vorlesenden, dass die Kinder durch bloßes Zuhören die Geschichte begreifen. Hier dominiert die Fokussierung auf die Einzelhandlungen. Während die Mütter höherem Kulturkapital die Vermittlung der Erzählung als ein zu erreichendes Ziel begreifen, tritt dies bei denen mit geringem Kulturkapital in den Hintergrund.
The high selectivity of biological transformations taking place in Nature have long inspired synthetic chemists to develop analogous chemical processes. Similarly, transient intermediates identified in chemical transformations often provide a basis to understand biological processes. Therefore, new insights gained in biological studies are often useful for chemistry and vice versa.
Proteins, and catalytically active enzymes, are among the most essential units of living cells. Metalloproteins or -enzymes, i.e., proteins or enzymes that contain transition metal ions such as copper, nickel, iron or zinc are often involved in processes like (1) metal-ion storage and transport, (2) exchange of electrons with the environment in catalysis and electron transfer reactions, and (3) dioxygen storage, transport, and metabolization.
For decades, copper-mediated biological oxidations have spurred a great deal of interest among synthetic and catalytic chemists. Copper enzymes such as dopamine β-monooxygenase (DβM), peptidylglycine α-hydroxylating monooxygenase (PHM),particulate methane monooxygenase (pMMO) and tyrosinase activate molecular oxygen (O2) and incorporate one of the oxygen atoms selectively into C−H bonds yielding hydroxylated organic substrates. Remarkable progress in bioinorganic research has led to the development of a large number of copper-based model systems supported by various nitrogen donor ligands that bind O2, cleave the O−O bond, and/or afford hydroxylation reactions similar to copper enzymes. These synthetic model systems have helped to understand the structureactivity relationships of their biological role models and supporting theoretical studies have contributed substantially to the development of the field. Specifically, several density functional theory (DFT) studies have provided detailed mechanistic insights into coppermediated aliphatic and aromatic hydroxylation reactions. Until to date, however, pertinent quantum chemical research still suffers from severe problems as to identify sufficiently accurate and efficient methods for mechanistic studies, and conflicting literature reports have created confusions within the scientific community. Therefore, the first aim of this thesis is to identify a DFT method well suited to describe copper-mediated hydroxylation reactions. With this method at hand a number of interesting hydroxylation reactions is investigated aiming at a detailed understanding of the underlying reaction mechanisms.
The thesis is divided into four chapters of which the first, the introductory chapter, is further divided into three sections (1) copper proteins and enzymes, (2) copper-O2 reactivity in enzymes and (3) biomimetic Cu/O2 chemistry. The first section gives a brief overview of a number of copper enzymes. The second section provides a concise introduction to the biochemical transformations brought about by those copper enzymes that perform aliphatic and aromatic hydroxylation reactions. It is shown that such copper enzymes carry different types of active sites which are responsible for their specific biological functions. These copper enzymes with their biological function are the role models for synthetic chemistry. In the third section, biomimetic Cu/O2 chemistry, the insights gathered in the past 35 years of extensive research on copper-based synthetic model systems that mimic various aspects of copper-enzyme reactivity are reviewed. Various types of active copper sites have been realized in these synthetic model systems and a brief introduction to the respective reactivities towards C−H bonds is presented. We will specifically focus on isomerization processes of dinuclear active Cu2O2 sites and the specific reactivity aspects of these isomers, as these phenomena have been the subject of enormous research efforts aiming at the understanding of the function of the enzyme tyrosinase.
Theory has been integral part of this research and density functional theory (DFT) has effectively taken over the role as a working horse in most studies. Therefore, the second chapter is devoted to an exposition of earlier DFT applications in mechanistic studies of Cu/O2 chemistry. We specifically highlight the problems related to the use of DFT in this field and illustrate the present state of knowledge.
The third chapter of this thesis provides results and discussion of (1) DFT benchmark studies and (2) mechanistic studies. In the first section, the results of a careful benchmark study on the performance of various DFT methods to study the μ-η2:η2-peroxodicopper(II)/bis(μ-oxo)dicopper(III) core isomerization and the C–H hydroxylation processes are compared with available experimental reference data. We provide an assessment of the effects of relativity, counteranions, and dispersion on the reference reactions. The most suitable DFT method evolving from this study, BLYP-D/def2-TZVP including solvent and relativistic corrections, is applied in the next sections to investigate the mechanistic scenario underlying three copper-dioxygen mediated hydroxylation reactions of aliphatic and aromatic C–H bonds. Our mechanistic studies show that bis(μ-oxo)dicopper(III) complexes are capable of achieving selective aliphatic and aromatic C–H hydroxylations. The study of substituent effects in these reactions has further shown that the bis(μ-oxo)dicopper complex acts as an electrophile in hydroxylation.
The fourth chapter presents the conclusions of our investigations. Part of the work presented in this thesis has been published in a peer reviewed journal and enclosed in appendix 1. Further research work, not presented in chapters 1-4, was conducted during my PhD time. This has led to two publications which are added in the appendix.
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Basierend auf den Daten der Erhebung „Gesundheit in Deutschland Aktuell“ von 2010 (GEDA2010)vom Robert Koch-Institut wird in dieser Dissertation der Frage nachgegangen, wie sich
Arbeitsbedingungen auf die Gesundheit und das Gesundheitsverhalten auswirken und eine systematische Analyse für Deutschland durchgeführt. Dabei werden sowohl Aspekte der Geschlechterforschung als auch der Erforschung sozialer Ungleichheiten mitbetrachtet. Die Ergebnisse liefern unteranderem Hinweise darauf, dass Gesundheitsverhalten als Coping-Strategie in stressreichen Arbeitssituationen, die beispielsweise durch Leistungsdruck oder Schichtarbeit gekennzeichnet sind, genutzt wird.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
From an early understanding of organisational theorist (Bartlett & Ghosal, 1989; 1990), the function of global teams in transnational organisations has been conceptualised as the transformation of different embedded cultural practices for the development of a global strategy, products and services. Simultaneously, in the field, from the beginning of the 1990ies to the edge of the new millennium neo-liberal political developments enforced a free flow of capital on a global level (cf. Turner, 2006). In line with the development of respective connectivity via the internet the form of globally distributed team work was spread (Maznevski & Chudoba, 2000). In a study by Biggs (2000), published just after the millennial change, it was shown that 60% of tasks in multinational companies are accomplished by virtual teams. More recent data (Society for Human Resource Management, 2012) showed that the prevalence of such teams stayed more or less constant in the last 10 years. According to the survey 66% of companies are working with distributed global teams.
Globally distributed teams were already described by Bartlett and Ghosal (1989) in their functions of articulation and translation of differing market practices for the integration of requirements and needs on a global level. From a European perspective the importance to further develop innovation capabilities in order to compete in the global market is stressed today (Imp3rove, 2012). In a globalised economy not only the big multinational companies are involved in globally distributed research and development activities (R&D). On the level SMEs, for example, in Switzerland the involvement in global development processes is increasing (Gassmann, 2009). From my own experiences in working with Swiss SMEs, the macro-economic processes in regard to the strong Swiss Franc may accelerate such processes. Thus, the form of globally distributed teams, and their functional task in global development processes, can be viewed as highly relevant, in a globalised economy.
The crucial question for companies at the moment is, if teams can be enabled for innovative project work, which enables the integration of diverging perspectives in a globally distributed setting? Or, if such teams have to be collocated for more innovative, interdependent task work? Requirements for integrating embedded knowledge from different regionally defined clusters into global innovations at least, seems to indicate for the relevance of interdependent globally distributed team work (cf. Li, Eden, Hitt, Ireland, & Garrett, 2012). Bilateral practices of partnering, for example in the Swiss pharmaceutical sector, lead to the integration of selected subsidiaries in the R&D process of the company (Festel et al., 2010). Thus, the form of dispersion for project teams becomes more critical for effective global R&D practices (Boyer O’Leary & Cummings, 2007). So called partially distributed teams integrating balanced subgroups between two sites, hence, become an important subject of inquiry with practical relevance.
The context of partially distributed team work represents by virtue a context involving multiple perspectives influenced by the involvement of actors stemming from different cultural contexts (Dekker, Rutte, & Van den Berg, 2008). It thereby provides the synergetic potential for integrating different perspectives in the resolution of complex problems on a global level (Janssens & Brett, 2006). Simultaneously, cultural diversity engenders challenges for collaboration. Challenges, like different understandings and interpretations regarding tasks, the structuring of communication (Maznevski & Chudoba, 2000) and unexpected events occurring in the collaboration between the actors (Dekker et al., 2008; Oertel & Antoni, 2014) were identified in respective empirical studies.
Opportunities and challenges of partially distributed global teams can be compared with the problematic of face-to-face (f2f) teams with a moderate amount of diversity. Studies have shown (see Thatcher & Patel, 2011 for a meta-analysis) that when the distribution of diversity characteristics is aligned to potentially form culture specific subgroups, so-called diversity faultlines (Lau & Murnighan, 1998), negative subgroup dynamics are reinforced.
To achieve the above mentioned synergetic potentials it seems important to effectively cope with such negative dynamics and allow for a balanced participation in partially distributed teams (Janssens & Brett, 2006). In the research on faultline teams, especially the structuring of task-related interdependences across respective subgroups has been identified as an important impediment for the mentioned subgroup dynamics. Task interdependences, which cross functional roles across respective group faultlines (Bettencourt, Molix, Talley, & Eubanks, 2007; Marcus-Newhall, Miller, Holtz, & Brewer, 1993), are able to unlock the inherent potentials of globally distributed teams on more complex tasks that require the integration of different perspectives. From a work group diversity perspective (van Knippenberg & Schippers, 2007), partially distributed global teams represent a research object for studying the interaction between social categorisation processes involved in the above mentioned subgroup dynamics, and processes of task-related information processing required for innovative team outputs. The exploration of effects of task structures on the interaction between categorisation processes and task-related information processing (van Knippenberg et al., 2004), will be in the main explorative research focus of this thesis. The research thesis represents a heuristic explorative inquiry (Kleining & Witt, 2001) of respective dynamics and structural as well as process-related enablers.
The thesis starts with the theoretical part, in which the historical development of the understanding of teams as open, complex and temporally dynamic systems (Arrow et al., 2005, 2000), will be outlined. A sound definition of partially distributed global teams, including the respective contextual characteristics will be delineated. In a sensitizing framework (Blumer, 1954) which guided the explorative research process, the central boundary condition of task interdependence (Wageman, 2001) and respective episodic theories for explaining global task-related dynamics in teams (Marks et al., 2001), the dynamics of social categorisation (Gaertner, Dovidio, Anastasio, Bachman, & Rust, 1993; Gaertner & Dovidio, 2000), as well as the interaction between social categorisation processes and task-related information processing will be integrated (van Knippenberg et al., 2004). According to the framework, empirical studies on effects of task interdependence on interactions between task-related information processing and social categorisation processes will be addressed (van Knippenberg et al., 2004).
The empirical part of the contribution will be split in two parts. In the first heuristic exploratory study eleven partially distributed global teams are followed up during the time of relevant innovation projects. The approach allowed the study of task interdependence, productive interactions with social categorisation processes and there effects on team innovation. In the second empirical step, the developed hypotheses, were tested in an experimental simulation (Arrow et al., 2005, 2000) in undergraduate courses.
As a conclusion of the two exploratory studies, an episodic team process model will be outlined. The model specifies interdependence dynamics, which allows for team innovation. Furthermore, on a process level, the episodic categorisation-elaboration model (van Knippenberg et al., 2004) proposes three critical team performance episodes. Dynamics in the interplay between task-related information processing and social categorisation processes allow for the development of hypothesis for further research projects. Finally the implications for theory and the practical relevance of the heuristic model will be discussed.
In Belize, which is well known for the Belize Barrier Reef and its offshore atolls, coastal lagoons are frequent morphological features along the coast. They represent transitional environments between siliciclastic and carbonate settings. In order to shed light into the Holocene evolution of coastal lagoon environments, five localities along the central coast of Belize were selected as coring sites. These include four coastal lagoons and one marsh area, namely Mantatee Lagoon, Mullins River Beach, Colson Point Lagoon, Commerce Bight Lagoon and Sapodilla Lagoon. A total of 26 sediment cores with core lengths ranging from 109 cm to 500 cm, were drilled using a Lanesky-vibracorer. Overall, 73 m of Holocene sediments and Pleistocene soil were recovered. Together with 58 radiocarbon dates the sediments reveal details on the sediment architecture and depositional features of the localities.
Marine inundation of the mainland and coastal lagoon formation started around 6 kyrs cal BP.
As a response to sea-level rise during the Holocene transgression, facies retrograded towards the coast, as seen in marginal marine overlying brackish mollusk faunas. Evidence for late Holocene progradation of facies due to sea-level stagnation is largely lacking. The occurrence of landward thinning sand beds, hiatuses and marine fauna in lagoonal successions are indications of event (overwash) sedimentation. Sediments recovered are largely of Holocene age (<7980 cal BP), overlying Pleistocene sections. Analyses of sediment composition and texture, radiocarbon dating and mollusk shell identification were used to describe and correlate sedimentary facies.
XRD analyses have identified quartz as the dominant mineral, with the Maya Mountains as main source of coastal lagoon sediments. The most common sedimentary facies include peat and peaty sediment, mud, sand, and poorly sorted sediments. Pleistocene soil forms the basement of Holocene sediments. Holocene mud represents lagoon background permanent sedimentation.
Peats and peat-rich sequences were deposited in mangrove swamp environments, whereas sandy facies mainly occur in the shoreface, beach, barriers, bars, barrier spits and overwash deposits. Facies successions could be identified for each locality, but it has proven difficult to correlate the stratigraphic sequences, especially among localities. These differences among the five locations studied suggest that apart from regional influence such as sea-level rise, local environmental factors such as small-scale variation in geomorphology and resulting facies heterogeneity, connectivity of the lagoon with the sea, antecedent topography and river discharge, were responsible for coastal sedimentation and lagoon development in the Holocene of Belize.
Faunal composition and distribution patterns of mollusk assemblages from 20 shell concentrations in cores collected in coastal lagoons, a mangrove-fringed tidal inlet and the marginal marine area (shallow subtidal) show considerable variation due to environmental heterogeneity and the interplay of several environmental factors in the course of the mid-late Holocene (ca. 6000 cal BP to modern). The investigated fauna ≥2 mm comprises 2246 bivalve, gastropod and 11 scaphopod specimens. Fifty-three mollusk species, belonging to 42 families, were identified. The bivalve Anomalocardia cuneimeris and cerithid gastropods are the dominant species and account for 78% of the total fauna. Diversity indices are low in concentrations from lagoons and relatively high in the marginal marine and tidal inlet areas.
Based on cluster analysis and nonmetric multidimensional scaling (NMDS), seven lagoonal assemblages and three marginal marine/tidal inlet assemblages were defined. A separation between lagoonal and marginal marine/tidal inlet assemblages seen in ordination indicates a lagoon-onshore gradient. The statistical separation among lagoonal assemblages demonstrates environmental changes during the Holocene evolution of the coastal lagoons, which is probably related to the formation of barriers and spits. The controlling factors of species distribution patterns are difficult to figure out, probably due to the heterogeneity of the barrier-lagoon systems and the interaction of paleoecological and paleoenvironmental factors. In addition to the taxonomic analysis, a taphonomic analysis of 1827 valves of A. cuneimeris from coastal lagoons was carried out. There is no relationship between depth and age of shells and their taphonomic condition. Size-frequency distributions and right-left valve ratios of A. cuneimeris suggest that valves were not transported over long distances but were deposited parautochthonously in their original habitat. Shells from tidal inlet and marginal marine environments were also predominantly deposited in their original habitats.
Since the Belize coast was repeatedly affected by hurricanes and the paleohurricane record for this region is poor, the sediment cores have been examined in order to identify storm deposits.
The paleohurricane record presented in this study spans the past 8000 years and exhibits three periods with increased evidences of hurricane strikes occurring at 6000-4900 cal yr BP, 4200-3600 cal yr BP and 2200-1500 cal yr BP. Two earlier events around 7100 and 7900 cal yr BP and more recent events around 180 cal yr BP and during modern times have been detected. Sand layers, redeposited corals and lagoon shell concentrations have been used as proxies for storm deposition. Additionally, hiatuses and reversed ages may indicate storm influence. While sand layers and corals represent overwash deposits, the lagoon shell concentrations, which mainly comprise the bivalve Anomalocardia cuneimeris and cerithid gastropods, have been deposited due to changes in lagoon salinity during and after storm landfalls. Comparison with other studies reveals similarities with one record from Belize, but hardly any matches with other published records. The potential for paleotempestology reconstructions of the barrier-lagoon complexes along the central Belize coast differs depending on geomorphology, and deposition of washovers in the lagoon basins is limited, probably due to the interplay of biological, geological and geomorphological processes.
Water is scarce in semi-arid and arid regions. Using alternative water sources (i.e. non-conventional water sources), such as municipal reuse water and harvested rain, contributes to using existing water resources more efficiently and productively. The aim of this study is to evaluate the two alternative water sources reuse water and harvested rain for the irrigation of small-holder agriculture from a system perspective. This helps decision and policy makers to have proper information about which system and technology to adopt under local conditions. For this, the evaluation included ecologic, societal, economic, institutional and political as well as technical aspects. For the evaluation, the study area in central-northern Namibia was chosen in the frame of the research and development project CuveWaters. The main methods used include a mathematical material flow analysis, the computation and modelling of crop requirements, a multi-criteria decision analysis using the Analytical Hierarchy Process (AHP) method and a financial cost-benefit analysis. From a systemic perspective, the proposed novel systems were compared to the exciting conventional infrastructure. The results showed that both water reuse and rainwater harvesting systems for the irrigation of small-holder horticulture offer numerous technological, ecologic, economic, societal, institutional and political benefits. Rainwater harvesting based gardens have a positive benefit-cost ratio under favorable conditions. Government programs could fund the infrastructure investment costs, while the micro-entrepreneur can assume a micro-credit to finance operation and maintenance costs. Installing sanitation in informal settlements and reusing municipal water for irrigation reduces the overall water demand of households and agriculture by 39%, compared to improving sanitation facilities in informal settlements without reusing the water for agriculture. Given that water is the limiting factor for crop fertigation, the generated nutrient-rich reuse water is sufficient to annually irrigate about 10 m2 to 13 m2 per sanitation user. Compared to crop nutrient requirements, there are too many nutrients in the reuse water. Thus when using nutrient-rich reuse water, no use of fertilizers and a careful salt management is necessary. When comparing this novel system with improved sanitation, advanced wastewater treatment and nutrient-rich water reuse to the conventional and to two adapted systems, results showed that the novel CuveWaters system is the best option for the given context in a semi-arid developing country. Therefore, the results of this study suggest a further roll-out of the novel CuveWaters system. The methodology developed and the results of this study demonstrated that taking sanitation users into consideration plays a major role for the planning of an integrated water reuse infrastructure because they are the determinant factor for the amount of available nutrient-rich reuse water. In addition, it could be shown that water reuse and rainwater harvesting systems for the irrigation of small-scale gardens provide a wide range of benefits and can be key to using scarce water resources more efficiently and to contributing to the Sustainable Development Goals.
Im Fokus der vorliegenden Arbeit standen die Landschaftsrekonstruktion und die Abschätzung der Mensch-Umwelt Wechselwirkungen im Umfeld der kupferzeitlichen (ca. 5. Jts. v. Chr.) Siedlung Magura Gorgana im heutigen Süd-Rumänien. Im Zuge der sedimentologischen Untersuchungen wurde deutlich, dass zur Zeit der kupferzeitlichen Besiedlung in der Donauaue ein Paläosee existierte, welcher sich nahezu über den gesamten Auenbereich im Untersuchungsgebiet erstreckte. Mit der Entdeckung des Paläosees ‚Lacul Gorgana‘ ergaben sich, durch die exzellenten Eigenschaften von Seesedimenten als Geoarchiv, neue Möglichkeiten zur Paläomilieurekonstruktion und zur Abschätzung von Mensch-Umwelt-Interaktionen. Bis etwa in das 8. Jt. v. Chr. war die Donau in diesem Gebiet durch ein fluviales System charakterisiert, welches vermutlich aus einer Vielzahl von Gerinnen bestand und einem ‚braided river‘ ähnelte. Während des 8. Jt. v. Chr. begann die Bildung des Paläosees ‚Lacul Gorgana‘. Die Gründe hierfür sind unbekannt, wenngleich ein Zusammenhang zum Anstieg des Schwarzmeerspiegels in diesem Zeitraum naheliegt. Spätestens ab dem 13. Jh. n. Chr. kommt es zur Aggradation- bzw. Verlandung des Paläosees ‚Lacul Gorgana‘. Infolge progradierender Zuflüsse wurde die einstige Seefläche in kleinere Seen fragmentiert. Dies dauerte bis zu den Trockenlegungsmaßnahmen in den 1960er Jahren an. Somit ist die Verlandung zum gegenwärtigen Zeitpunkt, zumindest theoretisch, noch nicht abgeschlossen. Die Ausprägung des rezenten Flussbettes der Donau begann spätestens mit der Verlandung des Paläosees, genaue chronologische Angaben sind jedoch anhand der aktuellen Datenlage nicht möglich. Auf der Grundlage geochemischer Untersuchungen geben die Sedimente des Paläosees ‚Lacul Gorgana‘ Hinweise auf alternierende Bedingungen bezüglich aerober und anaerober Akkumulationsmilieus. Dabei sind die aeroben Abschnitte durch einen höheren Anteil klastischen Materials, einem niedrigeren Anteil organischen Materials und allgemein helleren Sedimenten gegenüber den anaeroben, allgemein dunkleren Abschnitten gekennzeichnet. Die Gesamtheit der sedimentologischen Befunde, und der Vergleich mit Untersuchungen anderer Autoren in benachbarten Einzugsgebieten legen nahe, dass das alternierende Seemilieu in erster Linie durch Variationen der klimatischen Bedingungen im Einzugsgebiet der Donau verursacht wurde. Diese Variationen führten zur Veränderung der Stärke von Erosion und dem Charakter des erodierten Materials. Der hohe, zeitlich begrenzte Eintrag organisch gebundenen Phosphates in Bereichen der unteren Dunklen Lage, welcher weitestgehend zeitgleich zur neolithischen und kupferzeitlichen Besiedlung akkumuliert wurde und mit hoher Wahrscheinlichkeit zu einer Eutrophierung des ‚Lacul Gorganas‘ führte, lässt sich vermutlich durch die menschliche Besiedlung der Uferzone des Sees in diesem Zeitraum erklären. Im Verlauf der Untersuchungen im Einzugsgebiet erwies sich der ‚Regionalisierungsansatz‘ als effektives und unabdingbares Werkzeug bei der Differenzierung der Seegenese. Diese Methode dient der Relativierung bzw. Abschätzung der raumzeitlichen Heterogenität des Akkumulationsmilieus anhand des Vergleiches von Sedimentstratigraphien bzw. Sedimentbohrkernen von unterschiedlichen Standorten innerhalb des Paläosees. So konnten die alternierenden Milieubedingungen innerhalb der Seesedimente deutlich als allgemeine und nicht nur als lokale Eigenschaft einzelner Bereiche des Paläosees Lacul Gorgana identifiziert werden. Daneben zeigte die Regionalisierung, dass die aeroben Bereiche nicht nur durch einen erhöhten klastischen Eintrag gekennzeichnet sind, sondern dass dieser auch in Richtung des nördlichen Litorals zunimmt. Dies spricht für eine Herkunft des Materials aus dieser Richtung und erlaubt eine räumlich differenzierte Betrachtung der Seegenese. Darüber hinaus ermöglicht der ‚Regionalisierungsansatz‘, die räumliche Variabilität bestimmter Parameter, beispielsweise des TOC/TN Anstiegs in Richtung Litoral, zu relativieren. Diese Relativierung trägt zum besseren Verständnis spezifischer Prozessabläufe bei. Während der Untersuchung wurde ebenfalls deutlich, dass das Geoarchiv Seesediment eine Vielzahl verschiedenster Signale unterschiedlichster Genese aus dem Einzugsgebiet und dem Gewässermilieu selbst als Proxy-Information speichert. Die Überlagerung dieser Signale innerhalb der Sedimentstratigraphie erschwert mitunter die Identifikation einzelner Prozesse oder Prozesskaskaden. In diesem Zusammenhang erweist sich der ‚Regionalisierungsansatz‘ erneut als sinnvolles Hilfsmittel, da über diesen eine Signaldifferenzierung erfolgen kann, unter der Annahme, dass es eher unwahrscheinlich ist, dass alle Signale in allen Bereichen des Milieus in gleicher Intensität vorliegen. Gerade für die Untersuchung sowohl allochthoner als auch autochthoner Ereignissedimentation ist jedoch die Differenzierung zur ‚Hintergrundsedimentation‘ unabdingbar für ein umfassendes Prozessverständnis.
This thesis contributes to the field of machine learning with a specific focus on the methods for learning relations between the inputs. Learning relationships between images is the most common primitive in vision. There are many vision tasks in which relationships across images play an important role. Some of them are motion estimation, activity recognition, stereo vision, multi-view geometry and visual odometry. Many of such tasks mainly depend on motion and disparity cues, which are inferred based on the relations across multiple image pairs. The approaches presented in this thesis mainly deal with, but are not limited to, learning of the representations for motion and depth. This thesis by articles consists of five articles which present relational feature learning models along with their applications in computer vision. In the first article, we present an approach for encoding motion in videos. To this end, we show that the detection of spatial transformations can be viewed as detection of coincidence or synchrony between the given sequence of frames and a sequence of features which are related by the transformation we wish to detect. Learning to detect synchrony is possible by introducing "multiplicative interactions'' into the hidden units of single layered sparse coding models.
We show that the learned motion representations employed for the task of activity recognition achieve competitive performance on multiple benchmarks. Stereo vision is an important challenge in computer vision and useful for many applications in that field. In the second article, we extend the energy based learning models, which were previously used for motion encoding, to the context of depth perception. Given the common architecture of the models for encoding motion and depth, we show that it is possible to define a single model for learning a unified representation for both the cues. Our experimental results show that learning a combined representation for depth and motion makes it possible to achieve state-of-the-art performance at the task of 3-D activity analysis, and to perform better than the existing hand-engineered 3-D motion features. Autoencoder is a popular unsupervised learning method for learning efficient encoding for a given set of data samples. Typically, regularized autoencoders which are used to learn over-complete and sparse representations for the input data, were shown to fail on intrinsically high dimensional data like videos. In the third article, we investigate the reason for such a behavior. It can be observed that the regularized autoencoders typically learn negative hidden unit biases. We show that the learning of negative biases is the result of hidden units being responsible for both the sparsity and the representation of the input data. It is shown that, as a result, the behavior of the model resembles clustering methods which would require exponentially large number of features to model intrinsically high dimensional data. Based on this understanding, we propose a new activation function which decouples the roles of hidden layer and uses linear encoding. This allows to learn representations on data with very high intrinsic dimensionality. We also show that gating connections in the bi-linear models and the single layer models from articles one and two of this thesis can be thought of as a way to attain a linear encoding scheme which allows them to learn good representations on videos. Visual odometry is the task of inferring egomotion of a moving object from visual information such as images and videos. It can primarily be used for the task of localization and has many applications in the fields of robotics and navigation. The work in article four was motivated by the idea of using deep learning techniques, which are successful methods for many vision tasks, for visual odometry. The visual odometry task mainly requires inference of motion and depth information from visual input which can then be mapped to velocity and change in direction. We use relational feature models presented in the articles one and two for inferring a combined motion and depth representation from stereo video sequences. The combined representation is then mapped to discrete velocity and change in direction labels using convolutional neural networks. Our approach is an end-to-end deep learning-based architecture which uses a single type of computational model and learning rule. Preliminary results show that the architecture is capable of learning the mapping from input video to egomotion. Activity recognition is a challenging computer vision task with many real world applications. It is well know that it is a hard task to use computer vision research for real-time applications. In the fifth article of this thesis, we present a real-time activity recognition system based on deep learning based methods. Our approach uses energy based relational feature learning models for the computation of local motion features directly from videos. A bag-of-words over the local motion features is used for the analysis of activity in a given video sequence. We implement this system on a distributed computational platform and demonstrate its performance on the iCub robot. Using GPUs we demonstrate real time performance which makes the deployment of activity recognition systems in real world scenarios possible.
The phenomenon of magnetism has been known to humankind for at least over 2500 years and many useful applications of magnetism have been developed since then, starting from the compass to modern information storage and processing devices. While technological applications are an important part of the continuing interest in magnetic materials, their fundamental properties are still being studied, leading to new physical insights at the forefront of physics. The magnetism of magnetic materials is a pure quantum effect due to the electrons that carry an intrinsic spin of 1/2. The physics of interacting quantum spins in magnetic insulators is the main subject of this thesis.We focus here on a theoretical description of the antiferromagnetic insulator Cs2CuCl4. This material is highly interesting because it is a nearly ideal realization of the two-dimensional antiferromagnetic spin-1/2 Heisenberg model on an anisotropic triangular lattice, where the Cu(2+) ions carry a spin of 1/2 and the spins interact via exchange couplings. Due to the geometric frustration of the triangular lattice, there exists a spin-liquid phase with fractional excitations (spinons) at finite temperatures in Cs2CuCl4. This spin-liquid phase is characterized by strong short-range spin correlations without long-range order. From an experimental point of view, Cs2CuCl4 is also very interesting because the exchange couplings are relatively weak leading to a saturation field of only B_c=8.5 T. All relevant parts of the phase diagram are therefore experimentally accessible. A recurring theme in this thesis will be the use of bosonic or fermionic representations of the spin operators which each offer in different situations suitable starting points for an approximate treatment of the spin interactions. The methods which we develop in this thesis are not restricted to Cs2CuCl4 but can also be applied to other materials that can be described by the spin-1/2 Heisenberg model on a triangular lattice; one important example is the material class Cs2Cu(Cl{4-x}Br{x}) where chlorine is partially substituted by bromine which changes the strength of the exchange couplings and the degree of frustration.
Our first topic is the finite-temperature spin-liquid phase in Cs2CuCl4. We study this regime by using a Majorana fermion representation of the spin-1/2 operators motivated by theoretical and experimental evidence for fermionic excitations in this spin-liquid phase. Within a mean-field theory for the Majorana fermions, we determine the magnetic field dependence of the critical temperature for the crossover from spin-liquid to paramagnetic behavior and we calculate the specific heat and magnetic susceptibility in zero magnetic field. We find that the Majorana fermions can only propagate in one dimension along the direction of the strongest exchange coupling; this reduction of the effective dimensionality of excitations is known as dimensional reduction.
The second topic is the behavior of ultrasound propagation and attenuation in the spin-liquid phase of Cs2CuCl4, where we consider longitudinal sound waves along the direction of the strongest exchange coupling. Due to the dimensional reduction of the excitations in the spin-liquid phase, we expect that we can describe the ultrasound physics by a one-dimensional Heisenberg model coupled to the lattice degrees of freedom via the exchange-striction mechanism. For this one-dimensional problem we use the Jordan-Wigner transformation to map the spin-1/2 operators to spinless fermions. We treat the fermions within the self-consistent Hartree-Fock approximation and we calculate the change of the sound velocity and attenuation as a function of magnetic field using a perturbative expansion in the spin-phonon couplings. We compare our theoretical results with experimental data from ultrasound experiments, where we find good agreement between theory and experiment.
Our final topic is the behavior of Cs2CuCl4 in high magnetic fields larger than the saturation field B_c=8.5 T. At zero temperature, Cs2CuCl4 is then fully magnetized and the ground state is therefore a ferromagnet where the excitations have an energy gap. The elementary excitations of this ferromagnetic state are spin-flips (magnons) which behave as hard-core bosons. At finite temperatures there will be thermally excited magnons that interact via the hard-core interaction and via additional exchange interactions. We describe the thermodynamic properties of Cs2CuCl4 at finite temperatures and calculate experimentally observable quantities, e.g., magnetic susceptibility and specific heat. Our approach is based on a mapping of the spin-1/2 operators to hard-core bosons, where we treat the hard-core interaction by the self-consistent ladder approximation and the exchange interactions by the self-consistent Hartree-Fock approximation. We find that our theoretical results for the specific heat are in good agreement with the available experimental data.