Refine
Year of publication
- 2010 (2875) (remove)
Document Type
- Article (1009)
- Doctoral Thesis (378)
- Part of Periodical (340)
- Book (338)
- Part of a Book (264)
- Review (145)
- Contribution to a Periodical (144)
- Working Paper (84)
- Report (71)
- Conference Proceeding (31)
Language
Keywords
- Mosambik (114)
- Mozambique (114)
- Moçambique (113)
- Filmmusik (96)
- Deutsch (80)
- Christentum (65)
- Bibel (63)
- bible (63)
- christianity (63)
- Literatur (48)
Institute
- Extern (316)
- Medizin (295)
- Präsidium (235)
- Gesellschaftswissenschaften (99)
- Biowissenschaften (98)
- Biochemie und Chemie (97)
- Physik (87)
- Geschichtswissenschaften (68)
- Geowissenschaften (59)
- Wirtschaftswissenschaften (55)
In den Vorlesungen zur Gouvernementalität skizziert Foucault die Art und Weise, in der im modernen Staat «aus der Distanz» regiert wird. Diese wird im Artikel dargestellt, materialistisch «geerdet», und es werden hierauf aufbauend die Begriffe Risiko und Versicherheitlichung diskutiert. Die Tauglichkeit dieser Herangehensweise wird anhand der aktuellen Grenz- und Migrationspolitik der EU illustriert, und es werden die in diesem Kontext produzierten Räume skizziert.
Erzählt wurde und wird überall. Erzählen ist eine Grundform unserer Wirklichkeitserfassung. Das Zentrum für Erzählforschung (ZEF) der Bergischen Universität ist deshalb interdisziplinär ausgerichtet. Drei Beispiele aus Kunstgeschichte, Journalismus und Rechtsprechung: Der Teppich von Bayeux (11. Jh.) benutzt bei seiner bildlichen Darstellung der Eroberung Englands durch den Normannen Wilhelm Abweichungen von der Chronologie, um die Sympathien der Betrachter zu lenken. Die pietätlose Hast des angelsächsischen Kontrahenten der Normannen, Harold, sich nach dem Tod seines Vorgängers krönen zu lassen, wird visuell durch die unmittelbare Konfrontation der Krönungsszene mit dem Bild des kranken Edward angezeigt. In solchen erzählerischen Kunstgriffen zeigt sich politische Wirkungsabsicht. Zweitens: Fußballspiele stellen den Live-Reporter vor große erzählerische Herausforderung. Er muss eine Geschichte erzählen, deren Ende er nicht kennt. Dafür verwendet er prospektiv Plotstrukturen, die dem disparaten Spielgeschehen Sinn verleihen, die aber auch gegebenenfalls ad hoc abweichendem Spielverlauf anzupassen sind. Drittens: Vor Gericht wird die Glaubhaftigkeit von Zeugenaussagen u. a. nach erzählerischen Kriterien wie Detaillierungsgrad und Inkontinenz beurteilt. Wer besser erzählt, gewinnt.
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
1987 überraschte der chinesische Künstler Xu Bing sein Pekinger Publikum mit einem Set von vier Büchern, die im Stil der kanonischen Bücher gestaltet waren und über tausendzweihundert chinesische Schriftzeichen enthielten. Obwohl auf den ersten Blick den alten chinesischen Zeichen täuschend ähnlich, unterschieden sie sich jedoch von ihnen in einigen wenigen Details, die entscheidend für das Verständnis waren. Xu Bings Idee bestand darin, einem alten Wörterbuch reale Zeichen zu entnehmen, sie in ihre Grundbestandteile zu zerlegen und sie wieder zusammensetzen, jedoch nicht so, wie sie vorher waren, sodass sie ihrer Bedeutung beraubt wurden. Angesichts dieser gekonnt inszenierten und verwirrenden Lektüreerfahrung stellt sich die Frage: Ist das überhaupt Literatur, wo es doch nichts zu lesen gibt? Diese Frage mag ungewöhnlich klingen und nicht wenige werden sie vielleicht sogar für falsch gestellt halten. Schließlich gilt Xu Bing als Künstler und nicht als Schriftsteller und seine ausgestellten Bücher sind in dem Ausstellungsraum eines Museums zu finden und nicht in einer Bibliothek. Und dennoch, so die Hypothese dieser Überlegungen, findet man in seinen Büchern etwas zur Darstellung gebracht, was nach Foucault so etwas ist wie der unsagbare Kern der Literatur. In Xu Bings Ausstellung geht es um die sichtbare Manifestation dessen, was Literatur im sprachontologischen Sinne begründet, um ihre Existenzbedingung: das Nichtsignifikative im Zeichen, das die Signifikation erst ermöglicht. In Analogie zu Blanchots Begriff "desoeuvrement" (vgl. Blanchot 1955, 48 f) könnte man von einer 'désignification' sprechen: Durch winzige Veränderungen am Gefüge der Striche wird dem Zeichen der Sinn entzogen. Doch wie lässt sich der Bezug dieses unlesbaren Buches, das aufgrund seiner Unlesbarkeit nur noch als Ausstellungsobjekt taugt, zum literarischen Buch herstellen?
We investigate the incentives for vertical or horizontal integration in the financial security service industry, consisting of trading, clearing and settlement. We thereby focus on firms’ decisions but also look on the implications of these decisions on competition and welfare. Our analysis shows that the incentives for vertical integration crucially depend on industry as well as market characteristics. A more pronounced demand for liquidity clearly favors vertical integration whereas deeper financial integration increases the incentives to undertake vertical integration only if the efficiency gains associated with vertical integration are sufficiently large. Furthermore, we show that market forces can suffer from a coordination problem that end in vertically integrated structures that are not in the best interest of the firms. We believe this problem can be addressed by policy measures such as the TARGET2-Securities program. Furthermore, we use our framework to discuss major industry trends and policy initiatives. Keywords: Vertical Integration , Horizontal Integration , Competition , Trading , Settlement JEL Classification: G15, L13, L22
Tracer measurements in the tropical tropopause layer during the AMMA/SCOUT-O3 aircraft campaign
(2010)
We present airborne in situ measurements made during the AMMA (African Monsoon Multidisciplinary Analysis)/SCOUT-O3 campaign between 31 July and 17 August 2006 on board the M55 Geophysica aircraft, based in Ouagadougou, Burkina Faso. CO<sub>2</sub> and N<sub>2</sub>O were measured with the High Altitude Gas Analyzer (HAGAR), CO was measured with the Cryogenically Operated Laser Diode (COLD) instrument, and O<sub>3</sub> with the Fast Ozone ANalyzer (FOZAN). We analyze the data obtained during five local flights to study the dominant transport processes controlling the tropical tropopause layer (TTL) above West-Africa: deep convection up to the level of main convective outflow, overshooting of deep convection, horizontal inmixing across the subtropical tropopause, and horizontal transport across the subtropical barrier. Except for the flight of 13 August, distinct minima in CO<sub>2</sub> indicate convective outflow of boundary layer air in the TTL. The CO<sub>2</sub> profiles show that the level of main convective outflow was mostly located between 350 and 360 K, and for 11 August reached up to 370 K. While the CO<sub>2</sub> minima indicate quite significant convective influence, the O<sub>3</sub> profiles suggest that the observed convective signatures were mostly not fresh, but of older origin. When compared with the mean O<sub>3</sub> profile measured during a previous campaign over Darwin in November 2005, the O<sub>3</sub> minimum at the main convective outflow level was less pronounced over Ouagadougou. Furthermore O<sub>3</sub> mixing ratios were much higher throughout the whole TTL and, unlike over Darwin, rarely showed low values observed in the regional boundary layer. Signatures of irreversible mixing following overshooting of convective air were scarce in the tracer data. Some small signatures indicative of this process were found in CO<sub>2</sub> profiles between 390 and 410 K during the flights of 4 and 8 August, and in CO data at 410 K on 7 August. However, the absence of expected corresponding signatures in other tracer data makes this evidence inconclusive, and overall there is little indication from the observations that overshooting convection has a profound impact on TTL composition during AMMA. We find the amount of photochemically aged air isentropically mixed into the TTL across the subtropical tropopause to be not significant. Using the N<sub>2</sub>O observations we estimate the fraction of aged extratropical stratospheric air in the TTL to be 0.0±0.1 up to 370 K during the local flights, increasing above this level to 0.2±0.15 at 390 K. The subtropical barrier, as indicated by the slope of the correlation between N<sub>2</sub>O and O<sub>3</sub> between 415 and 490 K, does not appear as a sharp border between the tropics and extratropics, but rather as a gradual transition region between 10 and 25° N latitude where isentropic mixing between these two regions may occur.
Einen gegebenen Stoff erneut zu verfilmen, einen Erfolgsfilm zu verdoppeln, eine schon verfilmte Geschichte in anderem Milieu neu vorzustellen, sie zu variieren und sie auf die besonderen Gegebenheiten der dargestellten Welt hin anzupassen: Das ist Praxis des Films, wohl seit seinem Beginn. Daß immer die gleichen Stoffe den Anlaß boten zu immer neuen Versuchen, das Zeitgenössische oder das Ewig-Menschliche zu zeigen, zu präzisieren oder überhaupt erst zu finden, ist beileibe keine filmische Angelegenheit, sondern auch in der Literatur - und erst recht: in der Volksliteratur - gängige und bekannte Praxis. Man ziehe die verschiedenen Stoff- und Motivgeschichten zu Rate: Diese sind voller Hinweise auf Geschichten, die in immer neuen Annäherungen und Variationen erprobt wurden. Ein ‚Remake‘ ist, wollte man flapsig formulieren, ganz einfach eine Neuverfilmung eines schon verfilmten Stoffes. Bezugnahmen von Texten aufeinander gibt es viele - dazu rechnen u.a. Fortsetzungen, Parodien, Kompilationsfilme und lediglich im Titel auf ein Original anspielende Filme. Die Frage, was ein Remake ist, bleibt virulent: Wieviele stoffliche Ähnlichkeiten müssen zwei Filme aufweisen, daß man von einem ‚Remake‘ sprechen darf? Das texttheoretische Problem der sich Remake nennenden Ähnlichkeitsbeziehung von Filmen, die sich mehr oder weniger detailgetreu auf den Vorgänger beziehen und oft sogar denselben Titel tragen, ist unklar. Geht es um Ähnlichkeiten oder um die Beschreibung der Unterschiede im Gleichen - vieles spricht dafür, dass in einem historischen und in einem kulturwissenschaftlichen Interesse die Beschreibung der Differenzen wichtiger ist als die Feststellung der stofflichen, narrativen und dramatischen Nähe von zwei oder mehr Texten. In der Differenz manifestiert sich historischer Wandel und kulturelle Unterschiedlichkeit. In der Differenz manifestiert sich aber auch die Anpassungsleistung, weil nicht jede Neuadaption eines Stoffes das „Original“ nur ausbeutet, sondern es aktualisiert, neu ausrichtet, thematisch veränderte Akzente setzt.
Ausgehend von der These, dass insbesondere psychologisierende Filmmusik oft in einer changierenden Bedeutungsbeziehung zur Szene und den Figuren steht und dass das Akzeptieren von Musiken als Darstellung der inneren Realität von Figuren auf einem Prozess der Synthese diverser Kontextinformationen beruht, wird ein Modell der Perspektivität der Filmmusik und ihrer damit einhergehenden semantischen Aufladung vorgeschlagen und an einem Beispiel durchgespielt.
'One Plus One' entstand während einer über mehrere Monate verteilten Aufnahmestudio-Session der Rolling Stones im Juni und August 1968 in den Olympic Studios in London. Die Band kam ohne Vorbereitung ins Studio und entwickelte den Song 'Sympathy for the Devil' improvisatorisch im Laufe der Sessions. Die Arbeit am Stück begann mit einem Liedtext von Sänger Mick Jagger unter dem Arbeitstitel 'The Devil Is My Name'. Jagger hatte diesen Text unter dem Eindruck des Romans 'Der Meister und Margarita' des russischen Schriftstellers Michail Bulgakov verfasst - ein Buch, das er von seiner Partnerin Marianne Faithfull erhalten hatte. In Bulgakovs Roman stattet der Teufel dem Moskau der 1930er Jahre einen Besuch ab, in dessen Verlauf er viele Menschen tötet oder in den Wahnsinn treibt. Der Film zeigt die Arbeit an dem Song, der auf einem treibenden Samba-Rhythmus aufruht, in den verschiedenen Entwicklungsstufen, in immer neuen Ansätzen, sich dem späteren Format annähernd. Der Song wurde 1968 auf dem Studioalbum 'Beggars Banquet' als erstes von zehn Liedern veröffentlicht.
We analytically show that a common across rich/poor individuals Stone-Geary utility function with subsistence consumption in the context of a simple two-asset portfolio-choice model is capable of qualitatively explaining: (i) the higher saving rates of the rich, (ii) the higher fraction of personal wealth held in stocks by the rich, and (iii) the higher volatility of consumption of the wealthier. On the contrary, time-variant "keeping-up with the Joneses" weighted average consumption playing the role of moving benchmark subsistence consumption gives the same portfolio composition and saving rates across the rich and the poor, failing to reconcile the model with what micro data say.
In diesem Aufsatz möchten wir Denk- und Deutungsmuster des mediengestützten Studiums und der mediengestützten Lehre herausarbeiten, welche die These einer qualitativ neuen Form der Bildung stützen2. Der Rahmen, in dem wir uns dabei bewegen, wird einerseits durch die Debatte um die Wissensgesellschaft und andererseits durch die Perspektive der kanadischen Medientheorie3 gekennzeichnet.
Unser Augenmerk gilt den Veränderungen in unserer Alltagskultur, den Deutungs- und Wahrnehmungsmustern und den entsprechenden Erwartungshorizonten, welche sich zunehmend unter den Bedingungen moderner Medientechnologien verändern. Besonders hervorheben wollen wir dabei den Zusammenhang von medientechnischen und kulturellen Modernisierungen. Fragen der Entwicklung und Nutzung neuer Medientechnologien wie dem Internet lassen sich so jenseits einer Sichtweise der Instrumentalisierung in den Blick nehmen. Wir werden uns bei den nachfolgenden Betrachtungen dazuhin auf das Feld der Hochschulen und die dort angesiedelten Fragen zur mediengestützten Lehre beschränken.
In erstem Teil der Arbeit wurde der Begriff Drehbuch in Hinsicht auf die Erstellung von eLearning Kursen erläutert und eLearning Inhalte auf ihre typischen Merkmale untersucht. Dabei war es wichtig zu verstehen, ob und wie die kooperative Arbeit an Inhalten in gängigen Textbearbeitungsprogrammen unterstützt wird und welche Vor- und Nachteile der jeweilige Editor aufweist. Wie sich herausgestellt hat, setzen bestehende Lösungen auf Auszeichnungen von Textbausteinen und der Kursstruktur mit Hilfe von speziellen Makros, so dass beim Transformieren des Kurses diese wiedererkannt werden können. Leider sind diese Lösungen auf einen bestimmten Editor spezialisiert und betrachten die kooperativen Aspekte der Arbeit an Inhalten nicht.
Da das Drehbuch in einem Textbearbeitungsprogramm erstellt wird, ist die Möglichkeit der Wahl von einem Editor für die Autoren vorteilhaft. Deshalb sieht der Lösungsansatz in meiner Arbeit vor, dass die Umsetzung des Drehbuches nicht auf einen bestimmten Editor beschränkt ist und dass für jeden Editor kooperative Bearbeitung ermöglicht wird. Dies wird zum einen durch Verwendung eines Versionskontrollesystems und zum anderen durch die kooperativen Eigenschaften der Editoren erreicht.
Das Transformieren eines Drehbuches zu einem eLearning Kurs wurde einheitlich gestaltet, da HTML als ein gemeinsames Format der Ausgabe von Editoren ausgewählt wurde. In der Implementierung des Lösungsansatzes konnte am Beispiel des Autorensprogramms LernBar die Unterstützung von bereits drei Editoren erreicht werden.
Einige Einschränkungen sind bei der Verwendung dieser Lösung zu beachten. Bei den Veränderungen in der HTML-Ausgabe der Editoren sind möglicherweise auch Anpassungen im Programm vorzunehmen. Die Verwendung von Tabellen impliziert, dass ihre Struktur durch den Autor nicht geändert wird, was durchaus auch versehentlich passieren kann. Bei der Erstellung von Tests ist eine umfassende Validierung empfehlenswert, damit die Tests wie erwartet durchgeführt werden können. Es wurden in der Implementierung nur einige Testtypen umgesetzt und möglicherweise sind einige Tests nicht für die Erfassung im Drehbuch geeignet. In dem Fall müssen sie in den verwendeten Autorenprogramm direkt erstellt werden.
Die rasante Entwicklung von Internettechnologien wird sicherlich neue Möglichkeiten sowohl für die kooperative Arbeit, als auch für Textbearbeitungsfunktionalitäten anbieten. Allein im Jahr 2010 wurden mehrere Neuerungen auf dem Markt von Online-Editoren eingeführt. Microsoft hat eine Online-Version1 von seiner Office-Suite veröffentlicht und damit eine neue Alternative zu Google Docs angeboten. In Google-Docs werden nahezu im monatlichen Takt neue nützliche Funktionen implementiert, die sowohl die Textverarbeitung als auch die Kooperation verbessern.
Im Rahmen dieser Bachelorarbeit werden verschiedene Non-Photorealistic Rendering Verfahren zur Darstellung von rekonstruierten Artefakten, im Bereich der Paläontologie, beschrieben und implementiert. Hauptsächlich arbeiten die vorgestellten Verfahren im zweidimensionalen Bildraum, um beispielsweise Kanten in Bildern zu detektieren. Hierbei bedienen wir uns sogenannter Normal- und Depthmaps, welche als Zwischenresultate dienen, um die nötigen Informationen zu sammeln, welche zur Erkennung von Kanten im Bild notwendig sind. Neben der Kantendetektion werden NPR Verfahren genutzt, um skizzenhafte Illustrationen zu erzeugen, welche per Hand gezeichnete wissenschaftliche bzw. technische Illustrationen nachahmen und somit (halb)automatisieren sollen. Mithilfe von (programmierbaren) Shadern werden dann spezielle Texturen auf die Oberflächen der Modelle gelegt, um eine skizzenhafte Darstellung zu erzeugen. Solche Verfahren erleichtern demnach die aufwändige Arbeit der Künstler, welche gewöhnlich viel Zeit für ihre Illustrationen benötigen.
Small interfering RNAs (siRNAs) are now established as the preferred tool to inhibit gene function in mammalian cells yet trigger unintended gene silencing due to their inherent miRNA-like behavior. Such off-target effects are primarily mediated by the sequence-specific interaction between the siRNA seed regions (position 2–8 of either siRNA strand counting from the 5'-end) and complementary sequences in the 3'UTR of (off-) targets. It was previously shown that chemical modification of siRNAs can reduce off-targeting but only very few modifications have been tested leaving more to be identified. Here we developed a luciferase reporter-based assay suitable to monitor siRNA off-targeting in a high throughput manner using stable cell lines. We investigated the impact of chemically modifying single nucleotide positions within the siRNA seed on siRNA function and off-targeting using 10 different types of chemical modifications, three different target sequences and three siRNA concentrations. We found several differently modified siRNAs to exercise reduced off-targeting yet incorporation of the strongly destabilizing unlocked nucleic acid (UNA) modification into position 7 of the siRNA most potently reduced off-targeting for all tested sequences. Notably, such position-specific destabilization of siRNA–target interactions did not significantly reduce siRNA potency and is therefore well suited for future siRNA designs especially for applications in vivo where siRNA concentrations, expectedly, will be low.
Hrad Wartburg v Durynsku je jedním z nejvýznamnějších památníků německé kultury. Jeho jméno je spojeno s dějinami minnesangu stejně jako s historií německé reformace. Ve Wagnerově opeře 'Tannhäuser' se však tento hrad stává především symbolem, metaforou, za níţ se skrývá tradiční německá "Kultura" (tak jak ji definoval např. Thomas Mann ve svých 'Betrachtungen eines Unpolitischen'). Novější německé dějiny znají hned několik epoch, v nichţ hrály hodnoty reprezentované wagnerovským Wartburgem významnou roli – wilhelmovská "Druhá" stejně jako – ještě radikálněji – Hitlerova "Třetí říše". Cílem tohoto příspěvku je objasnit na příkladu německé literatury, jak "wartburské" tyto doby byly a jak reálné je zrcadlo, které Wagner se svým 'Tannhäuserem' nastavil (německému) světu.
In vielen Familien der Mittelschicht sind mittlerweile beide Ehepartner berufstätig. Das männliche Alleinverdiener-Modell verschwindet zwar nicht, aber nimmt ab. Die Arbeit zu Hause ist trotzdem noch ungleich verteilt und überwiegend Frauensache geblieben – wenn auch häufig unter neuen Vorzeichen: Oft übernehmen Migrantinnen, insbesondere aus Osteuropa, einen Teil der Care-Arbeit. Welche Konsequenzen hat dies für deren Familien?
We synthesised observations of total particle number (CN) concentration from 36 sites around the world. We found that annual mean CN concentrations are typically 300–2000 cm -3 in the marine boundary layer and free troposphere (FT) and 1000–10 000 cm -3 in the continental boundary layer (BL). Many sites exhibit pronounced seasonality with summer time concentrations a factor of 2–10 greater than wintertime concentrations. We used these CN observations to evaluate primary and secondary sources of particle number in a global aerosol microphysics model. We found that emissions of primary particles can reasonably reproduce the spatial pattern of observed CN concentration (R2=0.46) but fail to explain the observed seasonal cycle (R2=0.1). The modeled CN concentration in the FT was biased low (normalised mean bias, NMB=& -88%) unless a secondary source of particles was included, for example from binary homogeneous nucleation of sulfuric acid and water (NMB= -25%). Simulated CN concentrations in the continental BL were also biased low (NMB= -74%) unless the number emission of anthropogenic primary particles was increased or a mechanism that results in particle formation in the BL was included. We ran a number of simulations where we included an empirical BL nucleation mechanism either using the activation-type mechanism (nucleation rate, J, proportional to gas-phase sulfuric acid concentration to the power one) or kinetic-type mechanism (J proportional to sulfuric acid to the power two) with a range of nucleation coefficients. We found that the seasonal CN cycle observed at continental BL sites was better simulated by BL particle formation (R2=0.3) than by increasing the number emission from primary anthropogenic sources (R2=0.18). The nucleation constants that resulted in best overall match between model and observed CN concentrations were consistent with values derived in previous studies from detailed case studies at individual sites. In our model, kinetic and activation-type nucleation parameterizations gave similar agreement with observed monthly mean CN concentrations.
Introduction: Researchers experience increasing pressures to connect with bodies that finance their projects. In this climate, critical scholars face many obstacles as they seek to navigate the treacherous waters of securing external funds. To debate these challenges, the ACME Editorial Collective organized a panel for the 2009 Annual Meeting of the Association of American Geographers in Las Vegas. This intervention represents a follow-up discussion and collective writing process among some of the panelists and members of the audience who attended the panel.
Below, we examine the neoliberalization of the current funding systems, discuss the implications for research practice, and make suggestions for critical engagement and transformation. Our suggestions, however, will not be easy to implement, as we can infer from the experience of the radical scholars of the post-1968 generation whose ascension into the upper echelons of North American and European university systems was also associated with the neoliberalization of the funding systems. This intervention represents a modest contribution in the tradition of critical research practice of creating the possibilities for progressive change.
Intracarotid administration of human bone marrow mononuclear cells in rat photothrombotic ischemia
(2010)
Background: Increasing evidence suggests that cell therapy improves functional recovery in experimental models of stroke and myocardial infarction. So far only small pilot trials tested the effects of cell therapy in stroke patients, whereas large clinical trials were conducted in patients with ischemic heart disease. To investigate the therapeutic benefit of cell therapy to improve the recovery after stroke, we determined the efficacy of bone marrow derived mononuclear cells, which were shown to improve the recovery in experimental and clinical acute myocardial infarction studies, in a rat stroke model. Methods: Adult male Wistar rats were randomly assigned to receive either five million human bone marrow mononuclear cells (hBMC) or placebo intraarterially 3 days after photothrombotic ischemia. For immunosuppression the animals received daily injections of cyclosporine throughout the experiment, commencing 24 hours before the cell transplantation. A battery of behavioural tests was performed before and up to 4 weeks after ischemia. Results: Body temperature and body weight revealed no difference between groups. Neurological deficits measured by the Rotarod test, the adhesive-removal test and the cylinder test were not improved by hBMC transplantation compared to placebo. Conclusions: This study demonstrates that hBMC do not improve functional recovery when transplanted intraaterially 3 days after the onset of focal cerebral ischemia. A possible reason for the failed neurological improvement after cell therapy might be the delayed treatment initiation compared to other experimental stroke studies that showed efficacy of bone marrow mononuclear cells.