Refine
Year of publication
Document Type
- Article (30828) (remove)
Language
- English (15926)
- German (13032)
- Portuguese (584)
- French (385)
- Croatian (251)
- Spanish (242)
- Italian (132)
- Turkish (101)
- Latin (35)
- Multiple languages (35)
Has Fulltext
- yes (30828)
Is part of the Bibliography
- no (30828) (remove)
Keywords
- Deutsch (482)
- taxonomy (451)
- Literatur (282)
- new species (196)
- Hofmannsthal, Hugo von (184)
- Rezeption (155)
- Filmmusik (154)
- Übersetzung (135)
- Vormärz (117)
- Johann Wolfgang von Goethe (107)
Institute
- Medizin (5419)
- Physik (1983)
- Biowissenschaften (1153)
- Biochemie und Chemie (1113)
- Extern (1069)
- Gesellschaftswissenschaften (803)
- Frankfurt Institute for Advanced Studies (FIAS) (755)
- Geowissenschaften (593)
- Präsidium (453)
- Philosophie (448)
The climate system can be regarded as a dynamic nonlinear system. Thus, traditional linear statistical methods fail to model the nonlinearities of such a system. These nonlinearities render it necessary to find alternative statistical techniques. Since artificial neural network models (NNM) represent such a nonlinear statistical method their use in analyzing the climate system has been studied for a couple of years now. Most authors use the standard Backpropagation Network (BPN) for their investigations, although this specific model architecture carries a certain risk of over-/underfitting. Here we use the so called Cauchy Machine (CM) with an implemented Fast Simulated Annealing schedule (FSA) (Szu, 1986) for the purpose of attributing and detecting anthropogenic climate change instead. Under certain conditions the CM-FSA guarantees to find the global minimum of a yet undefined cost function (Geman and Geman, 1986). In addition to potential anthropogenic influences on climate (greenhouse gases (GHG), sulphur dioxide (SO2)) natural influences on near surface air temperature (variations of solar activity, explosive volcanism and the El Nino = Southern Oscillation phenomenon) serve as model inputs. The simulations are carried out on different spatial scales: global and area weighted averages. In addition, a multiple linear regression analysis serves as a linear reference. It is shown that the adaptive nonlinear CM-FSA algorithm captures the dynamics of the climate system to a great extent. However, free parameters of this specific network architecture have to be optimized subjectively. The quality of the simulations obtained by the CM-FSA algorithm exceeds the results of a multiple linear regression model; the simulation quality on the global scale amounts up to 81% explained variance. Furthermore the combined anthropogenic effect corresponds to the observed increase in temperature Jones et al. (1994), updated by Jones (1999a), for the examined period 1856–1998 on all investigated scales. In accordance to recent findings of physical climate models, the CM-FSA succeeds with the detection of anthropogenic induced climate change on a high significance level. Thus, the CMFSA algorithm can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Observed global and European spatiotemporal related fields of surface air temperature, mean-sea-level pressure and precipitation are analyzed statistically with respect to their response to external forcing factors such as anthropogenic greenhouse gases, anthropogenic sulfate aerosol, solar variations and explosive volcanism, and known internal climate mechanisms such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO). As a first step, a principal component analysis (PCA) is applied to the observed spatiotemporal related fields to obtain spatial patterns with linear independent temporal structure. In a second step, the time series of each of the spatial patterns is subject to a stepwise regression analysis in order to separate it into signals of the external forcing factors and internal climate mechanisms as listed above as well as the residuals. Finally a back-transformation leads to the spatiotemporally related patterns of all these signals being intercompared. Two kinds of significance tests are applied to the anthropogenic signals. First, it is tested whether the anthropogenic signal is significant compared with the complete residual variance including natural variability. This test answers the question whether a significant anthropogenic climate change is visible in the observed data. As a second test the anthropogenic signal is tested with respect to the climate noise component only. This test answers the question whether the anthropogenic signal is significant among others in the observed data. Using both tests, regions can be specified where the anthropogenic influence is visible (second test) and regions where the anthropogenic influence has already significantly changed climate (first test).
Zur Aktualität von Wagenscheins Schulkritik heute : das Wirklichkeits-Defizit im schulischen Lernen
(2005)
Der Magnetstein - Wozu braucht es Materialien zum Sachunterricht : Ein Gespräch mit Horst Rumpf
(2003)
Der Sachunterricht beschäftigt sich mit Sachzusammenhängen. Seine grundsätzliche didaktische Zielsetzung besteht deshalb darin, mit Sachzusammenhängen umzugehen und nicht mit Bildern oder Texten über Sachen. Mit Sachen umgehen kann entweder heißen, sie in der Realität, also außerhalb der Schule aufzusuchen oder sie in die Schule hereinzuholen. Drei Gründe legen es dennoch nahe, auch Materialien im Sachunterricht einzusetzen: 1. Es gibt Sachzusammenhänge, die nicht aufgesucht und untersucht werden können. Etwa: Einen Ameisenhaufen darf man nicht zerstören und eine Schulklasse kann man nicht bei einer Geburt zuschauen lassen. 2. Materialien können die Auseinandersetzung mit Sachzusammenhängen vorbereiten oder begleiten. Es lassen sich aus Büchern und Bildern Anregungen entnehmen, ebenso Fragen oder Aufgaben. Die Dokumentation der Sachbegegnung kann ebenfalls durch Materialien unterstützt werden. 3. Sachzusammenhänge sind komplex. Materialien können eine Reduktion der Komplexität vornehmen, indem sie das Wesentliche eines Zusammenhanges enthalten. Hier geht es vor allem um Dinge, um Geräte oder einfache Abläufe. Diese Gegenstände können - im Unterschied zur Realität - Kindern die Möglichkeit bieten, selbst handelnd mit ihnen umzugehen. Diese Ausgangsthesen beinhalten eine bestimmte Grundposition zum Sachunterricht. Die Diskussion der Materialien zum Sachunterricht kann nicht von der Didaktik des Sachunterrichts getrennt werden, denn die Art des Zuganges zu einem Sachverhalt ist entscheidend dafür, was eigentlich von der Sache gelernt wird. Deshalb soll in einem ersten Schritt an einigen Beispielen eine Kritik eines Sachunterrichts vorgenommen werden, wie er in manchen Grundschulklassen anzutreffen ist.
Der Beitrag setzt sich zunächst kritisch mit verbreiteten Konzepten zum Thema Wetter und Computer auseinander. Behauptet wird ein Widerspruch zwischen didaktischem Anspruch und didaktischer Umsetzung. Der Anspruch wird in einem handlungs- und erfahrungsorientierten Unterricht gesehen. Die Umsetzung erfolgt, so die Kritik, allerdings als eine für Grundschüler nicht verstehbare Einführung in eine Wissenschaft. Für einen handlungs- und erfahrungsorientierten Sachunterricht wird als Voraussetzung gesehen, dass die Schüler die Möglichkeit erhalten, sich öffentlich und argumentativ mit ihren Konzepten und Deutungsmustern auseinander zu setzen. Für dieses Verständnis von "offenem Unterricht" eignet sich der Computer dann, wenn er nicht als Wissensspeicher und nicht zur Dokumentation von Ergebnissen herangezogen wird, sondern als Medium der Kommunikation und zur Dokumentierung von Prozessen. Konkret wird dies dargestellt an einem Unterrichtskonzept, in dem Schüler mehrerer Schulen Wetterprognosen vornehmen, an der Realität überprüfen und begründen.
Die wissenschaftliche Praxis des Sachunterrichts ist von der Praxis des schulischen Sachunterrichts systematisch unterscheidbar. Der wissenschaftliche Sachunterricht und seine Didaktik besteht als ein eigenständiger Diskurs, der sich nicht aus einer Zusammensetzung der verschiedenen Fachwissenschaften und deren Didaktiken begründet. Er hat die Aufgabe den Bildungsauftrag des Sachunterrichts in Schule und Universität zu bestimmten. Der wissenschaftliche Diskurs des Sachunterrichts bewegt sich im Kontext der diskursiven Zusammenhänge über Kind, Sache und Welt. ...
Dem Leser einer Reihe von Veröffentlichungen zur Didaktik des Sachunterrichts fällt auf, dass es bei aller Vielzahl von Differenzen und Differenzierungen zu didaktischen und pädagogischen Fragen so etwas wie eine - mehr implizite als explizite - Übereinstimmung in der Konstitution des Gegenstandes "Sache" zu geben scheint. Die "Sache" ist danach das zu Erkennende; der Sachunterricht soll entsprechend den Schüler in die Lage versetzen, zu erkennen, was gegeben ist. Aus einer jüngeren erkenntnistheoretischen Sicht lässt sich die Haltbarkeit dieser Grundannahme bezweifeln. Im Durchgang durch einige Konzepte zur Didaktik des Sachunterrichts soll dieser Zweifel begründet werden.
DCD – a novel plant specific domain in proteins involved in development and programmed cell death
(2005)
Background: Recognition of microbial pathogens by plants triggers the hypersensitive reaction, a common form of programmed cell death in plants. These dying cells generate signals that activate the plant immune system and alarm the neighboring cells as well as the whole plant to activate defense responses to limit the spread of the pathogen. The molecular mechanisms behind the hypersensitive reaction are largely unknown except for the recognition process of pathogens. We delineate the NRP-gene in soybean, which is specifically induced during this programmed cell death and contains a novel protein domain, which is commonly found in different plant proteins.
Results: The sequence analysis of the protein, encoded by the NRP-gene from soybean, led to the identification of a novel domain, which we named DCD, because it is found in plant proteins involved in d evelopment and c ell d eath. The domain is shared by several proteins in the Arabidopsis and the rice genomes, which otherwise show a different protein architecture. Biological studies indicate a role of these proteins in phytohormone response, embryo development and programmed cell by pathogens or ozone.
Conclusion: It is tempting to speculate, that the DCD domain mediates signaling in plant development and programmed cell death and could thus be used to identify interacting proteins to gain further molecular insights into these processes.
Background: Osteoarthritis (OA) has a high prevalence in primary care. Conservative, guideline orientated approaches aiming at improving pain treatment and increasing physical activity, have been proven to be effective in several contexts outside the primary care setting, as for instance the Arthritis Self management Programs (ASMPs). But it remains unclear if these comprehensive evidence based approaches can improve patients' quality of life if they are provided in a primary care setting. Methods/Design: PraxArt is a cluster randomised controlled trial with GPs as the unit of randomisation. The aim of the study is to evaluate the impact of a comprehensive evidence based medical education of GPs on individual care and patients' quality of life. 75 GPs were randomised either to intervention group I or II or to a control group. Each GP will include 15 patients suffering from osteoarthritis according to the criteria of ACR. In intervention group I GPs will receive medical education and patient education leaflets including a physical exercise program. In intervention group II the same is provided, but in addition a practice nurse will be trained to monitor via monthly telephone calls adherence to GPs prescriptions and advices and ask about increasing pain and possible side effects of medication. In the control group no intervention will be applied at all. Main outcome measurement for patients' QoL is the GERMAN-AIMS2-SF questionnaire. In addition data about patients' satisfaction (using a modified EUROPEP-tool), medication, health care utilization, comorbidity, physical activity and depression (using PHQ-9) will be retrieved. Measurements (pre data collection) will take place in months I-III, starting in June 2005. Post data collection will be performed after 6 months. Discussion: Despite the high prevalence and increasing incidence, comprehensive and evidence based treatment approaches for OA in a primary care setting are neither established nor evaluated in Germany. If the evaluation of the presented approach reveals a clear benefit it is planned to provide this GP-centred interventions on a much larger scale.
A systematic analysis of data on strangeness and pion production in nucleon–nucleon and central nucleus–nucleus collisions is presented. It is shown that at all collision energies the pion/baryon and strangeness/pion ratios indicate saturation with the size of the colliding nuclei. The energy dependence of the saturation level suggests that the transition to the Quark Gluon Plasma occurs between 15 A·GeV/c (BNL AGS) and 160 A·GeV/c (CERN SPS) collision energies. The experimental results interpreted in the framework of a statistical approach show that the effective number of degrees of freedom increases in the course of the phase transition and that the plasma created at CERN SPS energies may have a temperature of about 280 MeV (energy density ~ 10 GeV/fm exp-3). The presence of the phase transition can lead to the non–monotonic collision energy dependence of the strangeness/pion ratio. After an initial increase the ratio should drop to the characteristic value for the QGP. Above the transition region the ratio is expected to be collision energy independent. Experimental studies of central Pb+Pb collisions in the energy range 20–160 A·GeV/c are urgently needed in order to localize the threshold energy, and study the properties of the QCD phase transition.
Von den Konflikten auf dem Weg zum guten und schlechten Menschen : 2. Wie lernt man, kalt zu werden?
(1997)
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
For investigation of space charge compensation process due to residual gas ionization and the experimentally study of the rise of compensation, a Low Energy Beam Transport (LEBT) system consisting of an ion source, two solenoids, a decompensation electrode to generate a pulsed decompensated ion beam and a diagnostic section was set up. The potentials at the beam axis and the beam edge were ascertained from time resolved measurements by a residual gas ion energy analyzer. A numerical simulation of self-consistent equilibrium states of the beam plasma has been developed to determine plasma parameters which are difficult to measure directly. The temporal development of the kinetic and potential energy of the compensation electrons has been analyzed by using the numerically gained results of the simulation. To investigate the compensation process the distribution and the losses of the compensation electrons were studied as a function of time. The acquired data show that the theoretical estimated rise time of space charge compensation neglecting electron losses is shorter than the build up time determined experimentally. To describe the process of space charge compensation an interpretation of the achieved results is given.
Investigation of the focus shift due to compensation process for low energy ion beam transport
(2000)
In magnetic Low Energy Beam Transport (LEBT) sections space charge compensation helps to enhance the transportable beam current and to reduce emittance growth due to space charge forces. For pulsed beams the time neccesary to establish space charge compensation is of great interest for beam transport. Particularly with regard to beam injection into the first accelerator section (e.g. RFQ) investigation of effects on shift of the beam focus due to space charge compensation are very important. The achieved results helps to obviate a mismatch into the first RFQ. To investigate the space charge compensation due to residual gas ionization, time resolved measurements using pulsed ion beams were performed at the LEBT system at the IAP and at the CEA-Saclay injektion line. A residual gas ion energy analyser (RGIA) equiped with a channeltron was used to measure the potential destribution as a function of time to estimate the rise time of compensation. For time resolved measurements (delta t min=50ns) of the radial density profile of the ion beam a CCD-camera was applied. The measured data were used in a numerical simulation of selfconsistant eqilibrium states of the beam plasma [1] to determine plasma parameters such as the density, the temperature, the kinetic and potential energy of the compensation electrons as a function of time. Measurements were done using focused proton beams (10keV, 2mA at IAP and 92keV, 62mA at CEA-Saclay) to get a better understanding of the influence of the compensation process. An interpretation of the acquired data and the achieved results will be presented.
Influence of space charge fluctuations on the low energy beam transport of high current ion beams
(2000)
For future high current ion accelerators like SNS, ESS or IFMIF the beam behaviour in low energy beam transport sections is dominated by space charge forces. Therefore space charge fluctuations (e. g. source noise) can drastically influence the beam transport properties of the low energy beam transport section. Losses of beam ions and emittance growth are the most severe problems. For electrostatic transport systems either a LEBT design has to be found which is insensitive to variations of the space charge or the origin of the fluctuations has to be eliminated. For space charge compensated transport as proposed for ESS and IFMIF the situation is different: No major influence on beam transport is expected for fluctuations below a cut-off frequency given by the production rate of the compensation particles. Above this frequency the fluctuations can not be compensated by particle production alone, but redistributions of the compensation particles helps to compensate the influence of the fluctuations. Above a second cut-off frequency given by the density and the temperature of the compensation particles their redistribution is too slow to reduce the influence of the space charge fluctuations. Transport simulations for the IFMIF injector including space charge fluctuations will be presented together with a determination of the cut-off frequencies. The results will be compared with measurements of the rise time of space charge compensation.
New results on the production of Xi and Omega hyperons in Pb+Pb interactions at 40 A GeV and Lambda at 30 A GeV are presented. Transverse mass spectra as well as rapidity spectra of these hyperons are shown and compared to previously measured data at different beam energies. The energy dependence of hyperon production (4Pi yields) is discussed. Additionally, the centrality dependence of Xi- production at 40 A GeV is presented.
First results on the production of Xi- and Anti-xi hyperons in Pb+Pb interactions at 40 A GeV are presented. The Anti-xi/Xi- ratio at midrapidity is studied as a function of collision centrality. The ratio shows no significant centrality dependence within statistical errors; it ranges from 0.07 to 0.15. The Anti-xi/Xi- ratio for central Pb+Pb collisions increases strongly with the collision energy.
High perveance negative ion beams with low emittance are essential for several next generation particle accelerators (i. g. spallation sources like ESS [1] and SNS [2]). The extraction and transport of these beams have intrinsic difficulties different from positive ion beams. Limitation of beam current and emittance growth have to be avoided. To fulfill the requirements of those projects a detailed knowledge of the physics of beam formation the interaction of the H- with the residual gas and transport is substantial. A compact cesium free H- volume source delivering a low energy high perveance beam (6.5 keV, 2.3 mA, perveance K= 0.0034) has been built to study the fundamental physics of beam transport and will be integrated into the existing LEBT section in the near future. First measurements of the interaction between the ion beam and the residual gas will be presented together with the experimental set up and preliminary results.
A LEBT system consisting of an ion source, two solenoids, and a diagnostic section has been set up to investigate the space charge compensation process due to residual gas ionization [1] and to study experimentally the rise of compensation. To gain the radial beam potential distribution time resolved measurements of the residual gas ion energy distribution were carried out using a Hughes Rojanski analyzer [2,3]. To measure the radial density profile of the ion beam a CCD-camera performed time resolved measurements, which allow an estimation the rise time of compensation. Further the dynamic effect of the space charge compensation on the beam transport was shown. A numerical simulation under assumption of selfconsistent states [4] of the beam plasma has been used to determine plasma parameters such as the radial density profile and the temperature of the electrons. The acquired data show that the theoretical estimated rise time of space charge compensation neglecting electron losses is shorter than the build up time determined experimentally. An interpretation of the achieved results is given.
To fulfil the requirements of ESS on beam transmission and emittance growth a detailed knowledge of the physics of beam formation as well as the interaction of the H- with the residual gas is substantial. Space charge compensated beam transport using solenoids for ion optics is in favour for the Low Energy Beam Transport (LEBT) between ion source and the first RFQ. Space charge compensation reduces the electrical self fields and beam radii and therefore emittance growth due to aberrations and redistribution. Transport of H- near the ion source is negatively influenced by the dipole fields required for beam extraction and e--dumping and the high gas pressure. The destruction of the rotational symmetry together with the space charge forces causes emittance growth and particle losses within the extraction system. High residual gas pressure near the extractor together with the high cross section for stripping will influence the transmission as well as space charge compensation. Therefore a detailed knowledge of the interaction of the residual gas with the beam and the influence of the external fields on the distribution of the compensation particles is necessary to reduce particle losses and emittance growth. Preliminary experiments using positive hydrogen ions for reference already show the influence of dipole fields on beam emittance. First measurements with H- confirm these results. Additional information on the interactions of the residual gas with the beam ions have been gained from the measurements using the momentum and energy analyser.
Excitation functions for quasi-elastic scattering have been measured at backward angles for the systems 32,34S+197Au and 32,34S+208Pb for energies spanning the Coulomb barrier. Representative distributions, sensitive to the low energy part of the fusion barrier distribution, have been extracted from the data. For the fusion reactions of 32,34S with 197Au couplings related to the nuclear structure of 197Au appear to be dominant in shaping the low energy part of the barrier distibution. For the system 32S+208Pb the barrier distribution is broader and extends further to lower energies, than in the case of 34S+208Pb. This is consistent with the interpretation that the neutron pick-up channels are energetically more favoured in the 32S induced reaction and therefore couple more strongly to the relative motion. It may also be due to the increased collectivity of 32S, when compared with 34S.
S.a. Deutsche Fassung: Ökonomie der Gabe - Positivität der Gerechtigkeit: Gegenseitige Heimsuchungen von System und différance. In: Albrecht Koschorke und Cornelia Vismann (Hg.) System - Macht - Kultur: Probleme der Systemtheorie. Akademie, Berlin 1999, 199-212. Auch auf unserem Server vorhanden. * Italienische Fassung: Economia del dono, positività della giustizia: la reciproca paranoia di Jacques Derrida e Niklas Luhmann. Sociologia e politiche sociali 6, 2003, 113-130. Portugiesische Fassung: Economia da dádiva ? posividade da rustica; ?assombracao?? mutua entre sistema e différance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 55-78.
Plus de la moitié des Européens de l’U.E. parlent une langue romane comme langue maternelle. Parmi les autres Européens, l’apprentissage de langues romanes comme langue étrangère est très fréquent, il n’est dépassé que par l’anglais: Une «Romanophonie» pourrait s’appuyer donc sur une base large, tandis que ses valeurs intercompréhensives ne sont pas encore suffisamment mises à la disposition d’un publique européen. Au contraire: les nations créent de plus en plus des barrières entre les langues romanes en institutionnalisant les différences et non pas ce qu’elles ont en commun. En Allemagne où l’on trouve encore la philologie romane (Romanische Philologie) comme unité d’études on peut observer en même temps une tendance vers une spécialisation en études unilingues (Einzelphilologien). Un tel séparatisme linguistique à l’intérieur d’une seule famille renonce aux avantages intercommunicatifs et intercompréhensifs offerts par les langues romanes. Le phénomène de l’intercompréhension est largement connu, pas seulement parmi les romanistes. C’est le résultat d’une tradition de l’écrit et d’un héritage culturel - une partie importante de l’unité intellectuelle du continent européen - qui rend les langues romanes si accessibles. ...
Der sprachfamilienbezogene Erwerb einer L3 bis Lx hat durch die jüngeren sprachpolitischen Forderungen der Europäischen Kommission 1997 entscheidenden Auftrieb erhalten. Im Livre Blanc sur l´éducation et la formation von 1995 bilanziert die Europäische Kommission das Ergebnis der fremdsprachlichen Bemühungen der großen Flächenstaaten der Union als eher kümmerlich und fordert eine Wende. Künftig soll eine Europäische Mehrsprachigkeit drei Perspektiven aufweisen: eine differenzierte Betrachtung von Kompetenzen (rezeptive Mehrsprachigkeit), die Ermöglichung des gezielten Erwerbs von Teilkompetenzen mit modularen Aufbaumöglichkeiten (fachsprachlicher approach zur rezeptiven Lesekompetenz) und das Nutzen der Verwandtschaftsbeziehungen zwischen Sprachen (u.a. romanische Interkomprehensionsforschung). Diese drei Perspektiven werden in dem dreigliedrigen Projekt zur "Eurocomprehension" der Universität Frankfurt zusammengefaßt. Der Frankfurter Beitrag bezieht sich auf die Gruppe der romanischen Sprachen. ...
Rezeptive Mehrsprachigkeit ist eine der jüngsten Forderungen der EU-Kommission zum Erreichen einer realistischen Mehrsprachigkeit in Europa. Die maximalistischen Forderungen nach Perfektion in allen sprachlichen Kompetenzen haben sich in den nationalen Unterrichtswesen als illusionär erwiesen, da diese nirgendwo von statistisch nachvollziehbarem Erfolg gekrönt sind. Die sprachliche Diversität im multilingualen Europa findet sich nicht in der Realität der Bildungssysteme wieder. Zwar verfügen heute europaweit 26 % der Europäer über eine zweite und 8% über eine dritte Fremdsprache, in den einzelnen Ländern sieht es jedoch oft desolat aus. Während in den kleineren Unionsländern kaum jemand als nur monolingual gilt (Luxemburg 2%) ist die Krankheit der Einsprachigkeit in den großen EU-Staaten seuchenhaft verbreitet, etwa Großbritannien mit 66%. Dies hat in den neunziger Jahren in der Kommission zu den Postulaten geführt, die sich die Forschergruppe EuroCom als Programm gesetzt hat, nämlich Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert und kognitiv über Transferbasen innerhalb von Sprachfamilien zu erreichen. EuroCom steht dabei als Kürzel für Eurocomprehension, ein Akronym für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Die Beschränkung auf rezeptive Kompetenzen ist dabei nur ein methodisches Ausgangsprinzip, das es ermöglicht, Mehrsprachigkeit besonders schnell über das Leseverständnis zu erreichen und modularisiert auf Hörverständnis und aktive Sprechkompetenz sukzessiv auszuweiten. Die Methode EuroCom arbeitet über die Aktivierung intralingualen Wissens mit linguistischem Transfermaterial in nahverwandten Sprachen, das als kognitives Potential den Erschließungsprozess optimiert und in kürzester Zeit ein Lese- und Hörverstehen in einer ganzen Sprachenfamilie erreichbar macht. ...
Wissenschafts- und Kulturinstitutionen, Bibliotheken und Archive haben heute nicht nur neue Medien zu erwerben, sondern sie stehen auch vor der Aufgabe, das bereits vorhandene Kulturgut auf Dauer zu erhalten. Die Beseitigung von Schäden durch Papierzerfall ist hier nur ein Beispiel. Bei der Rettung historischen Kulturguts ist die Deutsche Forschungsgemeinschaft -neben anderen Institutionen - ein verlässlicher Partner. Ebenso wie beispielsweise die VW-Stiftung unterstützt sie zahlreiche Restaurierungs-, Sicherheitsverfilmungs- und Digitalisierungsvorhaben in den Bereichen Kultur und Wissenschaft. Ich möchte nunmehr versuchen, die Bedeutung der sog. Bestandserhaltung für unser kulturelles Gedächtnis durch sieben kurze Bemerkungen schlaglichtartig zu bestimmen: Diese Bemerkungen tragen die Überschriften: 1) Bibliotheken und Wissenschaft, 2) Bestandserhaltung hat heute Konjunktur, 3) Tontafeln, saure Bücher, Tonbänder und digitale Datenträger, 4) Einige praktische Aspekte des Bestandsschutzes beim traditionellen Buchgut, 5) Sicherheitsverfilmung und Digitalisierung in Archiven und Bibliotheken, 6) Bestandserhaltung, Marketing, Öffentlichkeitsarbeit und 7) Bestandserhaltung in der Wissenschaftsstadt Frankfurt und die "Aktion Notbuch" der Stadt- und Universitätsbibliothek Frankfurt a. M. Zum Artikel: Stand: Januar 2002
Englische Fassung: Societal Constitutionalism: Alternatives to State-centred Constitutional theory? ("Storrs Lectures 2003/04" Yale Law School) In: Christian Joerges, Inge-Johanne Sand und Gunther Teubner (Hg.) Constitutionalism and Transnational Governance. Hart, Oxford 2004, 3-28. Und in: Ius et Lex 2004, S.31-50. Französische Fassung: Constitutionalisme sociétal et globalisation: Alternatives à la théorie constitutionelle centrée sur l'État. Themis 2005 (im Erscheinen) Italienische Fassung: Costituzionalismo societario: alternative alla teoria costituzionale stato-centrica. In: Gunther Teubner, Costituzionalismo societario. Armando, Roma 2005 (im Erscheinen). Spanische Fassung: Globalización y constitucionalismo social: alternativas a la teoría constitucionalista centrada en el Estado". In: Carlos Gómez-Jara Díez (Hg.), Teoría de sistemas y Derecho penal: Fundamentos y posibilidades de aplicación. Granada: Comares, 2005 (im Erscheinen) und in: Cancio Meliá und Bacigalupo Saggese (Hg.) Derecho penal y política transnacional. Barcelona: Atelier, 2005 (in Erscheinen)und in: Gunther Teubner, El Derecho como sistema autopoiético de la sociedad global, herausgegeben von Carlos Gómez-Jara Diez. Bogotá: Universidad Externado de Colombia, 2005 (im Erscheinen) und Lima: ARA Editores, 2005 (im Erscheinen) Polnische Fassung: Konstytucjonalizm spoleczny: Alternatywy dla teorii konstitucyjnej nakierowanej na panstwo. Ius et Lex 3, 2004, S.5-27.
Das Recht hybrider Netzwerke
(2001)
Englische Fassung: Hybrid Laws: Constitutionalizing Private Governance Networks. In: Robert Kagan and Kenneth Winston (Hg.) Legality and Community: On the Intellectual Legacy of Philip Selznick. Berkeley, Berkeley Public Policy Press 2002, 311-331. Italienische Fassung: Diritti ibridi: la costituzionalizzazione delle reti private di governance. In: Gunther Teubner, Costituzionalismo societario. Armando, Roma 2004 (im Erscheinen).
Die Deutsche Kolonialgesellschaft (DKG) war mit ihren bis zu 42.000 Mitgliedern der größte und einflußreichste Interessenverband der deutschen Kolonialbewegung. Sie bestand, wenn auch seit 1933 dem Reichskolonialbund eingegliedert, von 1882 bis 1943. Bisher wurde erst ein Teil unserer Sammlung verfilmt und im Detail gesichtet - die wissenschaftliche Erschließung ist Zukunftsmusik. Dank der Unterstützung durch die Deutsche Forschungs- gemeinschaft, die Marga- und Kurt-Möllgaard-Stiftung und die Adolf-Messer-Stiftung ließ sich jedoch inzwischen wenigstens ein solides Fundament legen. Die Stadt- und Universitätsbibliothek Frankfurt am Main wird bemüht sein, ihre wohl einzigartige kulturhistorische Bildsammlung der deutschen Kolonialaktivitäten, der ein hoher wissenschaftlicher Rang zukommen dürfte, in absehbarer Zeit wieder vollständig verfügbar machen zu können.
Englische Fassung: Global Bukowina: Legal Pluralism in the World-Society. in: Gunther Teubner (Hg.) Global Law Without A State. Dartsmouth: London 1996, 3-28. Italienische Fassung: La Bukowina globale: il pluralismo giuridico nella società mondiale. Sociologic a politiche sociali 2, 1999, 49-80. Portugiesische Fassung: Bukowina global sobre a emergência de um pluralismo jurídico transnacional. Impulso: Direito e Globalização 14, 2003. Georgische Fassung: Globaluri bukovina: samarTlebrivi pluralizmi msoflio sazogadoebaSi. Journal of the Institute of State and Law of the Georgian Academy of Sciences 2005 (im Erscheinen)
Reflexives Recht. Entwicklungsmodelle des Rechts in vergleichender Perspektive (EUI Working Paper 1982/13). Archiv für Rechts- und Sozialphilosophie 68, 1982, 13-59, und in: Werner Maihofer (Hg.), Noi si Mura, Schriftenreihe des Europäischen Hochschulinstituts, Florenz 1986, 290-340. Englische Fassung: Substantive and Reflexive Elements in Modern Law. (EUI Working Paper 1982/14). Law and Society Review 17, 1983, 239-285 und in: Kahei Rokumoto (Hg.) Sociological Theories of Law. Dartmouth, Aldershot 1994, 415-462. Neuabdruck in: Carroll Seron, The Law and Society Canon, Ashgate, Aldershot 2005 (im Erscheinen). Französische Fassung: Eléments 'substantifs' et 'réflexifs' dans le droit moderne. L'Interdit. Revue de Psychanalyse Institutionelle, 1984, 129-132, und Droit et réflexivité: une perspective comparative sur des modèles d'évolution juridique in: Gunther Teubner, Droit et réflexivité. Librairie générale de droit et de jurisprudence, Paris 1994, 3-50. Dänische Fassung: Refleksiv Ret: Udviklingsmodeller i sammenlignende perspektiv. In: Asmund Born, Nils Bredsdorff, Leif Hansen and Finn Hansson (Hg.) Refleksiv Ret. Publication Series of the Institut for Organisation og Arbeidssociologi. Nytfrasamfundsvidenskaberne, Kopenhagen 1988, 21-79.
Assessing enhanced knowledge discovery systems (eKDSs) constitutes an intricate issue that is understood merely to a certain extent by now. Based upon an analysis of why it is difficult to formally evaluate eKDSs, it is argued for a change of perspective: eKDSs should be understood as intelligent tools for qualitative analysis that support, rather than substitute, the user in the exploration of the data; a qualitative gap will be identified as the main reason why the evaluation of enhanced knowledge discovery systems is difficult. In order to deal with this problem, the construction of a best practice model for eKDSs is advocated. Based on a brief recapitulation of similar work on spoken language dialogue systems, first steps towards achieving this goal are performed, and directions of future research are outlined.
Syntactic coindexing restrictions are by now known to be of central importance to practical anaphor resolution approaches. Since, in particular due to structural ambiguity, the assumption of the availability of a unique syntactic reading proves to be unrealistic, robust anaphor resolution relies on techniques to overcome this deficiency.
This paper describes the ROSANA approach, which generalizes the verification of coindexing restrictions in order to make it applicable to the deficient syntactic descriptions that are provided by a robust state-of-the-art parser. By a formal evaluation on two corpora that differ with respect to text genre and domain, it is shown that ROSANA achieves high-quality robust coreference resolution. Moreover, by an in-depth analysis, it is proven that the robust implementation of syntactic disjoint reference is nearly optimal. The study reveals that, compared with approaches that rely on shallow preprocessing, the largely nonheuristic disjoint reference algorithmization opens up the possibility/or a slight improvement. Furthermore, it is shown that more significant gains are to be expected elsewhere, particularly from a text-genre-specific choice of preference strategies.
The performance study of the ROSANA system crucially rests on an enhanced evaluation methodology for coreference resolution systems, the development of which constitutes the second major contribution o/the paper. As a supplement to the model-theoretic scoring scheme that was developed for the Message Understanding Conference (MUC) evaluations, additional evaluation measures are defined that, on one hand, support the developer of anaphor resolution systems, and, on the other hand, shed light on application aspects of pronoun interpretation.
This paper is focused on the coordination of order and production policy between buyers and suppliers in supply chains. When a buyer and a supplier of an item work independently, the buyer will place orders based on his economic order quantity (EOQ). However, the buyer s EOQ may not lead to an optimal policy for the supplier. It can be shown that a cooperative batching policy can reduce total cost significantly. Should the buyer have the more powerful position to enforce his EOQ on the supplier, then no incentive exists for him to deviate from his EOQ in order to choose a cooperative batching policy. To provide an incentive to order in quantities suitable to the supplier, the supplier could offer a side payment. One critical assumption made throughout in the literature dealing with incentive schemes to influence buyer s ordering policy is that the supplier has complete information regarding buyer s cost structure. However, this assumption is far from realistic. As a consequence, the buyer has no incentive to report truthfully on his cost structure. Moreover there is an incentive to overstate the total relevant cost in order to obtain as high a side payment as possible. This paper provides a bargaining model with asymmetric information about the buyer s cost structure assuming that the buyer has the bargaining power to enforce his EOQ on the supplier in case of a break-down in negotiations. An algorithm for the determination of an optimal set of contracts which are specifically designed for different cost structures of the buyer, assumed by the supplier, will be presented. This algorithm was implemented in a software application, that supports the supplier in determining the optimal set of contracts.