Refine
Year of publication
- 2005 (1851) (remove)
Document Type
- Article (781)
- Doctoral Thesis (244)
- Part of Periodical (179)
- Review (111)
- Part of a Book (109)
- Working Paper (109)
- Book (83)
- Report (66)
- Conference Proceeding (63)
- Preprint (56)
Language
- German (1224)
- English (568)
- French (20)
- Portuguese (15)
- Multiple languages (6)
- Spanish (5)
- Italian (4)
- mis (3)
- Turkish (2)
- Danish (1)
Keywords
- Deutsch (29)
- Deutschland (25)
- Literatur (25)
- Johann Wolfgang von Goethe (21)
- Rezension (21)
- Frankfurt <Main> / Universität (20)
- Biographie (15)
- Literaturwissenschaft (15)
- Vormärz (15)
- Frankfurt <Main> (14)
Institute
- Medizin (137)
- Physik (97)
- Extern (79)
- Biochemie und Chemie (63)
- Rechtswissenschaft (52)
- Wirtschaftswissenschaften (46)
- Center for Financial Studies (CFS) (44)
- Biowissenschaften (41)
- Gesellschaftswissenschaften (38)
- Präsidium (38)
A taxonomic revision of the genus Syntrichia Brid. (Pottiaceae, Musci) in the Mediterranean Region and Macaronesia has been carried out, thus contributing to knowledge of its distinguisliing morphological characters, geographic distribution and nomenclature. Some 3000 specimens, including the most of type material, were studied. An identification key, morphological descriptions, photographs and numerous observations on taxonomic and nomenclatural problems of the 23 taxa accepted in the study area, are provided. New records for some countries of the Mediterranean basin and Macaronesia are given. Five new Synonyms are proposed. The designations of 11 new lectotypes are included and the name Syntrichia aciphylla var. calva J.J. Amann is excluded from the genus Syntrichia.
Im Aufsatz wird die Rekonstruktion einer kurzen Sequenz der pädagogischen Interaktion aus dem Unterricht einer großstädtischen Grundschule und in Ergänzung dazu die Rekonstruktion der Sequenz einer Lehrer-Eltern-Interaktion am Rande des gleichen Unterrichts vorgestellt. Diese mit dem Verfahren der Sequenzanalyse der Objektiven Hermeneutik durchgeführten Rekonstruktionen stehen im Kontext der Entwicklung eines theoretischen Modells der Struktur des pädagogischen Handelns. Die Entwicklung eines solchen Modells setzt die Bestimmung der Strukturprobleme dieses Handelns, so wie es derzeit in deutschen Schulen vorzufinden ist, voraus. Die Rekonstruktionen sollen zugleich der Überprüfung der von Ulrich Oevermann im Rahmen seiner Professionalisierungstheorie entwickelten These dienen, dass es sich beim pädagogischen Handeln um den eigentümlichen Fall einer Profession handelt, die bislang nicht professionalisiert ist, obwohl sie angesichts der Struktur der grundlegenden Handlungsprobleme, die in diesem Berufshandeln zu bewältigen sind, als professionalisierungsbedürftig gelten kann.
When one considers the results of social scientific surveys, secularisation in Germany seems to be a more or less linear process of erosion of what is traditionally named religiosity. The percentage of citizens who affirm that they are “religious”, believe in God or otherworldly beings, hope for life after death or participate regularly in the praxis of a religious community has been – by and large – steadily declining for decades. This decline has occurred over the succeeding generations: The younger the generation, the fewer “religious” people in it. But the process of secularisation is apparent not only in this persistent quantitative shrinkage from generation to generation. Above all it also manifests itself – this is the thesis of the article – in the transformation of the habitus formations and contents of faith of the generations. The essence of ongoing secularisation naturally is reflected most clearly in its contemporary state of development which is represented in the youngest adult generation. Therefore the analysis of this generation is particularly interesting for the sociology of religion. But the article does not confine to analyze this generation. After indicating some basic premises of the sociology of generations and the notion of secularisation presupposed in this paper, the succession of generations in Germany is outlined hypothetically, from the so-called generation of ´68 to the youngest adult generation, concluding with some remarks about the progress of secularisation.
Das Hormon Erythropoetin (EPO) ist ein hitzestabiles Glykoprotein, welches als wesentlicher Wachstumsfaktor an der Erythropoese beteiligt ist. EPO wird sauerstoffabhängig in Leber und Niere synthetisiert. Da EPO in Zellen nicht gespeichert wird, ist seine Sekretionsrate durch die Syntheserate bestimmt. Unter Hypoxie wird über einen hypoxieinduzierbaren Faktor (HIF-1) die Transkription des EPO-Gens angeregt. Mycophenolat Mofetil (MMF) wird erfolgreich bei transplantierten Patienten als Immunsuppressivum eingesetzt. MMF ist ein nichtkompetitiver, reversibler Hemmer der Inosinmonophosphatdehydrogenase (IMPDH), die essentiell für die de novo Purinsynthese in Lymphozyten ist. MMF soll selektiv antiproliferativ auf Lymphozyten wirken, ohne einen unspezifischen knochenmarkdepressiven Effekt zu haben. Trotzdem wurden bei bis zu 15% der nierentransplantierten und nahezu der Hälfte aller herztransplantierten Patienten unter immunsuppressiver Therapie mit MMF Anämien beschrieben. Die Genese dieser Anämien ist noch unklar und könnte durch eine reduzierte EPO-Produktion unter MMF bedingt sein. In dieser Untersuchung wird deshalb der Effekt von MMF auf die EPO-Freisetzung aus HepG2-Zellen in vitro analysiert. HepG2 und Hep3B Zellen sind ein etabliertes Zellkulturmodell zur Untersuchung der Regulierung hypoxieabhängiger EPO-Sekretion. MMF vermindert zeit- und konzentrationsabhängig die mittels ELISA gemessene EPO-Konzentration im Zellüberstand von HepG2-Zellen – im Mittel etwa auf die Hälfte des Ausgangswertes (p < 0, 001). Dieser Effekt ist signifikant ab einer Konzentration von 0,1 µM MMF und maximal bei 5 µM MMF. Eine signifikante Inhibition der EPO-Sekretion war erst nach 48stündiger Inkubation mit MMF nachweisbar. Unspezifische Effekte auf Proliferation und Proteinsynthese sowie zytotoxische Effekte wurden mittels verschiedener unabhängiger Methoden weitgehend ausgeschlossen. Der Effekt von MMF auf die EPO-Sekretion konnte durch Zugabe von Guanosin aufgehoben werden, was für eine kausale Rolle der IMPDH in diesem Zusammenhang spricht. Analog zu der sezernierten EPO-Menge verminderte sich auch die Menge der gebildeten EPO-mRNA unter MMF. Zudem ist die Aktivität von HIF-1 unter MMF gemindert. Im Gegensatz zu MMF zeigen andere Immunsuppressiva wie der Purinsynthesehemmer Azathioprin und die Calcineurininhibitoren Cyclosporin A und Tacrolimus keinen spezifischen Effekt auf die EPO-Freisetzung von HepG2-Zellen. Die Ergebnisse weisen darauf hin, daß die Minderung der EPO-Sekretion im Zellkulturmodell ein Erklärungsansatz für die beobachteten Anämien unter MMF sein könnte. Eine Therapie der Anämie mittels EPO-Substitution erscheint daher sinnvoll.
Der vorliegende Bericht beschreibt die Situation in der „offenen Drogenszene“ in Frankfurt am Main unter zwei Aspekten: zum einen im Hinblick auf die Veränderungen, die sich in zentralen Inhaltsbereichen wie der sozialen und gesundheitlichen Situation, dem Substanzkonsum und der Inanspruchnahme des Hilfesystems in den letzten Jahren gezeigt haben, zum zweiten im Hinblick auf die aktuelle Situation, wie sie sich in der „offenen Drogenszene“ Mitte des Jahres 2004 auf Grundlage der hier vorliegenden Daten darstellt.
Dialogue has become a fashionable word in the theological circles for quite some time now. However, there is a need to review what has been achieved so far. If it is significant, we should then review how much religious tension has been reduced so far. If it is not much, why has there been no progress. In this note I will deal with the issues relating to Hindu-Christian dialogue. I am using Christianity only as a reference point, and the issues raised do have a wider context as well. As far as Hindu-Christian dialogue is concerned, I am of the opinion that there has been hardly any progress all these years. Many academics and theologians have been involved in the exercise so far. The whole literature, over a long period of time, seems to follow a familiar pattern – a discussion on the theory of the dialogue, what should be included in a dialogue, who should and should not be involved in a dialogue, and ends with a lament that there is so very little progress. The problem, according to me, is that the dialogue does not even consider a need to discuss what is the basic difference between Hinduism and Christianity, and an inquiry into whether these come in the way of communal harmony. A dialogue is really not necessary if we are to discuss only what is similar between the two systems. ...
The Dalai Lama, in exile since 1959 in Hindu majority India, has continuously been taking a firm stand on giving importance to an inter-religious dialogue and interaction. He has made it absolutely clear that Buddhism represents just one of the many religious ways open for mankind. Nonetheless, he has always referred to the bond shared between Buddhism and Hinduism as a very special one and has experienced it as a religious tie. Both these religious streams belong to what is known as Bharatiya or Indo-genous Dharma. The Dalai Lama does not restrict his care for nurturing this common bond to a mere academic talk. In fact he has been taking active part in promoting this kind of inter-religious dialogue and has been showing a fiery political commitment as well. He thus took active part in the second World Hindu Congress organized by the Vishwa Hindu Parishad held in Prayag-Allahabad in the year 1979. According to official reports, the organizers in their welcome speech for the Dalai Lama were frank enough to admit that 2500 years ago, the Kashi Pandits (Kashi also known as Varanasi) had stopped Siddharta Gautama Buddha from entering the Vishwanath temple. It was also mentioned that for all these years, there has never been any letup in the conflict between Sanatani Hindus and Bauddhas, despite the fact that later on Shakya Muni was rewarded the status of avatara by Hindus. The fact that these very Kashi Pandits had invite one of the highest religious authorities of Buddhism - the Dalai Lama- to this congress should be seen as "a positive step towards reconciliation." The Dalai Lama was thus pleasantly surprised to see that the highest rung of the religious body of Hindus publicly acknowledged the divine status of Siddharta Gautama Buddha and recognized the presence of the Dalai Lama as a valuable contribution towards the reconciliation between the two religious streams. ...
Die Heilige Schrift der Gemeinde der Sikh ist Adi Sri Guru Grantha Sahibaji oder „der am Anfang stehende Guru in Gestalt des Buches". Guru Govind Singh (1675-1708) setzte kurz vor seinem Tod eine erweiterte Fassung des Adi Grantha als seinen Nachfolger im Guruamt ein. Der Adi Grantha ist ein poetisches Werk, das keinerlei Prosa enthält. Autoren der verschiedenen Teile der Schrift gehörten nur zum Teil der Sikh-Gemeinde an: Guru Nanak, der Gründer der Religion der Sikh, sowie seine Nachfolger Angad, Amar Das, Ram Das, Arun, Teg Bahadur und Govind Singh. Aus anderen Religionen stammen die sogenannten Bhagats (Fromme) wie der islamische Sufi Kabir, ein Weber von Beruf, oder der hochberühmte Krishnadichter Sur Das. Schließlich zählen noch einige Bhatts oder Barden wie Haribans oder Ganga zu den Mitverfassern. Zu dieser multireligösen Verfasserschaft tritt als weitere Besonderheit dieser Heiligen Schrift ihre Vielsprachigkeit. Der Urtext des Adi Grantha ist in seinen verschiedenen Teilen in unterschiedlichen Sprachen und Dialekten abgefaßt (Hindi Sanskrit, Marathi, Persisch, Arabisch usw.). Zwar waren Guru Nanak und seine Nachfolger Panjabi; dennoch sprachen sie ein Idiom, das nach E. Trumpp eine Mischung aus Hindi und Panjabi war. Guru Govind Singh jedoch schrieb in reinem Hindi. Das Alphabet des Adi Grantha ist das Gurmukhi, eine Schrift, die Guru Nanak für die Abfassung seines Schriftteils entwickelt haben soll. Der Adi Grantha setzt sich aus liturgischen Gebrauchstexten, aus Psalmen und Preisgesängen zusammen.
Im Kopftuchstreit wird von konservativer Seite als Argument ins Feld geführt, daß christliche Symbole Vorrang vor denen anderer Religionen haben sollen, weil sich unsere Gesellschaftskultur weltanschaulich vom Christentum herleite. Immerhin wird damit zwar politisch, wenn auch auf negative Weise, anerkannt, daß wir eine multireligiöse Gesellschaft seien, aber dennoch soll die Mehrheitsreligion besondere Privilegien genießen. In vielen Staaten, in denen die Muslime die Mehrheit der Bevölkerung ausmachen, wird übrigens ähnlich gedacht und auch verfahren. Warum tut sich aber unser Staatswesen, das sich doch als Vorreiter der Menschenrechte versteht, immer noch so schwer, alle gesetzestreuen Religionen völlig gleich zu behandeln und allen gesetzestreuen Bürgern das gleiche Recht auf Gestaltung einer individuellen Religionskultur zuzugestehen? Ein Rückgriff auf die christliche Religionsgeschichte soll helfen, dies besser zu verstehen.
A fresh look at the understanding of charity : with special reference to the present Indian practice
(2005)
The discussion of this paper is divided in two parts: Present understanding of Charity and a fresh look at the understanding of Charity particularly with a reference to the present Indian practice. As the major religious and theological perspectives specially from the Christian and the Islamic point of views are being dealt by other presentations in this seminar, therefore, the discussion here is limited only first, to the dictionary based linguistic meaning of Charity as understood in three main English speaking contexts and then (second), the Charity as practised in the Indian context. The new and revised deluxe edition of the Webster’s Encyclopaedic Unbridged Dictionary of the English Language has given the following meanings of Charity: 1)charitable actions, as almsgiving or performing other benevolent actions of any sort for the needy with no expectation of material reward: to devote ones life to charity, 2)something given to a person or persons in need; aims: she asked for work not charity, 3) a charitable act or work 4) a charitable fund, foundation, or institution: He left his estate to one of his charities, 5) benevolent feeling, esp. towards those in need or in disfavour: she looked so poor that we fed her out of charity, and 6) Christian love; agape 1 Cor. 13. The Chamber English Dictionary, the meanings of Charity gives as: universal love (N.T.): the disposition to think favourably of others, and do them good almsgiving: a usu. non profit-making foundation, institution, or cause, devoted to caring for those in need of help etc. According to Concise Oxford Dictionary Charity means: an organisation set up to provide help and raise money for those in need, the voluntary giving of money those in need, tolerance in judging others and love of humankind, typically in Christian context. These three set of meanings of Charity, represent the three English regions or contexts: American (Webster), Scottish (Chamber) and English (Oxford). The common important element in all for these three is, the Christian understanding of Charity, because all the three directly have referred to the Biblical usages of Charity in some forms. Here for the discussion of this paper, one can also add that even these usages are limited to the contextual understanding of the English world. Because language is also considered as an vehicle of a culture. But it is true that even the English speaking persons from the non-English world particularly of the Southern countries, (where English rulers have ruled in the past), understand the meaning of Charity more or less in the above sense only. ...
In der reformatorischen Tradition steht die zweckfreie Liebe zum Nächsten im Zentrum. Sie hat ihren Grund darin, dass Gott sich den Menschen barmherzig zugewandt und ihr gestörtes Verhältnis zu ihm in Ordnung gebracht hat, was sie von sich aus nicht vermochten. Leben und Sterben Jesu Christi sind der Ausdruck der Barmherzigkeit Gottes. Zweckfreie Liebe zum Mitmenschen. Weil Christen das Himmelreich nach dem Willen Gottes bereits erlangt haben und ihr Verhältnis zu ihm nicht aus eigener Kraft in Ordnung zu bringen vermögen, können sie durch Hilfe für ihre Mitmenschen nichts zu ihrem Heil beitragen. Sie setzten sich für andere ein, weil der barmherzige Gott sie reich beschenkt hat. Darüber hinaus ist weder ein bestimmtes religiöses Bewusstseins, noch rituelle Reinheit, noch der Zugehörigkeit zu einer bestimmten Gruppe, noch eine Missionsabsicht von Nöten.
Islam, the Muslim traditions and the ulama in Central Asian societies are becoming increasingly important for assessing the situation in and around the region. To understand of the post Soviet Muslim republics it is nec-essary to know the Islamic heritage of the Soviet Union, i.e. the Islamic understanding and interpretation of Soviet official ulama which still influence the mind of the people and the contemporary Central Asian ulama. The official ulama were endeavouring to reconcile Islam with science and progress and to guarantee its survival in a modern environment, they served by an extremely energetic effort to preserve Islam at least in purity and integrity as religion and national sentiment and to prevent it from relapsing into deprivation and ignorance. The most important official Muslim religious figure, the Mufti of Tashkent Z. Babakhan interpreted Islam as a bulwark of progress, disseminator of knowledge, the religion of peace and friendship; portrayed the Prophet Muhammad as a “democrat, reformer and revolutionary, even a socialist”; reconciliation with socialism and communism.
In this article we dealt with the relations between the state and religion / Islam and its interpreters i.e., the ulama, their needs each other. As a case, with an original source, we focused on the time of the Mahmud II (1808-1839) The Ottoman reforms of the nineteenth century is reconciliation between Islam and Western civili-sation. In this process the ulama played key role by commenting Islam accordance with the need of the age or of the Ottoman Empire. The reformers, chiefly the Sultan and his close friends needed the support of the ulama to legitimate their reform programmes In this crucial stage the head of the ulama the Shaykhulislam, used his own religious knowledge and influence, derived from his office by writing a treatise to persuade the masses to accept the reforms. Applying the traditional virtue literature on the Ottoman dynasty he presented in this pamphlet one of the Western-minded Ottoman sultans as an ideal caliph-sultan. This attitude helped to transform the middle-aged Ottoman political structure and society into modern ages in Western line.
In meinem Beitrag nehme ich Fragen nach Wissenskonzepten auf, die sich mit neuen Wissensformen und mit der Herstellung von Wissen in außerwissenschaftlichen Kontexten beschäftigen. Ich betrachte Wissen von IT-Professionals als einen Typ von Wissen, der nicht ausschließlich technisch ist, sondern auch andere Wissenssorten enthält. IT-Professionals gelten als als Wissensarbeiter („knowledge workers“) [Schultze 1999, 7] und Professionskulturen („occupational cultures“) mit technowissenschaftlichem Expertenwissen und geteilten Perspektiven von Spezialisten. Der Begriff des Wissensarbeiters wurde verstärkt in postindustriellen Theorien aufgenommen. Diese Theorien prognostizierten die zunehmende Bedeutung menschlicher Intelligenz in den Arbeitsprozessen der entstehenden Wissensökonomie [Bell 1973; Castells 1998] sowie die Herausbildung neuer Beschäftigung für autonome, gebildete Wissensarbeiter [Castells 2000, 257; Drucker 2001; Stehr/Ericson 1992, 5f.]. Techniker bzw. Ingenieure, die eine neue Technologie entwickeln, sowie alle, die an Design, Entwicklung und Verbreitung dieser neuen Technologie beteiligt sind, werden außerdem als Akteure beschrieben, die sich ins Feld soziologischer Analyse bewegen. Sie tun das insofern, als sie auch die Modelle von Gesellschaft oder Welt entwerfen, in der ihre technischen Entwicklungen eingesetzt werden sollen [Callon 1987, 84]. ...
Das Herz des Menschen wurde in der Geschichte lange Zeit als zentrales Organ des Körpers angesehen. Noch heute nimmt es vom emotionalen Aspekt gesehen, eine bedeutende Stellung ein. Herzerkrankungen im Kindesalter werden daher von Patienten und Angehörigen als ernsthafte Bedrohung erlebt. Acht von tausend Kindern werden mit einem Herzfehler geboren, fast 3700 Herzoperationen wurden im Jahr 2004 in der Bundesrepublik Deutschland an Kindern und Jugendlichen bis 17 Jahren durchgeführt. Aufgrund verbesserter Diagnose- und Operationsmöglichkeiten erleben heute über 90% der Kinder mit Herzfehler das Erwachsenenalter. Dieser Verbesserung der Lebensqualität und –dauer folgte eine zunehmende wissenschaftliche Betrachtung der Probleme nach Korrektur eines Herzfehlers. Neben den direkten Folgen der Erkrankung und der Operation, wurden auch die langfristigen Folgen eines operativen Eingriffes für die autonome Regulationsfähigkeit des Herzens untersucht. Ein bedeutendes Hilfsmittel hierfür stellt die Analyse, der durch das vegetative Nervensystem beeinflussten Herzfrequenzvariabilität (HRV) dar. Ein operativer Eingriff am Herzen zerstört autonome Nervenfasern und schränkt die Einflüsse des parasympathischen und sympathischen Anteiles des vegetativen Nervensystems auf das Herz ein. Die Messungen der HRV werden heute auch im Sport zur Trainingssteuerung eingesetzt. Mit ihr lassen sich Belastungseffekte, sowie regenerative Aspekte messen. In zwei Studien wurden Veränderungen der Anpassungsfähigkeit nach operierten Herzfehlern einerseits und Reaktionen des Herzens auf sportliche Belastung und Regeneration andererseits, im Rahmen dieser Dissertation analysiert. Im ersten Teil der Arbeit wurden, im Sinne einer Querschnittstudie, die Veränderungen der HRV bei Kindern und Jugendlichen im Alter zwischen 8 Monaten und 18 Jahren nach operativer Korrektur einer Transposition der großen Arterien (TGA, n = 11), eines Vorhofseptumdefektes (ASD, 13), eines Ventrikelseptumdefektes (VSD, 17), einer Fallot'schen Tetralogie (TOF, 13), eines kompletten Atrioventrikularkanales (CAVC, 5) und nach abgeschlossener Fontan-Zirkulation (totale cavopulmonale Connection, TCPC, 11) untersucht. Die Ergebnisse wurden mit denen einer geschlechts- und altersangepassten Kontrollgruppe (16) verglichen. Die Kurzzeit-HRVRegistrierungen erfolgten im Schlaf mittels Lifecard CF compact Flashcard Holter (Fa. Reynolds). Ein Schwerpunkt bei dieser Untersuchung stellte die Differenzierung zwischen Veränderungen der parasympathischen und der sympathischen Aktivität, mit Hilfe der Spektralanalyse, bei unterschiedlichen Herzfehlern dar. Hierzu wurden die Zeitbereichsparameter „mittlerer Abstand zweier R-Zacken“ (mRR), Standardabweichung (SD) und die „Quadratwurzel des quadrierten Mittelwertes der Summe aller Differenzen zwischen aufeinander folgenden RR-Intervallen“ (rMSSD), sowie die Frequenzbereichsparameter low-frequency (LF) als teilweises Pendant zur sympathischen Aktivität, high-frequency (HF) als Korrelat des parasympathischen Anteiles und total power (TP), ermittelt. Aus letzteren wurden die Quotienten der sympathovagalen Balance (LF/HF) und die normierten Frequenzbereiche (HF/TP und LF/TP) errechnet. Es konnte gezeigt werden, dass die SD (als Parameter der globalen Herzfrequenzvariabilität) bei großer interindividueller Streubreite in allen Patientengruppen gegenüber der Kontrollgruppe reduziert war. Die stärkste Reduktion im Median fand sich dabei in den Gruppen TGA und TCPC, für letztere war auch die größte Streubreite charakteristisch. In allen Patientengruppen, bis auf TGA, fand sich in der LF/HF eine Verschiebung zur sympathischen Aktivität. In einer zweiten Studie wurde bei 20 Patienten der jährlich stattfindenden Skifreizeiten für herzkranke Kinder und Jugendliche (Pädiatrische Kardiologie des Universitätsklinikums Frankfurt und Kinderherzstiftung in Herzstiftung e.V.) ein Orthostasetest zur Evaluierung der Reaktion auf Kreislaufbelastung, im Sinne einer Längsschnittstudie, zu Beginn und am Ende der einwöchigen Freizeit durchgeführt. Im Zusammenhang mit dem Ergebnis einer in der vorhergehenden Nacht, ohne störende Umwelteinflüsse, aufgezeichneten Messung, kann die adaptive Leistung des Herzens auf Kreislaufstress und die Veränderungen aufgrund sportlich-regenerativer Einflüsse während der Skiwoche bestimmt werden. Die Messungen erfolgten analog der in Studie I durchgeführten Methodik. Bei ca. 70% der Kinder zeigte sich eine Verstärkung der nächtlichen TP und eine Zunahme der HF im entsprechenden Teil des Orthostasetests. Bei 10% war es zu einer Abnahme dieser Parameter gekommen, 20% der Kinder zeigten uneinheitliche Resultate der zwei Messungen. Eine knappe Mehrheit der Kinder zeigte einen Anstieg der LF unter Orthostase. Die Ergebnisse der ersten Studie haben gezeigt, dass die Kurzzeitmessung der Herzfrequenzvariabilität in der Lage ist, Veränderungen der autonomen Regulation bei Kindern und Jugendlichen nach Herzoperation darzustellen. Dabei konnte gezeigt werden, dass Eingriffe mit Eröffnung des Vorhof- oder Kammermyokards hauptsächliche eine Reduktion der parasympathischen Aktivität, Switch-Operationen nach TGA mit Durchtrennung der großen Gefäße und Vorhoferöffnung hingegen eine gleichmäßige Reduktion beider Anteile des vegetativen Nervensystems hervorrufen. Die vorwiegende Reduktion parasympathischer Anteile der Herzfrequenzvariabilität bei verschiedenen Herzfehlern, wird in mehreren Studien beschrieben. Häufig beziehen sich diese jedoch nur auf wenige Herzfehler und ein direkter Vergleich der verschiedenen Ergebnisse dieser Studien ist durch unterschiedliche methodische Ansätze nur eingeschränkt möglich. Der Effekt einer gleichmäßigen Reduktion der Herzfrequenzvariabilität bei Patienten mit TGA wurde bisher nicht erwähnt. In der zweiten Studie konnte gezeigt werden, dass sich Veränderungen der Herzfrequenzvariabilität herzkranker Kinder und Jugendlicher während einer einwöchigen Skifreizeit darstellen lassen. Die Mehrzahl der Kinder und Jugendlichen verbesserten ihre Fähigkeit zur Bewältigung von Kreislaufstress, indem sie nach dem Übergang vom Stehen zu liegender Position eine höhere vagale Aktivität aufbauen konnten. Dieses Ergebnis wurde durch eine deutlich verstärkte nächtliche Gesamtvariabilität bestätigt. Veränderungen, die in Übereinstimmung mit der Literatur eine Verbesserung des kardialen Risikos erwarten lassen. Es ist anzunehmen, dass die Ursache für diese Verbesserung in einem multifaktoriellen Geschehen aus körperlicher Aktivität, klimatischen Einflüssen, sowie einem veränderten sozialen Umfeld zu sehen ist. Drei der Kinder zeigten reduzierte Werte am Ende der Woche, welche auf eine verstärkte Stressbelastung schließen lassen. Die Wertigkeit des kontrovers diskutierten Parameters LF bleibt auch in dieser Studie unklar, obgleich ein Trend zu einer schnelleren Adaptation des Kreislaufs beim Übergang vom Liegen zum Stehen ermittelt werden konnte. Insgesamt bestätigen die Ergebnisse der Studie II die Richtigkeit der Durchführung auch provokanter Sportarten mit herzkranken Kindern unter adäquater kardiologischsportmedizinischer Betreuung.
Im Rahmen der vorliegenden Untersuchung sollte ermittelt werden, ob Zahnpasten und Mundspüllösungen abrasive und/oder korrosive Effekte auf Bestandteile festsitzender kieferorthopädischer Apparaturen (Bänder und Brackets) ausüben, und ob diese Effekte – wenn vorhanden – eine klinische Relevanz aufweisen. Insbesondere ging es dabei um die Fragestellung, ob durch die Anwendung der getesteten Mundhygieneprodukte die Oberflächenbeschaffenheit der genannten Bestandteile einer festsitzenden kieferorthopädischen Apparatur im Sinne einer Aufrauung verändert werden würde. Zu diesem Zweck wurden 4 unterschiedliche Zahnpasten und 2 Mundspüllösungen in 2 Versuchsreihen getestet: Im ersten Versuch wurden Molarenbänder für 35 Tage in Testlösungen eingelegt und anschließend auf Veränderungen der Oberflächenbeschaffenheit untersucht. Dies erfolgte per Rasterelektronenmikroskop und Rauigkeitsmessung. Etwaige Substanzverluste sollten mit Hilfe von Gewichtsbestimmung und chemischer Analyse (TXRF-Analyse) der Testlösungen nachgewiesen werden. Im zweiten Versuch wurden Molarenbänder und Brackets in eine Putzmaschine eingespannt und für einen Zeitraum, der einer Behandlungsdauer von 3 Jahren entsprach, die tägliche Reinigung mit Zahnbürste und Zahnpasta-Wassergemisch simuliert. Mundspüllösungen kamen hierbei nicht zum Einsatz. Die Prüfkörper wurden anschließend rasterelektronenmikroskopisch untersucht und einer Rauigkeitsmessung unterzogen. Insgesamt konnte in den durchgeführten Versuchen kein negativer Einfluss der getesteten Mundhygienemittel auf kieferorthopädische Bänder bzw. Brackets im Sinne einer Aufrauung der Materialoberflächen durch korrosive oder abrasive Prozesse festgestellt werden. Die rasterelektronenmikroskopischen Aufnahmen zeigten dahingehend keinerlei sichtbare Veränderungen. Bei den Rauigkeitsmessungen war dagegen sogar ein eher positiver Einfluss – zumindest durch Zahnpastaeinwirkung – zu verzeichnen: Im Putzversuch war bei allen Bändern, bei denen Zahnpasten zum Einsatz kamen, eine Verringerung des Mittenrauwerts Ra zu erkennen, die in einer gewissen Korrelation mit dem RDA-Wert stand. Eine Erhöhung von Ra war nur bei Probe 5 (Zahnbürste ohne Zahnpasta) festzustellen. Dies spricht für einen Politureffekt der Zahnpasten, was im Sinne der Fragestellung als positiv zu bewerten ist (verminderte Plaqueanlagerung, geringere Friktion). Ein ähnlicher Effekt dürfte aufgrund der vergleichbaren Werkstoffeigenschaften auch bei metallischen Brackets zu erwarten sein. Die Oberflächenrauigkeit im Slotbereich und damit die Friktion müssten daher durch die Einwirkung von Zahnpasten ebenfalls verringert werden, so dass auch hier ein positiver Einfluss der Zahnpastenanwendung angenommen werden kann. Im Korrosionstest ermöglichten die Werte der Rauigkeitsmessungen keine definitive Aussage über einen eventuellen korrosiven Einfluss der getesteten Produkte. Dies lag daran, dass zum einen im Rahmen der Versuchsbedingungen keine exakte Reproduktion der Messpunkte möglich war, zum anderen die gemessenen Werte größtenteils innerhalb der Bandbreite fabrikneuer Bänder lagen. Eine leichte Tendenz hin zu einer Homogenisierung der Oberfläche im Sinne eines chemischen „Polishing“ kann jedoch bei 2 der 6 Proben vermutet werden. Die gravimetrische Messung sowie die Ergebnisse der TXRF-Analyse zeigen, dass es allein bei der Meridol-Mundspüllösung zu Korrosionsvorgängen gekommen ist. Ein Substanzverlust von >180 μg und der Nachweis der Legierungsbestandteile Eisen, Chrom und Nickel in der Testlösung lassen diese Aussage zu. Diese Werte sind jedoch nicht von klinischer Relevanz, da die tägliche Aufnahme von Chrom- und Nickelionen durch Nahrung, Trinkwasser und Atemluft weitaus höher ist. Untersuchungen haben ergeben, dass allein durch die Nahrung täglich je über 100 μg Chrom und Nickel aufgenommen werden [61, 64, 71]. Der Anteil, der durch Korrosion von festsitzenden kieferorthopädischen Apparaturen hinzukommen könnte, wäre dagegen verschwindend gering. Man muss beachten, dass die Versuchsbedingungen im Korrosionstest nicht denen beim täglichen Gebrauch dieser Mundhygieneprodukte entsprachen. Die Kontaktzeit der Apparatur bei sachgemäßer Anwendung der Meridol-Mundspüllösung würde bei zweimaligem täglichen Gebrauch von je 30 Sekunden in 3 Jahren ungefähr 18 Stunden betragen (2 x 30 sec x 365 Tage x 3 Jahre), während sie im Korrosionstest bei 35 Tagen lag (=840 Stunden). Eine gleichmäßige Korrosionsrate vorausgesetzt, würde dies bedeuten, dass das getestete Band in 3 Jahren statt 180 μg nur ca. 3,9 μg an Substanz verlieren würde, entsprechend einem Verlust von 0,0036 μg pro Tag. Selbst bei einer kompletten Multiband-Apparatur an 28 Zähnen würden diese Werte gegenüber der täglichen Schwermetallionenaufnahme durch Nahrung und Umwelt nicht ins Gewicht fallen. Es bleibt festzustellen, dass durch den sachgerechten täglichen Gebrauch der getesteten Mundhygieneprodukte keinerlei negativer Einfluss auf die Funktionalität der Apparaturen und auch keine gesundheitliche Gefährdung durch freigesetzte Metallpartikel befürchtet werden muss. So ist weiterhin mit Nachdruck zu fordern, dass Patienten mit festsitzenden Apparaturen nach jeder Mahlzeit eine gründliche Zahnreinigung durchführen, um das Risiko der Entstehung von Entkalkungen, bzw. kariösen Läsionen und Parodontopathien zu minimieren. Diese Schäden stellen nach wie vor die häufigsten Nebenwirkungen bei einer Behandlung mit festsitzenden Apparaturen dar und sind durch eine gute Mundhygiene vermeidbar. Die beobachteten Veränderungen bei der eingangs erwähnten Patientin (S.14, Abb.1-4) können somit nicht auf die verwendeten Mundhygienemittel zurückgeführt werden. Hier scheinen andere Faktoren, wie bspw. eine nicht ausreichende oder falsche Mundhygiene ursächlich gewesen zu sein. Zusätzlich können aber auch die Zusammensetzung des Speichels, dessen pH-Wert und Fließrate, sowie die Bakterienflora der Mundhöhle und spezielle Ernährungsgewohnheiten der Patientin als Kofaktoren eine Rolle gespielt haben. Die Klärung dieser Fragestellungen würde weitergehende Untersuchungen erfordern.
In der Literatur des 16. bis 18. Jahrhunderts finden sich sechs für eine medizinhistorische Analyse geeignete Darstellungen von operativen Eingriffen am Magen: 1521 wurde eine Magenfistel nach perforierender Stichverletzung des Magens operativ versorgt. Die Magenwunde wurde durch 4 Nähte verschlossen, die Laparotomiewunde ebenfalls vernäht. 1602 erfolgte die Entfernung eines verschluckten Messers nach gedeckter Perforation der Messerspitze in die Bauchdecke („der böhmische Messerschlucker“; Operateur: Meister Florian Matthis in Prag). Von dem Chirurgen wurde eine Inzision der Haut über der in der Bauchdecke tastbaren Messerspitze durchgeführt. 1635 wurde ein verschlucktes Messers durch Laparotomie und Gastrotomie operativ entfernt („der preußische Messerschlucker“; Operateur: Chirurg Daniel Schwabe in Königsberg/Pr.). Die Magenwunde wurde nicht genäht, es wurden nur Hautnähte angelegt. 1678 wurde eine Magenfistel nach abdomineller Schußverletzung durch ein „blechernes“ Röhrchen versorgt, das als Drainage nach außen funktionierte (Operateur: Chirurg Matthäus Gottfried Purmann [1649-1711] in Stralsund). 1692 erfolgte eine schrittweise Extraktion (über 6 Wochen) eines verschluckten Messers, das sekundär in die Bauchdecken gedeckt perforiert war („der Hallische Messerschlucker“; Operateur: Dr. med. Wolfgang Wesener in Halle). Es wurde eine Inzision des Bauchdeckenabszesses durchgeführt. 1720 wurde ein verschlucktes Messer mit einer Zange durch Laparotomie und Gastrotomie entfernt („die ermländische Messerschluckerin“; Operateure: Dr. med. Heinrich Bernhard Hübner und der Chirurg Johann Horch bei Rastenburg/Pr.). In allen publizierten Fallberichten überlebten die operierten Patienten den Eingriff. Mit Ausnahme der ältesten Operation [1521] wurden alle Berichte von den Operateuren bzw. von an der Operation direkt beteiligten Ärzten verfaßt. Die Eingriffe wurden zunächst von Handwerkschirurgen [1635, 1678], später [1692, 1720] auch von studierten Ärzten (medici) durchgeführt. Die Indikation zur Operation wurde aber immer von den akademisch ausgebildeten „Medici“ gestellt. Als Nahtmaterial wurde bei den geschilderten Operationen „Seide“ verwendet [1643,1692]. Als Instrumente werden neben „Messer“ zur Inzision der Bauchdecken bzw. des Magens, „Zangen“ [1635, 1720] und „krumme Nadeln“ [1635] erwähnt. In einem Fall wurden sogar Haltefäden zur Fixierung des Magens vor der Gastrotomie angelegt [1635]. Der Zugangsweg zur Bauchhöhle durch die einzelnen Schichten der Bauchwand wurde anatomisch begründet durchgeführt [1635, 1678, 1720]. Spezielle Angaben zur perioperativen Schmerzbehandlung werden nicht gemacht, es wurden aber verschiedene alkoholhaltige Heilpflanzenextrakte („innerlich und äußerlich Artzneyen“) angewendet [1692]. Warum wurden die Eingriffe am Magen erst Ende des 19. Jahrhunderts häufiger durchgeführt, obwohl das operative Können, das anatomische Verständnis und das dazu notwendige Instrumentarium bereits seit dem 17. Jahrhundert vorhanden gewesen sind und in mindestens sechs Einzelfällen auch erfolgreich eingesetzt wurde? Im Zeitalter der Humoralpathologie, die bis in das 19. Jahrhundert hinein die vorherrschende Krankheitstheorie in Mitteleuropa gewesen ist, hatte eine chirurgische Behandlung von „inneren“ Magenerkrankungen noch keine theoretische Begründung. Krankheiten infolge Säfteungleichgewichte lassen sich nicht operativ behandeln. Die Chirurgie beschränkte sich als „Wundarznei“ daher vorwiegend auf die Versorgung von Wunden und von Verletzungen. Dazu gehörten auch Magenverletzungen von außen (perforierende Stichverletzungen, Schußverletzungen) oder von innen (gedeckte Perforation durch das verschluckte Messer). Erst die Durchsetzung eines lokalistischen, organbezogenen Denkens („Organpathologie“, „Zellularpathologie“) in der Medizin war die entscheidende theoretische Voraussetzung für eine Chirurgie von inneren Erkrankungen. Hinzu kamen in der zweiten Hälfte des 19. Jahrhunderts ein vermehrtes Wissen über Schmerzbekämpfung (Narkose mit Chloroform oder Äther) und Antisepsis (Asepsis), die das Risiko von Wundinfektionen und Peritonitis deutlich herabsetzten.
Experimente zum radiativen Elektroneneinfang (REC, Radiative Electron Capture), der Zeitumkehrung der Photoionisation, wie er in Stößen hochgeladener, relativistischer Schwerionen mit leichten Gasatomen auftritt, ermöglicht einen einzigartigen Zugang zum Studium der Photonen-Materie-Wechselwirkung im Bereich extrem starker Coulombfeldern. So ist die REC-Strahlung im relativistischen Bereich zum einen geprägt durch das Auftreten von höheren elektrischen und magnetischen Multipolordnungen und zum anderen durch starke Retardierungseffekte. In Folge dessen wurde der REC-Prozeß in den vergangen Jahren sehr detailliert untersucht, wobei sich die experimentelle und theoretische Forschung auf die Emissionscharakteristik der REC-Photonen konzentrierte, wie z.B. auf Untersuchungen von Winkelverteilungen und Linienprofilen. Mittlerweile kann der REC-Prozeß als ein - selbst für die schwersten Ionen - wohlverstandener Effekt angesehen werden. Allerdings entzog sich den Experimenten bislang eine zur Beschreibung der Photonenmission wesentlich Größe, näamlich die Polarisation der Strahlung. Die lineare Polarisation der REC-Strahlung, wie sie in Stößen zwischen leichten Atomen und den schwersten, hochgeladenen Ionen vorhergesagt wird, war der Gegenstand der vorliegende Arbeit, in der es erstmals gelang, die diese für den konkreten Fall des Einfangs in die K-Schale von nackten Uranionen nachzuweisen und im Detail zu untersuchen. Die hierzu notwendigen experimentellen Untersuchungen erfolgten am Speicherring ESR der GSI-Darmstadt für das Stoßsystem U92+ -> N2 und für Projektilenergien, die im Bereich zwischen 98 und 400 MeV/u lagen. Besonders hervorzuheben ist der Einsatz eines segmentierten Germaniumdetektors, der speziell für den Nachweis linear polarisierter Strahlung im Energiebereich oberhalb 100 keV entwickelte wurde. Die lineare Polarisation der Strahlung wurde hierbei durch eine Analyse der Comptonstreuung innerhalb des Detektors gewonnen. Die durch eine präzise Analyse der Comptonstreuverteilungen gewonnenen Daten zeigen eine ausgeprägte lineare Polarisierung der REC-Strahlung in der Streuebene, die zudem eine starke Abhängigkeit als Funktion der Stoßenergie und des Beobachtungwinkels aufweist. Der detaillierte Vergleich mit nicht-relativistischen und relativistischen Vorhersagen ermöglichte darüberhinaus den Nachweis für das Auftreten starker relativistischer Effekte, die sich allerdings depolarisierend auswirken. Das Experiment wurde am internen Target des ESR-Speicherrings durchgeführt, wobei der Photonennachweis mittels mehrerer Ge(i)-Detektoren erfolgte, die die Ionen-Target-Wechselwirkungszone unter Beobachtungswinkeln zwischen nahe Null und 150 Grad einsahen. Alle Photonendetektoren wurden in Koinizidenz mit einem Teilchendetektor betrieben, um so die volle Charakteristik des REC-Prozesses zu erfassen, also den Einfang eines Targetelektrons in die nackten Uranionen (U92+) unter Emission eines Photons. Für den Polarisationsnachweis entscheidend war der Einsatz eines Germanium-Pixel-Detektors, der abwechselnd unter den Winkeln von 60 und 90 Grad betrieben wurde. Dieser Detektor verfügt über eine 4x4 Pixelmatrix (Pixelgröße: 7x7 mm), wobei die elektronische Information jedes Pixels (Energiesignale und schnelle Zeitsignale) separat registriert und aufgezeichnet wurde. Hierdurch war es möglich Ereignisse, die koinzident in zwei Pixeln erfolgten, zu detektieren und zu analysieren. Dies ist die eigentliche Voraussetzung für den Nachweis der linearen Polarisation bei hohen Photonenenergien, bei dem die Abhängigkeit des differenziellen Wirkungsquerschnitts für Comptonstreuung von der linearen Polarisation der einfallenden Photonen ausgenutzt wird (siehe Klein-Nishina Formel Eq. 2.7). Der Nachweis der Comptonstreuung erfolgt hierbei durch die Detektion des Compton-Rückstoßelektrons (deltaE) und des gestreuten Comptonphotons (hw'), die jeweils separat, aber koinzident in zwei unterschiedlichen Segmenten des Detektors nachgewiesen werden. Hier sei betont, dass für Germanium bereits ab Photonenenergien von ca. 160 keV die Absorption der Strahlung durch den Compton-Effekt über die Photoabsorption dominiert und somit das Ausnutzen des Compton-Effekts prinzipiell eine sehr effektive Technik ist. Der Auswertung der Datenfkam wesentlich zugute, dass der Germanium-Detektor über eine im Vergleich zu Szintillations- oder Gaszählern gute Energieauflösung von ca. 1.8 keV bei 122 keV verfügt. Somit kann durch Bilden der Summenenergie hw = hw' + deltaE für koinzidente Ereignisse die Energie des einfallenden Photons (hw) rekonstruieren werden und als zwingende Bedingung dafür herangezogen werden, dass es sich bei dem Ereignis im Detektor um ein Compton-Event gehandelt hat. Für den Fall linearer Polarisation ist eine wesentliche Aussage der Klein-Nishina-Formel, dass die maximale Intensität für die Compton gestreuten Photonen senkrecht zur Polarisationsebene zu erwarten ist. Tatsächlich zeigen bereits die während des Experiments aufgenommenen Rohdaten für den Fall der untersuchten REC-Strahlung, die durch den Einfang in die K-Schale des Projektils entsteht, dass es sich hierbei um eine stark polarisierte Strahlung handelt, wobei eine erhöhte Intensität für Comptonstreuung senkrecht zur Stoßebene (für den REC-Prozeß definiert durch die Ionenstrahlachse und den Impuls des REC-Photons) festgestellt wurde (vgl. Fig. 7.3). Zur genauen qualitativen Analyse der Meßdaten wurden alle möglichen Pixelkombinationen der (4x4) Detektorgeometrie ausgewertet, wobei jedoch koinzidente Ereignisse benachbarter Segmente ausgeschlossen wurden, um den hier vorhandenenen Einfluß elektronischer Übersprecher zu eliminieren. Zudem erfolgte die Analyse der Daten unter Berücksichtigung verschiedenster Effekte, die einen Einfluß auf die Nachweiseffizienzen für die Compton gestreuten Photonen haben könnten. An prominenter Stelle ist hier die Korrektur zu nennen, die durch die Detektordicke von 1,5 cm und der Pixelgröße von 7x7 cm2 hervorgerufen wird. Zu betonen ist hier, dass für die Auswertung nur relative Effizienzen eine Rolle spielen und so der Einfluß systematischer Fehler, hervorgerufen durch Effizienzkorrekturen, stark reduziert werden konnte (für eine so gewonnene, vollständige Compton-Streuverteilung sei auf Abbildung 9.1 verwiesen, in der die Intensitätsverteilung für Compton-Streuung dargestellt ist). Es sei auch hervorgehoben, dass der Nachweis der Polarisation durch Messungen von vollständigen Compton-Intensitätverteilung im Detektor erfolgte, was das hier diskutierte Experiment wesentlich von konventionellen Polarisationsexperimenten für harte Röntgen- und gamma-Strahlung unterscheidet. Üblicherweise wird in diesen Experimenten die Comptonstreuung ausschließlich in der Reaktionsebene und senkrecht dazu nachgewiesen. Generell weisen die in der vorliegenden Arbeit gewonnen Compton-Streuverteilungen für den K-REC-Prozeß ein ausgeprägtes Maxium senkrecht zur Reaktionsebene auf und bestätigen somit den bereits aus den Rohdaten abgeleiteten Befund, dass die Polarisationsebene der KREC Strahlung in der Reaktionsebene des Stosses liegt. In der Tat kann dieser Befund für alle Energien und Beobachtungswinkel bestätigt werden, die in dem hier diskutierten Experiment verwendet wurden. Hier sei zudem darauf hingewiesen, dass es durch die Erfassung der vollständigen Compton-Streuverteilung möglich war, die Orientierung der Polarisationsebene in Bezug auf die Stoßebene mit hoher Präzision zu erfassen. So konnte z.B. bei der Stossenergie von 400 MeV/u und dem Winkel von 90 Grad, die Orientierung der Comptonstreuverteilung in Bezug auf die Stoßebene zu ph=90 Grad bestimmt werden. Dieser Befund könnte für die Planung zukünftiger Experimente zum Nachweis polarisierter Ionenstrahlen entscheidend sein, da eine Abweichung von der ph = 90 Grad Symmetrie nur durch das Vorhandensein polarisierter Teilchen erklärt werden kann. Dieser Effekt, der in neuesten theoretischen Behandlungen im Detail untersucht wurde, stellt gleichsam einen neuen Zugang zur Bestimmung des Polarisationsgrads der Projektile dar. Hierdurch wird die Stärke der hier angewandten Technik verdeutlicht, die auf dem Einsatz eines ortsempfindlichen Germanium-Pixel- Detektors beruht. Die Bestimmung des genauen Polarisationsgrades für die K-REC-Strahlung erfolgte durch eine X2-Anpassung der Klein-Nishina-Formel an die experimentellen Daten. Die hieraus resultierenden Daten zeigen für alle Strahlenergien und Beobachtungsgwinkel eine starke Polarisation von etwa 80%, wobei die experimentelle Unsicherheit im 10% Bereich liegt. Letztere ist im wesentlichen auf die statistische Genauigkeit zurückzuführen. Die Daten wurden zudem eingehend mit theoretischen Vorhersagen verglichen. Die Theorie stützt sich auf eine vollständige relativistische Beschreibung des REC-Prozesses unter Verwendung exakter Wellenfunktionen für das Kontinuum und den 1s Zustand in wasserstoffartigem Uran. Typischer weise mußten bei den Rechnungen sowohl elektrische wie auch magnetische Multipolterme bis hin zu L=20 verwendet werden, um Konvergenz zu erreichen. Der Vergleich zeigt eine hervorragende Übereinstimmung zwischen Experiment und Theorie. Zudem verdeutlicht der Vergleich mit der ebenfalls diskutierten Vorhersage der nicht-relativistischen Dipolnäherung die Bedeutung relativistischer Effekte (vor allem das Auftreten höherer elektrischer und magnetischer Multipole), die für die Emission der REC-Strahlung bei hohen, relativistischen Energien und hohem Z charakteristisch sind. Offensichtlich wirken sich diese Effekte stark depolarisierend aus. Dass in der Tat eine Zunahme der depolarisierenden Effekte mit einer Zunahme der Strahlenergie verbunden ist, wird auch durch die Daten dokumentiert, die für den Beobachtungswinkel von 60 Grad als Funktion des Projektilenergie untersucht wurden. Die in der vorliegenden Arbeit gewonnenen Resultate für die Polarisation der REC-Strahlung ebenso wie die neuartige Experimenttechnik, die hierbei zum Einsatz kam, lassen für die nahe Zukunft eine Serie von weiteren Polarisations-Experimenten erwarten. Hierbei könnte der REC-Strahlung und deren Polarisation als Mittel zur Diagnostik und zum Nachweis des Polarisationsgrades gespeicherter Ionenstrahlen eine Schlüsselrolle zukommen. Als Detektorsysteme werden hierzu zwei-dimensionale Germanium- und Silizium-Streifen-Detektoren zum Einsatz kommen bzw. Kombinationen aus zweidimensionalen Silizium- und Germanium-Detektoren, sogenannte Compton-Teleskope. Diese Compton-Polarimeter, die gegenwärtig für neue Experimentvorhaben am ESR-Speicherring entwickelt werden, verfügen über eine wesentlich verbesserte Ortsauflösung (z.B. 1x1 mm2) und somit über eine wesentlich gesteigerte Nachweiseffizienz für die Comptonstreuung (ein bis zwei Größenordnungen). Hierdurch sollte es möglich sein, den für Polarisationexerperimente zugänglichen Energiebereich wesentlich auszudehnen, sodass selbst die charakteristische Strahlung der Schwerionen (ca. 50 bis 100 keV) für solche Experimente zugänglich wird.
Interpret und kreativer Lückenfüller : wie optische Illusionen in der Großhirnrinde entstehen
(2005)
Optische Täuschungen sind nicht nur kuriose Beispiele dafür, wie leicht unser ahrnehmungsapparat »ausgetrickst« werden kann, sie werden seit langem von Psychologen und Kognitionsforschern genutzt, um das visuelle System und seine neurophysiologischen Prinzipien zu erforschen. Auch Scheinbewegungen gehören zu diesen Täuschungen: Sie entstehen durch den schnellen Wechsel statischer Bilder. Frankfurter Wissenschaftler des Max-Planck-Instituts für Hirnforschung konnten mit Hilfe der funktionellen Magnetresonanztomografie zeigen, wie das Gehirn die Illusion einer Bewegung erzeugt, obwohl der gebotene Reiz nur aus benachbarten, abwechselnd aufblinkenden Quadraten bestand. Hier wird nicht nur das konstruktive Prinzip deutlich, mit dem das visuelle System arbeitet, mehr noch: Die Großhirnrinde betätigt sich als »kreativer Lückenfüller«, der aktiv fehlende Sinnesdaten zu »plausiblen« Gesamteindrücken ergänzt.
Die Wahrnehmung von Objekten gelingt uns jeden Tag unzählige Male – zumeist rasend schnell und problemlos. Obwohl fast immer mehrere unserer Sinne gleichzeitig bei ihrer Wahrnehmung angesprochen werden, erscheinen uns diese Objekte dennoch als ganzheitlich und geschlossen. Für die neuronale Verarbeitung eines bellenden Hundes zum Beispiel empfängt die Großhirnrinde zumindest Eingangsdaten des Seh- und des Hörsystems. Sie werden auf getrennten Pfaden und in spezialisierten Arealen mit aufsteigender Komplexität analysiert. Dieses Funktionsprinzip der parallel verteilten Verarbeitung stellt die Wissenschaftler aber auch vor das so genannte »Bindungsproblem«: Wo und wie werden die Details wieder zu einem Ganzen – zu einer neuronalen Repräsentation – zusammengefügt? Am Institut für medizinische Psychologie der Universitätsklinik Frankfurt untersuchen Neurokognitionsforscher die crossmodale Objekterkennung mit einer Kombination modernster Verfahren der Hirnforschung und kommen dabei den Ver - arbeitungspfaden in der Großhirnrinde auf die Spur.
Muss das Strafrecht, vor allem der Schuldbegriff, wegen aktuellen Erkenntnisse der Hirnforschung in einem neuen Licht gesehen werden? Wenn unsere Entscheidungen und Handlungen durch neurologische Prozesse vollständig kausal vorherbestimmt sind, bleibe für die Willensfreiheit kein Raum. Und wenn der Wille nicht frei ist, dann könne ein Täter für eine Straftat auch nicht verantwortlich sein; denn er hätte in der gleichen Situation nicht anders handeln, also die Straftat auch nicht unterlassen können. Wird die Freiheit der Person so fundamental in Frage gestellt, steht freilich das Recht insgesamt zur Disposition.
Warum die von Leonardo da Vinci gemalte »Mona Lisa« so viele Betrachter fasziniert, hat als eines der größten Rätsel der Kunst jahrzehntelang die Phantasie von Wissenschaftlern, Schriftstellern und Kunstliebhabern beflügelt. In der jüngeren Kunstgeschichte war eine solche Frage allerdings kaum von Interesse. Heute nun beanspruchen Vertreter anderer Disziplinen, die Wirkung solcher Meisterwerke objektiv erklären zu können ...
Der simulierte Säugling : Neuroinformatiker erforschen, wie Babys lernen, Blicke zu verfolgen
(2005)
Als Voraussetzung für die experimentellen Arbeiten wurde am Mineralogischen Institut in Frankfurt eine Hochdruckpresse mit einer Multi-Anvil-Apparatur vom Walker-Typ aufgebaut und kalibriert. Diese Arbeiten nahmen einen beträchtlichen Teil der Promotionszeit ein. In einer Reihe von Hochdruck-Experimenten wurde dann die maximale Löslichkeit von Aluminium und den Seltenerd-Elementen Lanthan, Gadolinium und Lutetium in den Phasen des CaSiO3-Systems im Druckbereich zwischen 2.0 und 13.0 GPa untersucht. Unsere Experimente ergaben eine Zunahme der maximalen Löslichkeit mit steigendem Druck, von Wollastonit über Ca-Walstromit, Larnit + Si-Titanit bis Ca-Perowskit. Ca-Perowskit zeigt extrem hohe SEE-Konzentrationen mit einem Maximum bei den mittleren SEE. In den anderen Phasen nimmt die Löslichkeit mit zunehmender Kompatibilität der SEE zu. Innerhalb der Stabilitätsfelder zeigte sich keine signifikante Druck- oder Temperatur-Abhängigkeit der maximalen Löslichkeit. Anhand der Mikrosonden-Analysen konnte gezeigt werden, dass der Einbau von Al und SEE in Ca-Walstromit nicht über eine gekoppelte Substitution erfolgt, sondern wahrscheinlich über eine Defektstruktur. Dies deckt sich mit unseren TEM-Untersuchungen an diesen synthetischen Produkten, die eine hohe Dichte an planaren Baufehlern mit leicht erhöhten SEE-Konzentrationen ergaben. In allen Ca-Silikat-Phasen lag die maximale Löslichkeit der Seltenen Erden höher als die Konzentration in natürlichen Proben. Damit steht fest, dass die in Einschlüssen gemessenen SEE-Gehalte „primär“ sind und sich nicht durch etwaige Entmischungen im Zuge einer Anpassung der Kristallstruktur an die veränderten P,T-Bedingungen verändert haben. Entmischungen in Form einer SEE-reichen Phase würden eine an LSEE extrem angereicherte Quelle voraussetzen. Ein Vergleich unserer Subsolidus-Experimente mit CaSiO3-Einschlüssen in Diamanten aus Guinea zeigt, dass einige mit bis zu 0.13 Gew.% Al2O3 an Aluminium gesättigt sind. Diese Tatsache ist besonders interessant bei der Interpretation Alhaltiger Einschlussphasen. Neben absoluten Spurenelement-Konzentrationen sind Verteilungskoeffizienten äußerst wertvolle Hilfsmittel bei der Bewertung natürlicher Proben. Die in der Literatur bestehenden Datensätze wurden mit unseren Kristall/Schmelz-Verteilungskoeffizienten bzw. Verteilungskoeffizienten zwischen Ca-Silikatphasen erweitert. Verteilungskoeffizienten der Seltenerd-Elemente zwischen Ca-Walstromit und Karbonat sind um eine Größenordnung höher als Ca-Walstromit/Schmelz-Verteilungskoeffizienten und zeigen eine größere Steigung zwischen den MSEE und den SSEE (Lu/Gd). Die Seltenen Erden verhalten sich sowohl in Larnit als auch in Si-Titanit inkompatibel, wobei DX/L La für Larnit etwa 0.1 und für CaSi2O5 etwa 0.002 ist, d.h. auch, dass die LSEE im Vergleich zu Si-Titanit bevorzugt in Larnit eingebaut werden. Al verhält sich in Si-Titanit Zusammenfassung 147 kompatibel (DX/LAl=4) und in Larnit leicht inkompatibel. Diese Ergebnisse decken sich mit Analysen an natürlichen Proben. Die SEE-Verteilungskoeffizienten zwischen Ca-Perowskit und Schmelze liegen mit Ausnahme von La über eins und zeigen in Übereinstimmung mit Literaturdaten ein Maximum bei Gd. Für Granat konnte gezeigt werden, dass der Einbau der SEE und Si in MgO-haltigen Kristallen in Abhängigkeit von Druck und Startzusammensetzung über eine Ca SEE2 Mg2 Si3O12- Komponente bzw. über eine Ca3 MgSi Si3O12-Komponente mit 6-fach koordiniertem Silizium erfolgt. In zahlreichen Experimenten kristallisierte eine neue Ca-SEE-Silikat-Phase mit Feldspat-Stöchiometrie. Dabei handelt es sich offenbar um ein Mischkristallsystem mit einem Endglied, in das vorwiegend die leichten SEE eingebaut werden und in einem zweiten mit vorwiegend schweren SEE. Ab einem Druck von etwa 10.0 GPa trennt ein Solvus die beiden Endglieder voneinander. In der Literatur ist bisher nur ein CaLa2Si2O8-Endglied beschrieben worden. In einigen Experimenten mit P und Li wurde zusätzlich untersucht, ob diese Elemente zur Rekonstruktion der Bildungsbedingungen von Diamanten verwendet werden können. Dabei zeigte sich, dass die max. Löslichkeit von Li in CaSiO3 näher an den natürlichen Probenzusammensetzungen liegt und damit möglicherweise Potential für die Rekonstruktion von Bildungsbedingungen hat. In einem weiteren Teil dieser Arbeit wurde die Kinetik retrograder Reaktionen im CaSiO3-System untersucht. Die für die In-Situ-Experimente mit Synchrotron-Strahlung notwendigen Versuchsaufbauten wurden von uns entwickelt und die entsprechenden Entwicklungsschritte und technischen Probleme ausführlich beschrieben. Anhand von Entlastungsexperimenten wurden die Disproportionierung von Ca-Perowskit zu Larnit + Si-Titanit und die Rekombination zu Ca-Walstromit bei unterschiedlichen Temperaturen und unter dem Einfluss von Wasser untersucht. Aufgrund der wenigen verwertbaren Daten, die uns vorliegen, konnten zwar keine Aktivierungsenergien berechnet werden, es sind aber aufgrund unser Beobachtungen folgende Feststellungen zu treffen: Die Reaktion von Ca-Perowskit zu Larnit + Si-Titanit erfolgt bei gleicher Temperatur offenbar um Größenordnungen schneller als die sich bei niedrigen Drucken anschließende Rekombination zu Ca-Walstromit. Dies deckt sich mit Beobachtungen an natürlichen Proben, bei denen Larnit und Si-Titanit teilweise unvollständig zu Ca-Walstromit reagierten. Dadurch erscheint es eher unwahrscheinlich, dass amorphes CaSiO3 in Diamanten ein direktes Umwandlungsprodukt von Ca-Perowskit ist. Aber auch für die in der Literatur beschriebene Amorphisierung von Ca-Walstromit-Einschlüssen (Stachel 2000) noch innerhalb des umgebenden Diamanten ließ sich durch unsere In-Situ-Entlastungsexperimente nicht stützen. Eine Amorphisierung von Ca-Walstromit beobachteten wir nur bei einer Untersuchung am TEM, wo die Phase sehr instabil war und selbst in einem Kryohalter rasch unter dem Einfluss der Elektronenstrahls amorphisierte. Die Beugungs-Spektren, die nach einer Druckentlastung im Ca-Walstromit-Stabilitätsfeld aufgenommen wurden, unterschieden sich trotz der CaSiO3-Chemie der neu gebildeten Phase deutlich von unseren Ca-Walstromit-Referenz-Spektren, so dass die Umwandlung möglicherweise über eine metastabile Zwischenstufe erfolgt. Vor dem Hintergrund von unterschiedlichen, in der Literatur beschriebenen Strukturtypen von Ca-Walstromit wäre eine systematische Untersuchung der Struktur innerhalb des gesamten Stabilitätsfeldes wichtig.
Die vorliegende Arbeit ist der Fragestellung nachgegangen, ob sich die Gedächtnisleistung, insbesondere die von älteren Menschen, durch Gedächtnistraining verbessern lässt. Dabei sollen Verhaltensdaten und EEG-Daten, die simultan mit der Bewältigung einer Gedächtnisaufgabe erhoben wurden, korreliert werden. Untersucht wurden zwei verschiedene Gruppen. Zum einen Mild Cognitive Impairment Patienten und zum anderen eine altersähnliche Kontrollgruppe. Unter Mild Cognitive Impairment (MCI) versteht man eine leichte kognitive Beeinträchtigung des Gedächtnisses, welche aber die Kriterien einer Demenzmanifestation noch nicht erfüllt. Die Diagnosekriterien für MCI sind nicht einheitlich. Ein häufiges Kriterium wurde von Petersen (1999) definiert und ist die objektive Beeinträchtigung des Gedächtnisses ohne weitere kognitive Einbußen. Die Leistungsfähigkeit des Gedächtnisses/Gedächtnissubsystems muss dabei mindestens 1,5 Standardabweichungen schlechter sein, als die einer alters- und ausbildungsgleichen Population. Etwa 16-34 % aller 65 jährigen leiden unter dieser Form der kognitiven Beeinträchtigung. Schätzungen ergeben, dass 70 % der demenziellen Erkrankungen innerhalb von 2-3 Jahren aus einer MCI hervorgehen. Veränderungen des EEGs bei Patienten mit der Alzheimer'schen Demenz (AD) und MCI-Patienten wurden in den letzten Jahren untersucht, insbesondere Untersuchungen der EEG-Spontanaktivität, da diese vor allem bei den AD-Patienten leichter zu realisieren sind. Auffällig ist ein allgemein „langsamer“ werdendes EEG bei den Demenz-Patienten. Vor allem im okzipitalen Bereich ist ein Verlust des Alpha-Blocks beim Öffnen der Augen zu registrieren. In einem sehr frühen Stadium der AD ist meist noch kein verändertes EEG zu verzeichnen, ebenso bei MCI-Patienten. Eine beobachtbare Veränderung der EEG-Oszillationen könnte aber für eine frühe Diagnose der Krankheit und somit auch für eine frühe Behandlungsmöglichkeit von Bedeutung sein. Das Elektroenzephalogramm misst elektrische Potentiale, die im Gehirn durch „Neuronenaktivität“ verursacht werden und hat eine besonders gute zeitliche Auflösung (in ms Bereich) dafür aber eine schlechte räumliche. Die schlechte räumliche Auflösung ist dadurch zu begründen, dass man beim EEG „nur“ Oberflächenpotentialänderungen registrieren kann und dadurch nicht die Quelle der Potentiale lokalisieren kann. Die hohe zeitliche Auflösung des EEGs ermöglicht es aber die neuronale Aktivität während und auch nach der Kodierung sensorischer Informationen (z.B. visuelle Stimulation, wie in dieser Arbeit) zu beobachten. In vorliegender Arbeit wurde untersucht, ob gesunde, ältere Menschen im Vergleich zu Patienten mit leichter Gedächtnisstörung, beim Bewältigen einer Gedächtnisaufgabe, unterschiedliche Hirn-Aktivitäten aufweisen und inwieweit ein Gedächtnistraining von vier Wochen die Gedächtnisleistung der Probanden/Patienten aber auch das EEG-Aktivitätsmuster verändern kann; ob das Gedächtnis also auch im Alter oder sogar bei Dysfunktionen durch Training verbessert werden kann. Dabei galt gerade dem frontalen Bereich besonderes Interesse, da diesem Bereich für das Gedächtnissystem eine besondere Relevanz zugeschrieben wird. Eine delayed matching to sample Aufgabe wurde für visuelle Stimulation, Testung des Arbeitsgedächtnisses und für das kognitive Training durchgeführt. Die neuropsychologischen Daten wurden hierfür mit den EEG-Daten korreliert.
Leben und Werk des aus Münzenberg/Hessen stammenden Algebraikers Konrad Landvogt (um 1500) hat Menso Folkerts 1992 in einer grundlegenden Untersuchung erstmals in Umrissen skizziert. Hauptsächlich gestützt auf vier Handschriften, die in der Universitätsbibliothek Uppsala aufbewahrt werden, faßte er zusammen, was sich aus diesen Quellen über die (ungedruckt gebliebenen) mathematischen Schriften Landvogts und über seinen Lebensumkreis (Studium in Erfurt, persönliche Beziehungen nach Arnsburg, Friedberg, Mainz, Worms) ermitteln läßt. Wie Folkerts selbst betonte, war es ihm nicht möglich, in jeder Hinsicht abschließende Nachweise zu bieten; weitere Detailstudien seien notwendig. Als Beitrag dazu verstehen sich die folgenden Ergänzungen.
Vom 19. bis 20.9.2003 fand in Worms eine vom Stadtarchiv und der Domgemeinde St. Peter organisierte wissenschaftliche Tagung aus Anlass des 500. Todestages des Bischofs Johann von Dalberg (1482–1503) statt, bei der Referenten ganz unterschiedlicher Richtungen das Leben, das Wirken und die Zeitumstände in den Jahren um 1500 am Mittelrhein und vor allem in der Bischofsstadt Worms und ihrem Umland beleuchtet haben. Die Tagung stieß auf starkes Interesse, wurde doch mit Johann von Dalberg eine bedeutende, facettenreiche Persönlichkeit näher betrachtet, die in einer für die Stadt und die Region außerordentlich wichtigen und ereignisreichen Zeit wirkte und dessen Leben zahlreiche, bis heute greifbare Spuren in Worms und seinem Umland hinterlassen hat. Dankenswerterweise waren die Referenten bereit, ihre Beiträge für einen Sammelband zur Verfügung zu stellen, den wir hiermit der Öffentlichkeit vorlegen. Selbstverständlich können die Beiträge nur ausgewählte Aspekte beleuchten und bei weitem kein umfassendes Bild der Person, ihrer Verflechtungen und Verbindungen sowie der Zeit um 1500 für Stadt und Bistum Worms bieten. Allerdings zeigt sich in den Beiträgen ein weites Spektrum der Beschäftigung mit dem Bischof und seiner Zeit, neue Sichtweisen und Fragestellungen der jüngeren Forschung lassen sich ausmachen, Wege für die weitere Beschäftigung werden aufgezeigt. Wert gelegt wurde auf eine gute Bebilderung des Bandes; seiner verbesserten Nutzbarkeit soll das beigegebene Orts- und Personenregister dienen. Inhaltsverzeichnis Vorwort S. V Burkard KEILMANN, Johann von Dalberg und das Bistum Worms S.1 Gerold BÖNNEN, Zwischen Konflikt und Zusammenleben: Bischof Johann von Dalberg und die Stadt Worms S.41 Peter WALTER, „Inter nostrae tempestatis Pontifices facile doctissimus“. Der Wormser Bischof Johannes von Dalberg und der Humanismus S. 89 Joachim KEMPER, Die Wormser Klosterlandschaft in der Zeit des Johann von Dalberg S. 153 Rüdiger FUCHS, Zu Inschriften des Bistums Worms zur Zeit Bischof Johanns von Dalberg S. 169 Winfried WILHELMY, Zwischen Krummstab und Schnabelschuh. Kunstpolitik und Stiftungswesen an Rhein und Main im Zeitalter Johanns von Dalberg S. 187 Hanns HUBACH, Johann von Dalberg und das naturalistische Astwerk in der zeitgenössischen Skulptur in Worms, Heidelberg und Ladenburg S. 207 Register S. 233
Exempel in Vers- oder Prosaform, in lateinischer Sprache oder in volkssprachlichen Versionen sind aus den späteren Jahrhunderlen des Mittelalters in hoher Zahl überliefert. Neben den großen eigenständigen Exempla-Kompilationen waren es vor allem Enzyklopädien, Chroniken, Predigtsammlungen und Erbauungsschriften, die eine Vielzahl von Exempeln in sich aufnahmen und in ihren Bereichen weitergaben. J.-TH. WELTER hat der Gattung bereits 1927 einen umfassenden literaturgeschichtlichen Überblick gewidmet. Für elementare, auf Einzeltexte gerichtete Nachforschungen stellte F. C. TUBACH mit dem 1969 veröffentlichten 'Index exemplorum' einen nützlichen Wegweiser bereit. TUBACHS Werk hat auch zur näheren Bestimmung des im folgenden mitgeteilten kleinen Handschriftenfundes beigetragen. ...
The development of a drug product, beginning with the synthesis of the drug substance through approval for marketing, may take up to 15 years and a total amount of investment of up to half a billion Euro. After the discovery of a potential drug substance, many different investigations have to be performed: e.g. characterization of the physical-chemical properties, the pharmacological and toxicological profile and, especially relevant for this work, the development of the first dosage forms. After achieving these steps, first investigations in human studies can be carried out. After a positive assessment of the benefit to risk ratio, further investigations, such as food effects on the pharmacokinetics, multiple dosing studies and further studies on patients can be implemented. After successfully completing this second part the new drug product can be approved. With broader clinical experience it often becomes apparent that changes in relevant aspects of the formulation of the registered drug product e.g. excipients, concentration of the drug substance or excipient versus drug substance ratio, are necessary to optimise the therapy. This often leads to additional clinical investigations and a new registration, a procedure which is time and cost intensive. A possible way to reduce the financial and time investments, is to establish an appropriate in vivo- in vitro correlation (IVIVC). If it is possible to predict the in vivo performance of a drug product adequately with in vitro methods (dissolutions tests), it will no longer be necessary to perform additional clinical investigations. In this work, IVIVCs were investigated for three different drug substances and several different types of formulations.... ...Results of this work clearly show that successful IVIVCs can be achieved for the fasted state using biorelevant dissolution media. A prerequisite of achieving a good IVIVC is the availability of in vivo data of a reference product (i.v., oral solution or IR) tested within the same group of volunteers as the product of interest. Only with this procedure, one can obtain adequate IVIVCs for drug substances with high inter-individual variability of the plasma concentrations and with high first-pass metabolism. This work also shows that predictions of the in vivo behavior of a modified release dosage form after administration with a high fat meal are more difficult to obtain. This is mainly related to an absence of a medium, which could mimic the situation of the fed stomach adequately. Ensure plus®, which was chosen in this work, failed to simulate the fed stomach adequately in several cases; it suppressed the release of rosiglitazone from lipid formulations and led to rapid disruption of the HPMC-matrix of the 5-ISMN Geomatrix formulations. Future work should be directed towards optimization of the test media in the BioDis apparatus. This work clearly shows the inability of Ensure plus® to predict the in vivo performance of a drug under fed state conditions and indicates that alternative media must be developed. It is known that the pH of the stomach rises up to six after the intake of a meal. During the following hours the pH decreases until reaching the baseline value of approximately 1.8. One possibility of simulating the fed state stomach more precisely will be to divide the overall residence time into 4 different parts: 1. half a hour at pH 6 2. half a hour at pH 4 3. one hour at pH 3 4. two hours at pH 1.8 Another option is not only to modify the pH of the medium, but also to change its composition. During the decomposition of the food contents, the composition of the gastric juice changes, the ionic strength, the buffer capacity and the osmolarity rises, while the pH value decreases. A third possibility will be the addition of enzymes, mainly pepsin, lipases and amylases. Again, the quantity of the enzymes differs during the residence time of the food in the stomach. Highest quantities are expected in the first two hours after food intake and decreases in the remaining two hours. Another issue of this work was an assessment of the two dissolution apparatus, Paddle and BioDis. In general, the choice of the dissolution apparatus should be done primarily with respect to the solubility behavior of the drug substance. For high soluble drugs the USP apparatus II, Paddle, is sufficient (e.g. diltiazem or 5-ISMN). In cases of a poorly soluble drug (rosiglitazone), where the release strongly depends on the medium used, the USP apparatus III (BioDis) is favored, due to the advantage of simulating the GI-tract with a gradient of different dissolution media, each simulating one part of the GI-tract. In summary, the results of this work indicate that it is acurrently possible to predict fasted state behavior of a variety of controlled release products using in vitro tests. Prognoses was also made in terms of predicting food effects on the behavior of controlled release products, although it is clear that the media compositions will have to be revised to establish releiable predictive methods for the fed state.
Hard physics in STAR
(2005)
The hot and dense matter created in high-energy nuclear collisions is believed to undergo a transition into a deconfined phase where partonic degrees of freedom determine the dynamics of the medium. High-p⊥ partons, that are produced in the initial collisions between nucleons of the incoming nuclei, lose energy as they propagate through the medium. This effect, called jetquenching, is observed in high-p⊥ particle spectra, in azimuthal correlations with the reaction plane (elliptic flow) and jet-like two-particle correlations.
STAR consists of tracking detectors and electromagnetic calorimetry with large and azimuthally symmetric acceptance and is exceptionally well suited for single particle detection and correlation studies at high p⊥. In the last five years, it has collected a large dataset including Au+Au and Cu+Cu collisions at different energies and reference data from p+p and d+Au collisions.
We present particle spectra and two-particle correlations at high-p⊥, and relate these measurements to the properties of the medium.
The CERN Axion Solar Telescope (CAST) is searching for axions produced in the Sun's core by the Primakoff process. CAST is using a decommissioned Large Hadron Collider (LHC) test magnet where axions could be converted back into X-rays with energies up to 10 keV. Analysis of the 2003 data showed no signal above background implying an upper limit for the axion-photon coupling constant gagg < 1.16 X 10 ^-10 GeV exp -1 at 95% C.L. for ma . 0.02 eV [1]. The higher quality 2004 data is presently under analysis. CAST Phase II is scheduled to start in late 2005. This will be the first step in extending CAST's sensitivity to axion rest masses up to ~ 1 eV.
We compute neutrino emissivities, specific heat, and the resulting cooling rates in four spin-one color superconductors: color-spin locked, planar, polar, and A phases. In particular, the role of anisotropies and point nodes in the quasiparticle excitation spectra are investigated. Furthermore, it is shown that the A phase exhibits a helicity order, giving rise to a reflection asymmetry in the neutrino emissivity.
The J/psi-hadron interaction is a key ingredient in analyzing the J/psi suppression in hot hadronic matter as well as the propagation of J/psi in nuclei. As a first step to clarify the J/psi-hadron interactions at low energies, we have calculated J/psi-pi, J/psi-rho and J/psi-nucleon scattering lengths by the quenched lattice QCD simulations with Wilson fermions for beta=6.2 on 24^3*48 and 32^3*48 lattices. Using the Luscher's method to extract the scattering length from the simulations in a finite box, we find an attractive interaction in the S-wave channel for all three systems: Among others, the J/psi-nucleon interaction is most attractive. Possibility of the J/psi-nucleon bound state is also discussed.
We present quantitative and qualitative arguments in favor of the claim that, within the present cosmological epoch, the U(1)gamma factor in the Standard Model is an effective manifestation of SU(2) pure gauge dynamics of Yang-Mills scale Lambda ~ 10^-4 eV. Results for the pressure and the energy density in the deconfining phase of this theory, obtained in a nonperturbative and analytical way, support this connection in view of large-angle features inherent in the map of the CMB temperature fluctuations and temperature-polarization cross correlations.
There is a growing body of evidence that indicates common environmental pollutants are capable of disrupting reproductive and developmental processes by interfering with the actions of endogenous hormones. Many reports of endocrine disruption describe changes in the normal development of organs and tissues that are consistent with genetic damage, and recent studies confirm that many chemicals classified to have hormone-modulating effects also possess carcinogenic and mutagenic potential. To date, however, there have been no conclusive examples linking genetic damage with perturbation of endocrine function and adverse effects in vivo. Here, we provide the first evidence of DNA damage associated with the development of imposex (the masculinization of female gastropods considered to be the result of alterations to endocrine-mediated pathways) in the dog-whelk Nucella lapillus. Animals (n = 257) that displayed various stages of tributyltin (TBT)-induced imposex were collected from sites in southwest England, and their imposex status was determined by physical examination. Linear regression analysis revealed a very strong relationship (correlation coefficient of 0.935, p < 0.0001) between the degree of imposex and the extent of DNA damage (micronucleus formation) in hemocytes. Moreover, histological examination of a larger number of dog-whelks collected from sites throughout Europe confirmed the presence of hyperplastic growths, primarily on the vas deferens and penis in both TBT-exposed male snails and in females that exhibited imposex. A strong association was found between TBT body burden and the prevalence of abnormal growths, thereby providing compelling evidence to support the hypothesis that environmental chemicals that affect reproductive processes do so partly through DNA damage pathways.
Previous investigations have shown that bisphenol A (BPA) induces a superfeminization syndrome in the freshwater snail Marisa cornuarietis at concentrations as low as 1 μg/L. Superfemales are characterized by the formation of additional female organs, enlarged accessory sex glands, gross malformations of the pallial oviduct, and a stimulation of egg and clutch production, resulting in increased female mortality. However, these studies were challenged on the basis of incomplete experimentation. Therefore, the objective of the current approach was to bridge several gaps in knowledge by conducting additional experiments. In an initial series of experiments, study results from the reproductive phase of the snails were evaluated in the sub-micrograms per liter range. Before and after the spawning season, superfemale responses were observed [NOEC (no observed effect concentration) 7.9 ng/L, EC10 (effective concentration at 10%) 13.9 ng/L], which were absent during the spawning season. A further experiment investigated the temperature dependence of BPA responses by exposing snails at two temperatures in parallel. The adverse effect of BPA was at least partially masked at 27°C (EC10 998 ng/L) when compared with 20°C (EC10 14.8 ng/L). In M. cornuarietis, BPA acts as an estrogen receptor (ER) agonist, because effects were completely antagonized by a co-exposure to tamoxifen and Faslodex. Antiandrogenic effects of BPA, such as a significant decrease in penis length at 20°C, were also observed. Competitive receptor displacement experiments indicate the presence of androgen- and estrogen-specific binding sites. The affinity for BPA of the estrogen binding sites in M. cornuarietis is higher than that of the ER in aquatic vertebrates. The results emphasize that prosobranchs are affected by BPA at lower concentrations than are other wildlife groups, and the findings also highlight the importance of exposure conditions.
Wie kaum ein anderer hat Sartre die Freiheit des Menschen betont und gegen die Zwangsvorstellung angeschrieben, der Mensch sei determiniert. Kann die Freiheit sich selbst zum Wert erheben? Zum hundertsten Geburtstag Jean-Paul Sartres sind dessen Entwürfe für eine Moralphilosophie auf Deutsch erschienen.
Ist die Willensfreiheit eine Illusion oder können wir auch anders? Eine Auseinandersetzung mit den neueren Ergebnissen der Hirnforschung von Hanko Uphoff. Anstatt zuzugestehen, dass man bisher keine Erklärung für eine vollgültige Freiheit habe, leugnet man sie lieber, da sie nicht ins angelegte Raster passt. Wenn die Folgerungen, die aus experimentellen Ergebnissen der Hirnforschung gezogen werden sollen, offensichtlich die Gestalt absurder Stilblüten annehmen, sollten die Akteure überlegen, ob sie nicht anders fragen müssten, anstatt die Wirklichkeit zu vergewaltigen.
Ausbildung in Evidenzbasierter Medizin am Universitätsklinikum Frankfurt am Main : meeting abstract
(2005)
Einführung: Obwohl international die Integration der Evidenzbasierten Medizin (EbM) in die klinische Medizin und in die Ausbildung voranschreitet, ist die Verbreitung im deutschen Klinikalltag eine fortbestehende Herausforderung. Vor allem ist die Vernetzung der theoretischen Lerninhalte mit den klinisch-praktischen Fertigkeiten eine weit verbreitete Schwierigkeit. Die neue Ärzteapprobationsordnung bietet Möglichkeiten für innovative Konzepte im medizinischen Curriculum. Sowohl die systematische Informationssuche als auch die kritische Bewertung und Anwendung medizinischer Informationen sind wichtige Kernkompetenzen der ärztlichen Tätigkeit. Zum Wintersemester 03/04 wurde in Frankfurt das erste curriculare Seminar EbM als Teilfach des Querschnittsbereiches I (Epidemiologie, Med. Biometrie und Med. Informatik) auf der Basis des peer-teaching eingeführt und wissenschaftlich begleitet.
Methoden: Für alle Studierenden des 2. klinischen Semesters wird in Kleingruppenseminaren an 4 Terminen ein Basiskurs EbM nach den Kriterien des Deutschen Netzwerkes für Evidenzbasierte Medizin e.V. durchgeführt. Dabei werden die Module Vierteilige Frage, Internetrecherche, Diagnose und Therapie erarbeitet. Ein individuelles Fallbeispiel (klinische Fragestellung) wird von jedem Studierenden selbständig mit allen Schritten der EbM bearbeitet. Jede Seminararbeit wird im Rahmen eines journal clubs von dem Studierenden vorgestellt und in der Kleingruppe diskutiert. Während des ersten unterrichteten Semesters erhielt jeder Seminarteilnehmer zu Seminarbeginn und zum Seminarende einen Testfragebogen mit 20 Fragen, sowie zum Ende einen anonymisierten Fragebogen mit der Bitte um Einschätzung. Die anonymisierten Fragebogen werden seitdem weiter in jedem Semester eingesetzt.
Ergebnisse: Es wurden im Durchschnitt nach dem Seminar 7,48 (99% KI 6.61-8.36) Fragen mehr als vor dem Seminar richtig beantwortet. Der Kurs wurde im Median mit der Note gut eingeschätzt (Weberschock et al 2005, im Druck). Die Auswertungen der Einschätzungen der nachfolgenden Semester zeigten noch bessere Ergebnisse.
Schlussfolgerung: EbM ist in der medizinischen Ausbildung sehr gut durchführbar und wird mit den richtigen didaktischen Konzepten auch voll akzeptiert. Vor allem die Fähigkeit, medizinische Informationen korrekt zu bewerten und sie klinisch fachgerecht anzuwenden ist eine essentielle Kompetenz für die ärztliche Tätigkeit und bedarf den sichern Umgang mit den Methoden und Medien.
Ausblick: Die Vernetzung der theoretischen Aspekte bei der medizinischen Informationsverarbeitung mit der klinischen Anwendung der gewonnenen Erkenntnisse ist für die Ausbildung in EbM ein essentieller Bestandteil. Um die Lehrenden auf diese Aufgabe adäquat vorbereiten zu können, werden in naher Zukunft in Zusammenarbeit mit dem Deutschen Netzwerk Evidenzbasierte Medizin (DNEbM), der Arbeitsgemeinschaft der wissenschaftlich medizinischen Fachgesellschaften (AWMF) und der Gesellschaft für medizinische Ausbildung (GMA) Train-the Teacher-Seminare veranstaltet. Diese Seminare sollen einerseits die didaktischen Methoden und Fertigkeiten der EbM-Lehrenden weiter ausbauen und andererseits eine Brücke zwischen theoretischen Lerninhalten und klinischen Bezügen schlagen.
Die medizinische Ausbildung wird gegenwärtig zunehmend mit E-Learning-Elementen angereichert. Die Orientierung in der in verschiedenste Netze zersplitterten Lernlandschaft erweist sich häufig als problematisch und zeitaufwändig, und dies bereits innerhalb einzelner Universitäten und Fachbereiche. "FAUST" - Frankfurter Ausbildungs - und Studienangebote der Medizin im virtuellen Raum (http://www.med.uni-frankfurt.de/faust/index.html) - löst dieses Problem. FAUST bietet einfache und schnelle Zugangsmöglichkeiten zu allen instituts- und klinikeigenen elektronischen Informationsquellen (z. B. Vorlesungsskripte) und E-learning Projekten (e!uro; fanatomic.de; HistoPathOnline, E-learning-Academy) sowie zu überregionalen medizinischen Lernplattformen (z. B. k-med, LaMedica), die in Frankfurt entwickelt bzw. mitentwickelt wurden und bereits curricular eingesetzt werden. Schneller Zugang wird auch zum Lernmanagementsystem WebCT vermittelt, das zunehmend zur Kommunikation, strukturierten Präsentation von E-Content sowie zur Durchführung elektronischer Klausuren eingesetzt wird. Das Portal wurde von einem im E-Learning erfahrenen Team (Kliniker, Vorkliniker, Designer, Informatiker) mit Mitteln des Lehr- und Studienausschusses entwickelt. Es ist seit dem Sommersemester 2005 freigeschaltet. FAUST versteht sich zudem als Anlaufstelle für Lehrende des Fachbereichs Medizin, die am E-Learning interessiert sind. Sie können Beratung bei didaktischen und technischen Fragen, sowie Unterstützung bei der Realisierung ihrer Projekte erhalten. FAUST möchte auf diesem Wege die Vernetzung der E-Learning-Akteure unterstützen.