Refine
Year of publication
- 2009 (2435) (remove)
Document Type
- Article (981)
- Doctoral Thesis (391)
- Part of Periodical (311)
- Book (210)
- Review (128)
- Working Paper (116)
- Part of a Book (86)
- Report (65)
- Conference Proceeding (58)
- Preprint (15)
Language
- German (1439)
- English (858)
- Portuguese (55)
- Croatian (39)
- French (24)
- Multiple languages (5)
- Italian (4)
- Spanish (4)
- dut (2)
- Hungarian (2)
Keywords
- Deutsch (58)
- Linguistik (35)
- Literatur (30)
- Rezension (24)
- Filmmusik (21)
- Lehrdichtung (18)
- Reiseliteratur (16)
- Deutschland (14)
- Film (13)
- Literaturwissenschaft (13)
Institute
- Medizin (285)
- Extern (198)
- Biochemie und Chemie (158)
- Biowissenschaften (92)
- Präsidium (80)
- Physik (67)
- Gesellschaftswissenschaften (61)
- Rechtswissenschaft (51)
- Geowissenschaften (48)
- Geschichtswissenschaften (48)
Die vorliegende Arbeit ist aus drei Teilen aufgebaut. Im ersten, relativ kurz gehaltenen Kapitel wird die klassische Standard-Industrie-Solarzelle auf der Basis monokristallinen Siliziums vorgestellt. Der bisherige Herstellungsprozess der Standard-Industrie-Solarzelle, der in wesentlichen Teilen darauf abzielt, diese Verluste zu minimieren, dient als Referenz für die Entwicklung neuer Fertigungsverfahren, wie sie in den Kapiteln 2 und 3 dieser Arbeit vorgestellt werden. Den ersten thematischen Schwerpunkt dieser Arbeit bildet die Entwicklung eines alternativen Wafering-Konzeptes zum Multi-Drahtsägen, der klassischen Technologie zur Fertigung von Silizium-Wafern. Die Basis des neuen, hier vorgestellten Wafering-Prozesses bildet das Laser-Micro-Jet-Verfahren (LMJTM). Dieses System besitzt eine Reihe von Vorteilen gegenüber klassischen „trockenen“ Laserverfahren. Das ursprünglich auf reinem, deionisiertem Wasser als Strahlmedium aufbauende System wurde im Rahmen dieser Arbeit so modifiziert, dass der Flüssigkeitsstrahl nunmehr nicht nur als flüssiger Lichtleiter dient, sondern gleichzeitig auch als Transportmedium für Ätzmittel, welche den thermischen Abtrag des Siliziums durch den Laserstrahl unterstützen. Ausgehend vom aus der Literatur bekannten chemischen Verhalten des Siliziums wurden 3 Ätzsysteme für Silizium vorgestellt. Dabei wurden Vor- und Nachteile für deren technischen Einsatz diskutiert. Den praktischen Teil dieses Arbeitspaketes bildete der Test zweier Ätzmedien im Experiment. Dabei konnte gezeigt werden, dass wasserfreie Strahlmedien basierend auf perfluorierten Lösemitteln mit bereits sehr geringen Zusätzen gasförmigen Chlors als Ätzmittel für Silizium wässrigen alkalischen Ätzsystemen jeder Konzentration prinzipiell überlegen sind- Parallel zur Evaluation des Einflusses der chemischen Beschaffenheit des Flüssigkeitsstrahls auf den Abtragsprozess fand auch eine Untersuchung verschiedener Prozessparametereinflüsse statt, etwa der Laserleistung, der Laserlichtwellenlänge, etc. Den zweiten thematischen Schwerpunkt der Arbeit bildet die Modifizierung der nasschemischen Schritte zwischen dem Wafering und dem ersten Hochtemperatur-Fertigungsschritt in der Solarzellen-Produktion, der Emitterdiffusion. Diese nasschemischen Schritte umfassen bei der Standard-Industrie-Solarzelle in der Regel eine zum Teil aufwändige Reinigung der Wafer-Oberflächen von partikulären und metallischen Kontaminationen, die vor allem vom Wafering-Prozess herrühren, als auch eine Texturierung der Substrate. Kernanliegen des praktischen Teils dieses Arbeitspaketes ist zum einen die Suche nach alternativen Texturmitteln zum 2-Propanol, dem klassischen Badadditiv in basischen Ätzbädern, das in der Praxis über zahlreiche Nachteile verfügt, etwa einem relativ niedrigen Siedepunkt, der zu seinem permanenten Ausgasen aus der Lösung führt. Zum anderen sollte der auf die Textur folgende Reinigungsprozess rationalisiert werden, um Prozesskosten zu minimieren, entweder durch eine Straffung des Prozesses durch Verringerung des Chemikalienverbrauchs und einer Reduzierung der Prozesszeit oder durch eine Verringerung der Chemikalienkosten. Bei der Suche nach neuen Texturmitteln wurden 45 verschiedene organische Substanzen verschiedener Verbindungsklassen hinsichtlich ihrer Texturwirkung auf monokristallinen Silizium-substraten getestet. Mit 1-Pentanol und p-Toluolsulfonsäure wurden zwei Substanzen ermittelt, welche in der Zukunft als praktikable Alternativen zu 2-Propanol als Texturadditive dienen könnten. Im Kontext der Suche nach neuen Reinigungsverfahren wurden eine Reihe verschiedener neuer Reinigungssequenzen getestet, die sich entweder durch veränderte - in der Regel verringerte - Badkonzentrationen, durch neue Badsequenzen, welche auf bestimmte Teilschritte verzichten oder durch neue Badkompositionen, etwa durch Hinzuziehen von Komplexbildnern für metallische Verunreinigungen von den klassischen Reinigungsprozessen unterscheiden. Der Erfolg des Reinigungseffektes der nasschemischen Sequenzen wurde anhand der Ladungsträger-Lebensdauer in den Wafern abgeschätzt. Dabei konnte gezeigt werden, dass mit Hilfe von LMJ produzierte (gelaserte) Wafer-Oberflächen wesentlich straffere Reinigungsprozesse erfordern als drahtgesägte Substrate. Neben einer deutlichen Straffung des Reinigungsprozesses ist auch eine Verkürzung der Texturzeit bei den mit Lasern geschnittenen Oberflächen möglich, die wiederum ihren Grund im geringeren Schädigungsgrad dieser Oberflächen hat, der einen geringeren Materialabtrag durch die Ätzbäder erfordert, als bei drahtgesägten Wafern. Abschließend konnte noch gezeigt werden, dass drahtgesägte Substrate, die bei gleicher Prozesszeit mit den neuen Texturmitteln prozessiert wurden, über erheblich höhere mechanische Stabilitäten verfügen, als jene, bei denen das klassische Texturmittel 2-Propanol eingesetzt wurde.
This paper analyses the regulatory framework which applies to the determination of directors’ remuneration in Europe and examines the extent to which European firms follow best practices in corporate governance in this area, drawing on an empirical analysis of the governance systems that European firms adopt in setting remuneration and, in particular, on an empirical assessment of their diverging approaches to disclosure. These divergences persist despite recent reforms. After an examination of the link between optimal remuneration, corporate governance and regulation and an assessment of how regulatory reform has evolved in this area, the paper provides an overview of national laws and best practice corporate governance recommendations across the Member States, following the adoption of the important EC Recommendations on directors’ remuneration and on the role of non-executive directors in 2004 and 2005, respectively. This overview is largely based on the answers to questionnaires sent to legal experts from seventeen European Member States. The paper also provides an empirical analysis of governance practices and, in particular, firm disclosure of directors’ remuneration in Europe’s largest 300 listed firms by market capitalisation. The paper reveals that, notwithstanding a swathe of reforms across the Member States in recent years and related harmonisation efforts, disclosure levels still vary from country to country and are strongly dependent on the existence of regulations and best practice guidelines in the firm’s home Member State. Convergence in disclosure practices is not strong; only a few basic standards are followed by the majority of the firms examined and there is strong divergence with respect to most of the criteria considered in the study. Consistent with previous research, our study reveals clear differences not only with respect to remuneration disclosure, but also with respect to shareholder engagement and the board’s role in the remuneration process and in setting remuneration guidelines. Ownership structures still ‘matter’; these divergences tend to follow different corporate governance systems and, in particular, the dispersed ownership/block-holding ownership divide. They do not appear to have been smoothed since the EC Company Law Action Plan was launched and notwithstanding the harmonisation that has been attempted in this field. Keywords: Directors’ remuneration, corporate governance, disclosure, European regulation JEL Classifications: G30, G38, J33, K22, M52
Lessons from the crisis
(2009)
A lot happened even before the perceived beginning of this crisis in 2007, so although the events are recent, I will give an overview from a US perspective of the period from 2001 to date, in our search for the lessons to be learned. Much of it is probably familiar, but worth revisiting. I will break this necessarily simplified account into 3 stages: first, a look at the key factors that led to the increasing riskiness of US home mortgages; second, how those risks were transmitted as securities from US housing lenders to institutional investors around the globe; and third, how those risks led to huge losses and created a credit crunch that moved the impact from the financial economy to the real economy and produced a severe recession. Then we will have a factual foundation for deriving the lessons that ought to be taken away from this very expensive experience.
Seit 2003 wird die Krankenhausvergütung in Deutschland schrittweise auf ein neues, leistungsorientiertes System auf Basis von Fallpauschalen (diagnosis related groups – DRG) umgestellt. Die Über gangsphase, in der gesonderte gesetzliche Regelungen gegolten hatten, sollte Ende 2008 auslaufen, weshalb der gesetzlichen Rahmen für die Nachkonvergenzzeit neu geregelt werden musste. Neben diesen technischen Regelungen und einem einheitlichen Bundesbasisfallwert standen auch die Reform der Investitionsfinanzierung, der weitere Ausbau des Wettbewerbes und die schlechte Finanzsituation der Krankenhäuser auf der Agenda des Krankenhausfinanzierungsreformgesetzes (KHRG). Aufgrund der heterogenen Interessenslagen von Bund und Ländern, gestaltete sich auch bei diesem Reformgesetz die Kompromisssuche schwierig. Herausgekommen ist ein Gesetz, dass die Reformpolitik der letzten Jahre weiterführt, die Aufgabe der zukünftigen Sicherstellung der bedarfsgerechten Versorgung aber nicht löst und die problematischen Auswirkungen des DRG-Systems negiert. Das Diskussionspapier zeichnet die wichtigsten Schritte des Gesetzgebungsprozesses nach, präsentiert und diskutiert die wichtigsten Inhalte des Gesetzes und ordnet das KHRG in den Reformkontext der letzten Jahre ein.
Die Analyse der Phosphorylierung mittels Massenspektrometrie stellt in vielerlei Hinsicht große Anforderungen an die Analysenmethoden, die eingesetzt werden. Durch die substöchiometrische Modifzierung einer Aminosäure mit einem Phosphatrest ist die grundlegende Herausforderung der Sensitivtät an anzuwendende Analysetechniken gegeben. Die Biomassenspektrometrie hat mit den weichen Ionisierungmethoden ESI und MALDI zwar die Techniken zur Verfügung gestellt, die eine routinemäßige Identifzierung von vorher per MS nicht zugänglichen Proteinen über die Untersuchung der enzymatischen Spaltpeptides ermöglicht, gleichwohl ist der Aufwand, der für die massenspektrometrische Charakterisierung eines bestimmten Proteins besteht, um ein vielfaches höher. Wegen des in vivo variablen und potentiell sehr geringen Phosphorylierungsgrades ist die genaue Identifizierung der Phosphorylierungstelle allein durch das Vermessen der Probe in einem modernen Massenspektrometer nicht zu bewerkstelligen. Die sich in der Probe befindlichen Phosphopeptide stehen nach einem Verdau des entsprechenden Proteins einer mengenmäßig großen Zahl unphosphorylierter Peptide gegenüber. Auch die hohe Sensitivität von modernen Massenspektrometern reicht in der Regel nicht aus, um das entsprechende Phosphopeptid zu analysieren. Soll die exakte Phosphorylierungstelle des untersuchten Phosphopeptids bestimmt werden, so müssen ausreichende Mengen an Analyten für eine MS/MS-Analyse generiert werden. Bei realen Proben kann der Phosphorlyierungsgrad nicht erhöht werden, somit ist auch die Menge an vorhandenen Phosphopeptiden begrenzt. Somit kommt man an eine Anreicherung von Phosphopeptiden bzw. Abreicherung von unmodifzierten Peptiden nicht vorbei. Im Rahmen dieser Arbeit wurden verschiedene Anreicherungstechniken für Phosphopeptide hinsichtlich ihrer Sensitivität und Spezifität untersucht. Hierfür wurden verschiedene Affinitätstechniken (Graphit, IMAC und TiO¬¬2) hinsichtlich Empfindlichkeit und Selektivität untersucht. Von diesen drei Methoden zeigte sich Graphit aufgrund zu geringer Wechselwirkung zwischen Analyt und Medium als ungeeigneteste Methode. IMAC zeigt bei verbesserter Sensitvität eine höhere Spezifität, gleichwohl saure Peptide nicht von Phosphopeptiden zu trennen sind. Von den drei genannten Methoden zeigte TiO¬¬2 die höchste Sensitivität und Selektivität. Da das TiO¬¬2 als Goldstandard in der Anreicherung von Phosphopeptiden angesehen wird, sollte im Rahmen dieser Dissertation eine neuartige Methode entwickelt werden, die dieser Technik sowohl im Hinblick auf Spezifität und Selektivität überlegen sein sollte. Im Rahmen dieser Arbeit wurden MALDI-Probenteller erstmals mit Hilfe von SAMs (Self Assembled Monolayers) mit Phosphonatgruppen modifiziert, aus denen durch Beladen mit vierwertigem Zirkonium eine neue funktionelle Oberfläche für die Anreicherung von Phoshopeptiden hergestellt werden kann, die der Titandioxid-Methode überlegen ist. Anhand von reproduzierbaren Modellsystemen von bekannten Phosphoproteinverdaus (z.B. Ovalbumin) konnte gezeigt werden, dass diese neue Technik Analyten im niedrigen Femtomol-Bereich auch vor einem großen nicht-phosphorlyierten Hintegrund selektiv anreichern kann. Um zu demonstrieren, dass die Phosphonat-Oberfläche auch bei realen Proben die massenspektrometrische Phosphorylierungsanalyse ermöglicht, wurden in der vorliegenden Arbeit zum einen die Mitogen Activated Protein Kinase 1 (MAPK-1) aus einem in-Lösungs-Verdau und das Heat Shock Protein (HSP), welches aus einem 2-D-Gel stammt, untersucht. Mit der neu etablierten Phosphonat-Oberfäche konnten die Phosphopeptide aus den Proben angereichert und mittels MALDI-MS/MS die Phosphatgruppe eindeutig der modifizierten Aminosäure zugeordnet werden. Neben dem Komplex der Anreicherungstechniken wurden im Rahmen dieser Dissertation noch andere relevante Fragestellungen für die Phosphoproteomanalytik untersucht. So konnte gezeigt werden, dass für phosphorylierte Peptide keine Suppression der Signale im MALDI-Gerät stattfindet, was eine noch weit verbreitete Meinung in vielen Arbeitsgruppen ist. Auch Versuche zur MALDI-Matrix und deren Kombination mit der Säurekomponente wurden durchgeführt. Es stellte sich heraus, dass es neben DHB in Kombination mit Phosphorsäure momentan keine bessere Matrix-Kombination gibt. Im Hinblick auf die Quantifizierung der Phosphorlyierung eines Proteins konnte exemplarisch am Ovalbumin als Modellsystem eine einfache und valide Quantifizierungsmethode mit Hilfe der Dephosphorylierung entwickelt werden, die nicht die Nachteile von sonst häufig eingesetzten Derivatisierungsreagenzien besitzt.
Recent evaluations of the fiscal stimulus packages recently enacted in the United States and Europe such as Cogan, Cwik, Taylor and Wieland (2009) and Cwik and Wieland (2009) suggest that the GDP effects will be modest due to crowding-out of private consumption and investment. Corsetti, Meier and Mueller (2009a,b) argue that spending shocks are typically followed by consolidations with substantive spending cuts, which enhance the short-run stimulus effect. This note investigates the implications of this argument for the estimated impact of recent stimulus packages and the case for discretionary fiscal policy.
The global financial crisis has lead to a renewed interest in discretionary fiscal stimulus. Advocates of discretionary measures emphasize that government spending can stimulate additional private spending — the so-called Keynesian multiplier effect. Thus, we investigate whether the discretionary spending announced by Euro area governments for 2009 and 2010 is likely to boost euro area GDP by more than one for one. Because of modeling uncertainty, it is essential that such policy evaluations be robust to alternative modeling assumptions and different parameterizations. Therefore, we use five different empirical macroeconomic models with Keynesian features such as price and wage rigidities to evaluate the impact of fiscal stimulus. Four of them suggest that the planned increase in government spending will reduce private spending for consumption and investment purposes significantly. If announced government expenditures are implemented with delay the initial effect on euro area GDP, when stimulus is most needed, may even be negative. Traditional Keynesian multiplier effects only arise in a model that ignores the forward-looking behavioral response of consumers and firms. Using a multi-country model, we find that spillovers between euro area countries are negligible or even negative, because direct demand effects are offset by the indirect effect of euro appreciation.
Despite their importance in modern electronic trading, virtually no systematic empirical evidence on the market impact of incoming orders is existing. We quantify the short-run and long-run price effect of posting a limit order by proposing a high-frequency cointegrated VAR model for ask and bid quotes and several levels of order book depth. Price impacts are estimated by means of appropriate impulse response functions. Analyzing order book data of 30 stocks traded at Euronext Amsterdam, we show that limit orders have significant market impacts and cause a dynamic (and typically asymmetric) rebalancing of the book. The strength and direction of quote and spread responses depend on the incoming orders’ aggressiveness, their size and the state of the book. We show that the effects are qualitatively quite stable across the market. Cross-sectional variations in the magnitudes of price impacts are well explained by the underlying trading frequency and relative tick size.
The recent financial crisis has led to a major debate about fair-value accounting. Many critics have argued that fair-value accounting, often also called mark-to-market accounting, has significantly contributed to the financial crisis or, at least, exacerbated its severity. In this paper, we assess these arguments and examine the role of fair-value accounting in the financial crisis using descriptive data and empirical evidence. Based on our analysis, it is unlikely that fair-value accounting added to the severity of the current financial crisis in a major way. While there may have been downward spirals or asset-fire sales in certain markets, we find little evidence that these effects are the result of fair-value accounting. We also find little support for claims that fair-value accounting leads to excessive write-downs of banks’ assets. If anything, empirical evidence to date points in the opposite direction, that is, towards overvaluation of bank assets.
In this paper we investigate the comparative properties of empirically-estimated monetary models of the U.S. economy. We make use of a new data base of models designed for such investigations. We focus on three representative models: the Christiano, Eichenbaum, Evans (2005) model, the Smets and Wouters (2007) model, and the Taylor (1993a) model. Although the three models differ in terms of structure, estimation method, sample period, and data vintage, we find surprisingly similar economic impacts of unanticipated changes in the federal funds rate. However, the optimal monetary policy responses to other sources of economic fluctuations are widely different in the different models. We show that simple optimal policy rules that respond to the growth rate of output and smooth the interest rate are not robust. In contrast, policy rules with no interest rate smoothing and no response to the growth rate, as distinct from the level, of output are more robust. Robustness can be improved further by optimizing rules with respect to the average loss across the three models.
We introduce a regularization and blocking estimator for well-conditioned high-dimensional daily covariances using high-frequency data. Using the Barndorff-Nielsen, Hansen, Lunde, and Shephard (2008a) kernel estimator, we estimate the covariance matrix block-wise and regularize it. A data-driven grouping of assets of similar trading frequency ensures the reduction of data loss due to refresh time sampling. In an extensive simulation study mimicking the empirical features of the S&P 1500 universe we show that the ’RnB’ estimator yields efficiency gains and outperforms competing kernel estimators for varying liquidity settings, noise-to-signal ratios, and dimensions. An empirical application of forecasting daily covariances of the S&P 500 index confirms the simulation results.
Der Aufenthalt in einem Krankenhaus beginnt in der Regel mit der präklinischen Versorgung des Patienten durch den Rettungsdienst. Hier ist die Schnittstelle zwischen nichtärztlicher und ärztlicher Versorgung. Umso wichtiger ist hier ein reibungsloser und vor allem komplikationsloser Verlauf. Aus diesem Grund wurde, basierend auf Ergebnissen dieser Studie, eine Schulung zur fehlerfreien und effizienten Kommunikation für Rettungsassistenten entwickelt. Sie beinhaltete Hintergrundwissen, fünf klare Kommunikationsregeln (Schaffen einer eindeutigen Sprache, Setzen von Prioritäten, Bilden von Kommunikationsschleifen, Abschaffen eines „übertriebenen Wir-Gefühls“, Bestimmen eines Teamführers) und das BAUM-Schema zur Patientenübergabe. BAUM ist ein Akronym für Bestand, Anamnese, klinische Untersuchungsergebnisse und getroffene Maßnahmen. Fragestellung: Lassen sich durch eine kurze Schulung und die Einführung des BAUM-Schemas die Kommunikation in einem Rettungsdienstteam und die Patientenübergabe zwischen Rettungsdienstmitarbeitern und Notarzt verbessern? Methoden: In der vorliegenden Studie bildeten simulierte Notfallszenarien, die von zwei Rettungsassistenten zu bearbeiten waren, die Basis. Es wurde die Kommunikation zwischen den Teammitgliedern und das jeweilige Patientenübergabegespräch vor (Projektstufe 1) und nach einer Schulung (Projektstufe 2) evaluiert. Dabei gab es vier verschiedene Arten von Notfallszenarien; drei wurden von einem echten Patientendarsteller gespielt (Asthma bronchiale, Lungenembolie, Polytrauma) und eines mit einer Simulationspuppe dargestellt (kardiopulmonale Reanimation). Jedes Rettungsdienstteam hatte einen Fall in einem realitätsnahen Umfeld zu bearbeiten. Die Szenarien wurden digital aufgezeichnet und mit den dafür entwickelten Analysewerkzeugen evaluiert. Dabei wurde auf negative Kommunikationsereignisse, wie beispielsweise „Missverständnisse“ oder „Kompetenzgerangel“, geschaut und der Informationsfluss von Rettungsassistent zum Notarzt beobachtet. Die Schulung nach der ersten Projektstufe erfolgte in drei Unterrichtseinheiten und wurde interaktiv gestaltet; die aktive Mitarbeit durch das Bearbeiten von Arbeitsblättern sollte möglichst viele Lerntypen ansprechen. Im Anschluss an jede Schulung wurden Fragen diskutiert und Übungsaufgaben bearbeitet. Alle Probanden waren Rettungsassistenten der Berufsfeuerwehr Frankfurt am Main und nahmen nur ein einziges Mal an einer Simulation teil. Die Patientenschauspieler mussten ausreichende medizinische Kenntnisse vorweisen. Ergebnisse: In der ersten Projektstufe wurden 20 Szenarien simuliert, in der zweiten 14. Somit wurden insgesamt 68 Rettungsassistenten und 34 Übergaben evaluiert. Auf ein ausgewogenes Verhältnis der einzelnen Notfallszenarien wurde geachtet. Die Gesamtzahl der aufgezeichneten negativen Kommunikationsereignisse pro simuliertem Szenario wurde von 3,9 auf 1,4 vermindert (p=0,003). Gleichzeitig wurden die einzelnen negativen Kommunikationsereignisse pro Notfall ausgewertet. Durch die Schulung sollten sie in Projektstufe 2 vermindert werden. Hier ergab sich aber kein eindeutiger Trend zur Veränderung. Dagegen steigerte sich nach Einführung des BAUM-Schemas der Informationsgehalt in allen Übergaben von Rettungsassistenten zum Notarzt von 52,6 % auf 67,8 % (p=0,021), beim Szenario Lungenembolie wurde sogar eine Steigerung von 77,1 % erreicht. Konklusion: Die kurzen Schulungen zur Kommunikation während eines Rettungsdiensteinsatzes blieben in ihrer Effizienz hinter den Erwartungen zurück. Hier muss davon ausgegangen werden, dass andere Faktoren wie unterschiedliche Vorkenntnisse der Probanden bezüglich der Kommunikationsfähigkeit die Ursache waren. Die Patientenübergabe nach Einführung des BAUM-Schemas konnte dagegen nachweislich verbessert werden. Es führte nicht nur zu einer inhaltlichen Vervollständigung, sondern bot dem Rettungsassistenten gleichzeitig eine Gliederung zur Wiedergabe. Somit war eine sinnvolle Strukturierung der Informationen über den Patienten erreichbar. Es wurde damit dem Notarzt ermöglicht, mehr Informationen über den Patienten zu erhalten und mehr über die Lage am Notfallort zu erfahren.
Unter meinen nassen Füßen warmer Stein. Schritt für Schritt hinterlasse ich meine Spuren auf dem Boden, auf dem bereits die Fußabdrücke anderer Badender, die vor mir diesen Raum betreten haben, die Richtung weisen. Eine breitstufige flache Treppe führt nach unten zu den Wasserbecken. Hier nimmt die Nässe unter den Füßen zu. Ganze Pfade von Fußspuren ziehen sich über den Boden, von denen einzelne Wege abzweigen, sich verlaufen, im Nichts enden. Mein Körper gleitet in das Wasser, das sich blau von den grauen Wänden des Beckens abhebt. Mauern aus steinernen Schichten, die sich bis in die Höhe ziehen. Von oben fällt Sonnenlicht ein. Und doch ist es hier dunkel. Ein Raum im Innern, der sich im Anblick von Himmel und Wolken vom Außen ab- und eingegrenzt zeigt. Durch kleine quadratische Fensterausschnitte in den Mauern des Gebäudes wird der Blick in die Landschaft frei. In Stein gefasste Bilder vom Steilhang, von den Dächern des Dorfes, von himmelhohen Bergen.
In this thesis, we studied the single impurity Anderson model and developed a new and fast impurity solver for the dynamical mean field theory (DMFT). Using this new impurity solver, we studied the Hubbard model and periodic Anderson model for various parameters. This work is motivated by the fact that the dynamical mean field theory is widely used for the studies of strongly correlated systems, and the most frequently used methods, e.g. the quantum Monte-Carlo method (QMC), and the exact digonalization method are much CPU time consuming and usually limited by the available computers. Therefore, a fast and reliable impurity solver is needed. This new impurity solver was explored based on the equation-of-motion method (also called Green's function and decoupling method in some literature). Using the retarded Green's function, we first derived the equations of motion of Green's functions. Then, we employed a decoupling scheme to close the equations. By solving self-consistently the obtained closed set of integral equations, we obtained the single particle Green's function for the single impurity Anderson model. After that, the single impurity Anderson model was solved along with self-consistency conditions within the framework of DMFT. In this work, we studied and compared two decoupling schemes. Moreover, we also derived possible higher order approximations which will be tested in future work. Besides the theoretical work, we tested the method in numerical calculations. The integral equations are first solved by iterative methods with linear mixing and Broyden mixing, respectively. However, these two methods are not sufficient for finding the self-consistent solutions of the DMFT equations because converged results are difficult to obtain. Moreover, the computing speed of the two methods is also not satisfactory. Especially the iterative method with linear mixing costs always a lot of CPU time due to the required small mixing. Hence, we developed a new method, which is a combination of genetic algorithm and iterative method. This new method converges very fast and removes artifacts appearing in the results from the iterative method with linear and Broyden mixing. It can directly operate on the real axis, where no numerical error from the high frequency tail corrections and the analytical continuation is introduced. In addition, our new technique strongly improves the precision of the numerical results by removing the broadening. With this newly developed impurity solver and numerical technique, we studied the single impurity Anderson model, the single band Hubbard model and the periodic Anderson model with arbitrary spin and orbital degeneracy N on the real axis. For the single impurity Anderson model, the spectral functions are calculated for the infinite and finite Coulomb interaction strength. We also studied the spectral functions in dependence of the parameters of impurity position and hybridization. For the Hubbard model, we studied the bandwidth control and filling control Mott metal-insulator transition for spin and orbital degeneracy N = 2. It gives qualitatively the critical value of Coulomb interaction strength for the Mott metal-insulator transition, and the spectral functions which are comparable to those obtained in QMC and numerical renormalization group methods. We also studied the quasiparticle weight and the self-energy in metallic states. The latter shows almost Fermi liquid behavior. At last we calculated the densities of states for the Hubbard model with arbitrary spin and orbital degeneracy N. The periodic Anderson model (PAM) is also studied as another important lattice model. It was solved for various combinations of parameters: the Coulomb interaction strength, the impurity position, the center position of the conduction band, the hybridization, the spin and orbital degeneracy. The PAM results represents the physics of impurities in a metal. In short, our method works for the Hubbard model and the periodic Anderson model in a large range of parameters, and gives good results. Therefore, our impurity solver could be very useful in calculations within LDA+DMFT. Finally, we also made a preliminary investigation of the multi-band system based on the success in single band case. We first studied the two-band system in a simplified treatment by neglecting the interaction between the two bands through the bath. This has given promising numerical results for the two-band Hubbard model. Moreover, we have studied theoretically the two-band system with mean field approximation and Hubbard-I approximation in dealing with the higher order cross Green's functions which are related to both the two bands. In the mean field approximation, we even generalized the two-band system to arbitrary M=N/2 band system. Potential improvement can be carried out on the basis of this work.