Refine
Year of publication
Document Type
- Part of Periodical (295)
- Working Paper (190)
- Book (95)
- Report (45)
- Contribution to a Periodical (44)
- Article (43)
- Doctoral Thesis (35)
- diplomthesis (8)
- Periodical (8)
- Conference Proceeding (7)
Language
- German (787) (remove)
Is part of the Bibliography
- no (787) (remove)
Keywords
- Financial Institutions (44)
- Deutschland (40)
- Capital Markets Union (30)
- Financial Markets (26)
- ECB (25)
- Banking Regulation (23)
- Macro Finance (22)
- Banking Supervision (20)
- Banking Union (18)
- Household Finance (18)
Institute
- Wirtschaftswissenschaften (787) (remove)
Sowohl die Diversifikation als auch die Fokussierung von Unternehmensaktivitäten werden häufig mit der Maximierung des Unternehmenswertes begründet. Wir untersuchen die Auswirkungen auf den Aktienkurs für 184 Akquisitionen sowie 139 Desinvestitionen deutscher Konzerne im Zeitraum von 1996-2005. Unternehmensdiversifikationen üben, entgegen der oft geäußerten Kritik, keinen signifikant negativen Einfluss auf den Marktwert aus. Fokussierende Unternehmensakquisitionen hingegen sind mit einem signifikanten Wertaufschlag verbunden. Der Verkauf von Unternehmensteilen führt generell zu einer Marktwertsteigerung. Dabei führen Abspaltungen außerhalb des Kerngeschäfts zu einer – allerdings insignifikant – höheren Wertsteigerung als Desinvestitionen von Kerngeschäftsaktivitäten. Statt eines systematischen Diversifikationsabschlags finden wir somit einen „Fokussierungsaufschlag“ für den deutschen Markt.
Dieser Tagungsband enthält die Beiträge des 17. Workshops „Computational Intelligence“ des Fachausschusses 5.14 der VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) und der Fachgruppe „Fuzzy-Systeme und Soft-Computing“ der Gesellschaft für Informatik (GI), der vom 5. – 7. Dezember 2007 im Haus Bommerholz bei Dortmund stattfindet. Der GMA-Fachausschuss 5.14 „Computational Intelligence“ entstand 2005 aus den bisherigen Fachausschüssen „Neuronale Netze und Evolutionäre Algorithmen“ (FA 5.21) sowie „Fuzzy Control“ (FA 5.22). Der Workshop steht in der Tradition der bisherigen Fuzzy-Workshops, hat aber seinen Fokus in den letzten Jahren schrittweise erweitert. Die Schwerpunkte sind Methoden, Anwendungen und Tools für • Fuzzy-Systeme, • Künstliche Neuronale Netze, • Evolutionäre Algorithmen und • Data-Mining-Verfahren sowie der Methodenvergleich anhand von industriellen und Benchmark-Problemen. INHALTSVERZEICHNIS T. Fober, E. Hüllermeier, M. Mernberger (Philipps-Universität Marburg): Evolutionary Construction of Multiple Graph Alignments for the Structural Analysis of Biomolecules G. Heidemann, S. Klenk (Universität Stuttgart): Visual Analytics for Image Retrieval F. Rügheimer (OvG-Universität Magdeburg): A Condensed Representation for Distributions over Set-Valued Attributes T. Mrziglod (Bayer Technology Services GmbH, Leverkusen): Mit datenbasierten Technologien und Versuchsplanung zu erfolgreichen Produkten H. Schulte (Bosch Rexroth AG, Elchingen): Approximationsgenauigkeit und dynamisches Fehlerwachstum der Modellierung mit Takagi-Sugeno Fuzzy Systemen C. Burghart, R. Mikut, T. Asfour, A. Schmid, F. Kraft, O. Schrempf, H. Holzapfel, R. Stiefelhagen, A. Swerdlow, G. Bretthauer, R. Dillmann (Universität Karlsruhe, Forschungszentrum Karlsruhe GmbH): Kognitive Architekturen für humanoide Roboter: Anforderungen, Überblick und Vergleich R. Mikut, C. Burghart, A. Swerdlow (Forschungszentrum Karlsruhe GmbH, Universität Karlsruhe): Ein Gedankenexperiment zum Entwurf einer integrierten kognitiven Architektur für humanoide Roboter G. Milighetti, H.-B. Kuntze (FhG IITB Karlsruhe): Diskret-kontinuierliche Regelung und Überwachung von Robotern basierend auf Aktionsprimitiven und Petri-Netzen N. Rosemann, W. Brockmann (Universität Osnabrück): Kontrolle dynamischer Eigenschaften des Online-Lernens in Neuro-Fuzzy-Systemen mit dem SILKE-Ansatz A. Hans, D. Schneegaß, A. Schäfer, S. Udluft (Siemens AG, TU Ilmenau): Sichere Exploration für Reinforcement-Learning-basierte Regelung Th. Bartz-Beielstein, M. Bongards, C. Claes, W. Konen, H. Westenberger (FH Köln): Datenanalyse und Prozessoptimierung für Kanalnetze und Kläranlagen mit CI-Methoden S. Nusser, C. Otte, W. Hauptmann (Siemens AG, OvG-Universität Magdeburg): Learning Binary Classifiers for Applications in Safety-Related Domains W. Jakob, A. Quinte, K.-U. Stucky, W. Süß, C. Blume (Forschungszentrum Karlsruhe GmbH; FH Köln, Campus Gummersbach) Schnelles Resource Constrained Project Scheduling mit dem Evolutionären Algorithmus GLEAM M. Preuß, B. Naujoks (Universität Dortmund): Evolutionäre mehrkriterielle Optimierung bei Anwendungen mit nichtzusammenhängenden Pareto-Mengen G. Rudolph, M. Preuß (Universität Dortmund): in mehrkriterielles Evolutionsverfahren zur Bestimmung des Phasengleichgewichts von gemischten Flüssigkeiten Y. Chen, O. Burmeister, C. Bauer, R. Rupp, R. Mikut (Universität Karlsruhe, Forschungszentrum Karlsruhe GmbH, Orthopädische Universitätsklinik Heidelberg): First Steps to Future Applications of Spinal Neural Circuit Models in Neuroprostheses and Humanoid Robots F. Hoffmann, J. Braun, T. Bertram, S. Hölemann (Universität Dortmund, RWTH Aachen): Multikriterielle Optimierung mit modellgestützten Evolutionsstrategien S. Piana, S. Engell (Universität Dortmund): Evolutionäre Optimierung des Betriebs von rohrlosen Chemieanlagen T. Runkler (Siemens AG, CT IC 4): Pareto Optimization of the Fuzzy c–Means Clustering Model Using a Multi–Objective Genetic Algorithm H. J. Rommelfanger (J.W. Goethe-Universität Frankfurt am Main): Die Optimierung von Fuzzy-Zielfunktionen in Fuzzy (Mehrziel-) LPSystemen - Ein kritischer Überblick D. Gamrad, D. Söffker (Universität Duisburg-Essen): Formalisierung menschlicher Interaktionen durch Situations-Operator- Modellbildung S. Ritter, P. Bretschneider (FhG AST Ilmenau): Optimale Planung und Betriebsführung der Energieversorgung im liberalisierten Energiemarkt R. Seising (Medizinische Universität Wien): Heinrich Hertz, Ludwig Wittgenstein und die Fuzzy-Strukturen - Eine kleine „Bildergeschichte“ zur Erkenntnisphilosophie J. Limberg, R. Seising (Medizinische Universität Wien): Sequenzvergleiche im Fuzzy-Hypercube M. Steinbrecher, R. Kruse (OvG-Universität Magdeburg): Visualisierung temporaler Abhängigkeiten in Bayesschen Netzen M. Schneider, R. Tillmann, U. Lehmann, J. Krone, P. Langbein, U. Stark, J. Schrickel, Ch. Ament, P. Otto (FH Südwestfalen, Airbus Deutschland GmbH, Hamburg, TU Ilmenau): Künstliches Neuronales Netz zur Analyse der Geometrie von großflächig gekrümmten Bauteilen C. Frey (FhG IITB Karlsruhe): Prozessdiagnose und Monitoring feldbusbasierter Automatisierungsanlagen mittels selbstorganisierender Karten
Es gehört zu den Mindestansprüchen des Sozialstaats, bedürftigen Personen ein soziokulturelles Existenzminimum zu sichern. In Deutschland sollen gegenwärtig insbesondere die Leistungen der Sozialhilfe und der Grundsicherung für Arbeitsuchende dafür sorgen, dass dieses Minimalziel erreicht wird. Ob dies gelingt, ist jedoch fraglich, da erhebliche Teile der Bedürftigen ihnen zustehende Leistungen nicht in Anspruch nehmen. Die Statistiken über Leistungsempfänger/innen geben also nur "die halbe Wahrheit" über Bedürftigkeit in Deutschland wieder. Vor der Hartz-IV-Reform kamen auf drei Grundsicherungsempfänger/innen mindestens zwei, eher drei weitere Berechtigte, die von ihrem Anspruch keinen Gebrauch machten. Dabei waren einige gesellschaftliche Gruppen von verdeckter Armut besonders stark betroffen: alleinstehende Frauen, Paarhaushalte mit erwerbstätigem Haushaltsvorstand und Altenhaushalte. Die Einführung des Arbeitslosengeldes (Alg) II im Zuge der Hartz-IV-Reform konnte zwar die verdeckte Armut von früheren Arbeitslosenhilfebeziehenden vermindern. Doch andere Bedürftige, insbesondere Erwerbstätigenhaushalte mit geringem Einkommen, nehmen offensichtlich ihnen zustehende Leistungen nach wie vor häufig nicht in Anspruch. Die Gründe für das Phänomen der verdeckten Armut sind vielfältig. Wesentliche Ursachen sind offenbar, dass viele Bedürftige die relevanten gesetzlichen Regelungen nicht kennen oder mit der Inanspruchnahme staatlicher Hilfeleistungen Stigmatisierungsängste verbinden. Dem könnte entgegengewirkt werden, indem offensiv über bestehende Ansprüche informiert und ein vorurteils- und diskriminierungsfreies Klima im Umgang mit Hilfebedürftigen gefördert wird.
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Die Optimierung von Fuzzy-Zielfunktionen in Fuzzy-(Mehrziel-)LP-Systemen - Ein kritischer Überblick
(2007)
Klassische Programmierungsmodelle benötigen eindeutig bestimmte Koeffizienten und exakt festgelegte Restriktionsgrenzen. Um eine Fehlmodellierung zu vermeiden, ist daher in der Regel eine umfangreiche Informationsaufnahme und -verarbeitung notwendig. Oft wird man dennoch bei Realproblemen einige der Modellparameter nur größenordnungsmäßig angeben können. Während in den klassischen Modellen nur der Weg bleibt, diese ungenauen Größen durch "Mittelwerte" zu ersetzen, bieten Fuzzy-Modelle die Möglichkeit, die subjektiven Vorstellungen eines Entscheiders so präzise zu modellieren, wie dieser es ausdrücken will und kann. Das Risiko, mit einem falschen Bild der Realität zu arbeiten und Lösungen auszuwählen, die nicht dem Realproblem entsprechen, wird somit deutlich reduziert. Beschränken wir die Betrachtung auf den am häufigsten benutzten Modelltyp, die Linearen Programmierungsmodelle, so lässt sich eine Fuzzy-Erweiterung allgemein durch das nachfolgende Fuzzy Lineare Programmierungs-Modelle (FLP-Modell) ausdrücken. ...
Wenn Angehörige die Pflege übernehmen : von Kosten und Nutzen intrafamiliärer Pflegevereinbarungen
(2007)
Ob ein Angehöriger im Alter zu Hause von der Familie versorgt werden kann, hängt von vielen Faktoren ab, nicht nur davon, ob die Familienmitglieder über die nötigen Pflegekenntnisse verfügen, motiviert sind oder ob sie sich moralisch verpflichtet fühlen. Bei der Frage nach den Möglichkeiten der Pflege in der Familie, man spricht auch von »intrafamiliären Pflegearrangements«, müssen auch ökonomische Gesichtspunkte berücksichtigt werden: Wer sich als Pflegebedürftiger entscheidet, keinen ambulanten Pflegedienst zu engagieren oder nicht ins Heim zu gehen, der bevorzugt – ökonomisch gesprochen – die Eigenproduktion in Form der Familienpflege gegenüber dem Kauf professioneller Pflegedienstleistungen von externen Märkten. Welche Gründe haben Familien für die Bevorzugung der intrafamiliären Pflege, welchen Nutzen und welche Kosten berücksichtigen sie bei ihrer (Pflege-)Entscheidung? Um die beobachtbare Stabilität und die möglichen Vorteile der Pflege in Familien und Privathaushalten zu erklären, kann die ökonomische Sicht interessante Aspekte erhellen. Letztere werden in diesem Beitrag mit den Ergebnissen einer schriftlichen Befragung zu den Auswirkungen der Gesetzlichen Pflegeversicherung in Hessen konfrontiert.
Die Entscheidung, die »Regelaltersgrenze« von derzeit 65 auf 67 Jahre anzuheben, hat erneut der Debatte Auftrieb verschafft, wie der Übergang von der Erwerbsphase in den Ruhestand sinnvoll zu gestalten ist. Sind die betroffenen Altersjahrgänge noch leistungsfähig genug, um weiter berufstätig zu sein? Wie schätzen Arbeitgeber die Einsatzmöglichkeit älterer Arbeitnehmerinnen und Arbeitnehmer ein? Gibt es genügend Arbeitsplätze, um eine erweiterte Zahl von älteren Erwerbstätigen aufzunehmen? Mindert der spätere Ausstieg der Älteren die Einstiegschancen der Jüngeren? Ist der geplante Aufschub der Regelaltersgrenze lediglich ein »Trick«, um die Rentenabschläge hochzuschrauben?
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Seit Jahren wird von einem Krieg der Generationen fabuliert, der in den kommenden Jahrzehnten ausbrechen werde. Von einer Kündigung des Generationenvertrags in der Gesetzlichen Rentenversicherung ist die Rede, nach dem bisher die laufenden Renten aus den gleichzeitig gezahlten Beiträgen ohne Bildung eines Kapitalstocks finanziert werden (Umlageverfahren). Die Menschen werden zunehmend unsicherer, ob sie noch ein Alterseinkommen erwarten können, das einen Ruhestand ohne große finanzielle Sorgen erlaubt und das sie vor Armut im Alter bewahrt. Gleichzeitig spricht man aber von der Generation der Erben, die in den nächsten ein oder zwei Jahrzehnten Erbschaften in bisher nie gekannter Höhe erhalten werden. Diese Gemengelage bedarf der genaueren Durchleuchtung, um echte von vermeintlichen Problemen unterscheiden zu können.
Ist der Pflegenotstand unabwendbar? : Über die Zukunft der Pflegeversicherung: Defizite und Lösungen
(2007)
Über die gesetzliche Pflegeversicherung wird seit der Verabschiedung des Gesetzes zur sozialen Absicherung des Risikos der Pflegebedürftigkeit (PflegeVersG oder SGB XI) im April 1994 kontrovers diskutiert. Ganz oben auf der politischen Agenda steht dieses Thema wieder seit der jüngsten Debatte zur Gesundheitsreform. Während die CDU/CSU-regierten Länder für eine private, kapitalgedeckte Zusatzversicherung eintreten, favorisieren SPDLänder eine »Bürgerversicherung« auch für die Pflegeversicherung. ...
Trotz zunehmend positiver Meldungen vom deutschen Arbeitsmarkt, die von einer "Entspannung der Lage" bis hin zu einer "Trendwende" reichen, herrscht eine anhaltend hohe Arbeitslosigkeit unter den wettbewerbsschwachen Arbeitsuchenden. Ein genauer Blick auf die aktuellen Zahlen verrät, dass der Anteil der Langzeitarbeitslosen an der Gesamtarbeitslosenzahl 42 % beträgt. Wiederum besitzt die Hälfte der arbeitslos gemeldeten Arbeitslosengeld II-Empfänger keine abgeschlossene Berufsausbildung, knapp ein Viertel keinen Schulabschluss. ...
Open-end real estate funds are of particular importance in the German bank-dominated financial system. However, recently the German open-end fund industry came under severe distress which triggered a broad discussion of required regulatory interventions. This paper gives a detailed description of the institutional structure of these funds and of the events that led to the crisis. Furthermore, it applies recent banking theory to openend real estate funds in order to understand why the open-end fund structure was so prevalent in Germany. Based on these theoretical insights we evaluate the various policy recommendations that have been raised.
Die Unternehmensbesteuerung ist eines der Instrumentarien das im Wettbewerb um den mobilen Faktor Kapital von den Industriestaaten eingesetzt wird. Hinsichtlich der wissenschaftlichen Forschung, die den Zusammenhang zwischen der Unternehmensbesteuerung und dem unternehmerischen Kapitalstock untersucht, ist mittlerweile eine beträchtliche Zahl von Literatur entstanden. Aus der vorhandenen Literatur sind jedoch zwei Schwächen zu erkennen. Erstens basieren viele der empirischen Analysen auf makroökonomischen Zeitreihendaten und zweitens finden vor allem Reduzierte-Form-Modelle Anwendung. Die vorliegende Dissertation gliedert sich in die Reihe empirischer Arbeiten unter Verwendung von Mikrodaten ein, die Aspekte der Unternehmensbesteuerung untersuchen. Die Arbeiten liefern einen Beitrag zum tieferen Verständnis aus den Teilbereichen der Finanzierunkstruktur, der gemeinsamen Bemessungsgrundlage sowie der Messung der marginalen Steuerbelastung. Dabei konzentrieren sich die Analysen auf die Aktivitäten deutscher Unternehmen im In- und Ausland sowie ausländischer Unternehmen in Deutschland. Grundlage der empirischen Untersuchungen sind vor allem vertrauliche Mikrodaten der Deutschen Bundesbank. Im Rahmen der deskriptiven und multivariaten Analyse werden Hinweise für den Zusammenhang zwischen der Besteuerung und dem unternehmerischen verhalten nachgewiesen. Damit dienen die Resultate auch als Diskussionsgrundlage für die Ausgestaltung künftiger Steuerpolitik in Deutschland und der EU.
Dynamische Aspekte im Kaufverhalten : die Determinanten von Kaufzeitpunkt, Marken- und Mengenwahl
(2007)
Die vorliegende Arbeit untersucht das Wahlverhalten von Konsumenten in differenzierten Produktkategorien des Konsumgütermarktes. Ausgangspunkt ist die Beobachtung, dass ein Marketing-Mix nicht nur die aktuellen Reaktionen der Konsumenten, sondern auch die resultierenden Konsequenzen für die Zukunft berücksichtigen muss. So führen insbesondere Preispromotions, welche den größten Anteil des Marketing-Budgets bei Konsumgütern in Anspruch nehmen, oft lediglich zu einer Vorverlagerung der Käufe statt zu einem Mehrabsatz durch Markenwechsel und sind daher durchaus kritisch zu bewerten. Anhand von Haushaltspaneldaten zweier Produktkategorien wird der Einfluss dynamischer Aspekte im Rahmen der Konsumentenentscheidungen hinsichtlich Kaufzeitpunkt, Marken- und Mengenwahl untersucht. Auf Grund kontroverser Diskussionen in der Marketing-Forschung bezüglich der korrekten Modellierung der drei Entscheidungen, steht diese neben der expliziten Spezifikation der Dynamiken im Fokus der Betrachtungen. Die empirischen Analysen sowie die anschließenden Simulationen von Marktszenarien zeigen zunächst die Überlegenheit einer getrennten gegenüber einer gemeinsamen Nutzenfunktion bei der Modellierung der drei Entscheidungen auf. Des Weiteren findet sich in einer Produktkategorie die Abhängigkeit der Preissensitivität der Konsumenten von der in der Vergangenheit beobachteten Häufigkeit von Preispromotions. Die Preissensitivität in der Mengenwahl ist dabei von dieser Häufigkeit wesentlich stärker betroffen als die der Markenwahl, was als Erklärungsansatz für die empirisch beobachtete Vorverlagerung von Käufen gewertet werden kann.
Private Equity ist außerhalb des Fachpublikums von vielen Mythen und Missverständnissen umgeben. Dies fängt bereits bei der Funktionsweise und Größe des Sektors an, aber auch über die Profitabilität und die Gebührenstruktur von Private Equity Gesellschaften gibt es falsche Vorstellungen. Zudem werden immer wieder Vorwürfe laut, dass Private Equity zu massivem Arbeitsplatzabbau, einer hohen Anzahl von Konkursen und dem Unterlassen von langfristigen Investitionen führt. Dennoch wird Private Equity als wichtiges Instrument zur Finanzierung des deutschen Mittelstandes angeführt. Dieser Essay stellt den gängigen Vorurteilen zu Private Equity die neuesten Forschungsergebnisse gegenüber und versucht so, ein ausgewogenes Bild sowohl der Chancen und Risiken als auch des Einsatzgebiets von Private Equity zu zeichnen.
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
This paper provides new insights into the nature of loan securitization. We analyze the use of collateralized loan obligation (CLO) transactions by European banks from 1997 to 2004 andtry to identify the influence that various firm-specific and macroeconomic factors may have on an institution's securitization decision. We find that not only regulatory capital arbitrage under Basel I has been driving the market. Rather, our results suggest that loan securitization is an appropriate funding tool for banks with high risk and low liquidity. It may also have been used by commercial banks to indirectly access investment-bank activities and the associated gains.
Wir untersuchen, in welchem Ausmaß die Aktien deutscher Unternehmen im Zeitverlauf an ausländischen Börsen gehandelt werden. Es zeigt sich – nach anfänglich bedeutsamer Handelsaktivität im Ausland – ein ausgeprägter Rückfluss-Effekt nach Deutschland. Zweitnotierungen an ausländischen Börsen dienen der Verbreiterung der Aktionärsbasis und somit der Senkung der Kapitalkosten und letztendlich der Steigerung des Unternehmenswertes. Dazu ist ein ausreichendes Handelsvolumen an der ausländischen Börse unabdinglich. Daran gemessen sind die Auslandsnotierungen deutscher Unternehmen nicht erfolgreich. Dies ist jedoch nicht im gleichen Ausmaß für alle Unternehmen der Fall. Kleinere, wachsende Unternehmen und Unternehmen mit höherem Anteil des Auslandsumsatzes am Gesamtumsatz werden relativ stärker im Ausland gehandelt.
Die Dissertation verfolgt zwei Ziele: (1) Detaillierte Analyse der Zusammenhänge zwischen Kundenkenngrößen, Erfolgsmaßen des wertbasierten Kundenmanagements und insbesondere dem Unternehmenswert, (2) Entwicklung eines Ansatzes zur externen Berichterstattung der Kundenkenngrößen sowie Erfolgsmaße des wertbasierten Kundenmanagements, der die Kriterien der Finanzberichterstattung erfüllt.
Stakeholderorientierung, Systemhaftigkeit und Stabilität der Corporate Governance in Deutschland
(2006)
Since the time of Germany’s belated industrialisation, corporate governance in Germany has been stakeholder oriented in the dual sense of attaching importance to the interests of stakeholders who are not at the same time shareholders, and of providing certain opportunities for these stakeholders to influence corporate decisions. Corporate governance is also systemic. It is a system of elements that are complementary to each other, and also consistent. In other word, it is composed of elements for which it is important that they fit together well, and in the German case these elements did fit together well until quite recently. Corporate governance as a system is itself an element of the German bank-based financial system at large and possibly even of the entire German business and economic system. Stakeholder orientation of governance is consistent with the general structure this system, and even represents one of its central elements. In retrospect, German corporate governance has also proved to be surprisingly stable. Its fundamental traits date back to the turn from the 19th to the 20th century. There are strong reasons to assume that the systemic features, that is, its complementarity and consistency, have greatly contributed to its past stability. Since about ten years now, there are growing tendencies to question the viability and stability of the German corporate governance system and even the financial system as a whole. One of the central topics in the new debate concerns the stakeholder orientation of the system, which some observers and critics consider as the main weakness of the “German model” under the increasing pressures of globalisation and European integration. As far as their development over time is concerned, systems of complementarity elements exhibit certain peculiarities: (1) They do not adjust easily to changing circumstances. (2) Changes concerning important individual elements, such as the stakeholder orientation of governance, tend to jeopardize the viability and the stability of the entire system. (3) While they appear to be stable, systems shaped by complementary may simply be rigid and tend to break under strong external pressure. “Breaking” means that a system undergoes a fundamental transformation. It seems plausible to assume that the German financial system is already in the middle of such a transformation. It is yet another consequence of its systemic character that this transformation is not likely to be a smooth and gradual process and that it will not lead to a “mixed model” but rather to the adoption of a capital market-based financial system as it prevails in the Anglo-Saxon countries. In such a system, corporate governance cannot be geared to catering to the interests of stakeholders, and an active role for them would not even make any economic sense.
Rentenreform in Russland : heutiger Stand und Entwicklungsperspektiven im internationalen Vergleich
(2006)
Das Rentensystem ist ein wichtiges Element jeder modernen Volkswirtschaft. Heutzutage werden Rentenreformen sowohl in den Industriestaaten als auch in den Transformationsländern diskutiert und praktisch umgesetzt. Jedoch sind die Ursachen bzw. Ziele der Rentenreformen in einzelnen Regionen zu unterscheiden. Während der demographische Wandel in den Industriestaaten zur Notwendigkeit der Erhöhung der Einnahmen bzw. Kürzung der Ausgaben der Rentensysteme geführt hat, kämpfen die Transformationsländer mit den Folgen des sozialistischen Systems der Alterssicherung und den Problemen des Transformationsprozesses. Vor diesem Hintergrund diskutiert diese Arbeit die Notwendigkeit sowie die ersten Schritte der Umsetzung der Rentenreform in Russland, setzt diese in Relation zu den Reformschritten in Lateinamerika und Osteuropa und analysiert die Perspektiven zukünftiger Reformen in Russland.
Wie können Unternehmen bei der Auswahl von Bewerbern zukünftig besser zwischen Quantität und Qualität abwägen? Welche Wege sollten Kandidaten bei der Suche nach ihrem Wunscharbeitgeber einschlagen? Fragen, mit denen sich die Frankfurter Wirtschaftsinformatiker beschäftigen. Das Internet hat in den letzten Jahren die Personalbeschaffung erobert: Viele große und mittlere Unternehmen suchen ihr neues Personal inzwischen überwiegend auf elektronischem Weg. So lassen sich nicht nur die Kosten für das Personalmarketing deutlich reduzieren, auch die Rekrutierungszeiten werden kürzer. Doch gleichzeitig sehen sich die Unternehmen einer wachsenden Flut von Bewerbern gegenüber: Stellensuchende nutzen – verstärkt durch den Druck des Arbeitsmarkts – zunehmend die Chance, ihre Bewerbung über das Internet schnell, kostengünstig und an mehrere Unternehmen gleichzeitig elektronisch zu versenden. Um schnell die relevantesten Bewerber für ausgeschriebene Stellen zu identifizieren, benötigen die Unternehmen entsprechende Tools. Das Team um Wolfgang König und Tobias Keim erforscht innovative Lösungen.
Die Altersvorsorge in Russland - Theoretische Analyse, aktuelle Rahmenbedingungen und ihre Umsetzung
(2005)
Das russische Rentenversicherungssystem befindet sich in der Krise. Wie in einer Vielzahl entwickelter Staaten auch, erodiert die Basis des umlagefinanzierten Rentensystems („Generationenvertrag“) auf Grund des demografischen Wandels. Dies wird verstärkt durch die mangelnde Wirtschaftskraft Russlands. Ausgangspunkt der Diskussion des russischen Rentenmodells in diesem Artikel ist die Darstellung der theoretischen Grundannahmen, die Analyse der aktuellen und zukünftigen Rahmenbedingungen sowie eine Prognose der natürlichen und räumlichen Bevölkerungsbewegung in Russland. Hierauf folgt die Präsentation der gegenwärtigen Situation einschließlich der bereits erfolgten ersten Schritte zu einer umfassenden Neuordnung des Rentenversicherungssystems sowie die Darstellung von „hot steps“ auf dem Weg zu einer nachhaltigen Alterssicherung.
Unter Berücksichtigung der implementationsanalytischen und kausalen Analysen für die Einführungsphase der Vermittlungsgutscheine kommen die Autoren zu dem Schluss, dass die Erprobungsphase dieses arbeitsmarktpolitischen Instruments fortgesetzt werden sollte. Aus der Implementationsanalyse zeigt sich, dass der Verbreitungsgrad des Instruments auch nach 27 Monaten Erprobungsphase sehr gering ist. Die kausalen Analysen beziehen sich aufgrund begrenzter Datenverfügbarkeit lediglich auf zwei Ausgabemonate ein Jahr nach Einführung des Instruments (Mai und Juni 2003) und zeigen geringe positive Beschäftigungseffekte auf der Mikro-Ebene. Ob dadurch die Kosten der Vermittlungsgutscheine gerechtfertigt sind, lässt sich derzeit noch nicht abschließend beurteilen. Anzeichen für Mitnahmeeffekte und/oder Missbrauch existieren. Auch haben erfolgreiche Vermittlungen durch Gutscheine die Beschäftigungschancen in anderen Gruppen geschmälert. Deshalb werden verschiedene Vorschläge für eine kosteneffizientere Ausgestaltung der Vermittlungsgutscheine dargestellt und diskutiert. Insbesondere wird auf die Vorschläge des Bundeskabinetts vom 01.09.2004 eingegangen.
„Bedeutende Finanzplätze“ oder Finanzzentren sind eng abgegrenzte Orte mit einer beträchtlichen Konzentration wichtiger professioneller Aktivitäten aus dem Finanzdienstleistungsbereich und der entsprechenden Institutionen. Allerdings: „Finance is a footloose industry“: Die Finanzbranche kann abwandern, ein Finanzzentrum kann sich verlagern, möglicherweise auch einfach auflösen. Die Möglichkeit der Auflösung und der Abwanderung stellt eine Bedrohung dar, die in der Zeit der Globalisierung und der rasanten Fortschritte der Transport- und der Informations- und Kommunikationstechnik ausgeprägter sein dürfte, als sie je war. Frankfurt ist zweifellos ein „bedeutender Finanzplatz“, und manchen gilt er auch als bedroht. Allein deshalb ist unser Thema wichtig; und auch wenn die Einschätzungen von Bedeutung und Bedrohtheit keineswegs neu sind, ist es doch aktuell. Der Aspekt der Bedrohtheit prägt, wie wir die Frage im Titel verstehen und diskutieren möchten. Was ist ein „bedeutender Finanzplatz“? Selbst wenn man das Attribut „bedeutend“ erst einmal beiseite lässt, ist die Frage keineswegs trivial. Sie zielt ja nicht nur auf eine Begriffsklärung, eine Sprachregelung ab. Hinter dem Begriff steht oft auch eine Vorstellung vom „Wesen“ dessen, was ein Begriff bezeichnet. Also: Was macht einen Finanzplatz aus? Und weiter: Warum gibt es überhaupt Finanzplätze als beträchtliche Konzentrationen von bestimmten wichtigen Aktivitäten und Institutionen? Welche Kräfte führen - oder zumindest führten - zu der räumlichen Konzentration der Aktivitäten und Institutionen, wie wirken diese Kräfte, und wie ändern sie sich gegebenenfalls? Diesen Fragen ist dieser Beitrag im Wesentlichen gewidmet, und sie prägen seinen Aufbau. Im Abschnitt II wird diskutiert, was ein „bedeutender Finanzplatz“ ist oder woran man ihn erkennt und „was er braucht“. Im Abschnitt III gehen wir zuerst auf die Frage nach der in letzter Zeit unter dem Stichwort „the end of geography“ heftig diskutierten Vorstellung einer Auflösung oder Virtualisierung der Finanzplätze ein – nicht weil dies die wichtigere Bedrohung wäre, sondern weil es die grundlegendere Frage darstellt. Dann diskutieren wir den Wettbewerb von Finanzplätzen in Europa. Den Abschluss bilden Überlegungen zu den Perspektiven des Finanzplatzes Frankfurt und der möglichen Förderung seiner Entwicklung.
Inflation hat in den letzten Jahren weltweit erheblich an Popularität eingebüßt. Galten noch in den 1960er und 1970er Jahren moderate Inflationsraten von 5 bis 10 Prozent als wachstums- und beschäftigungsfördernd, so ist es mittlerweile in Politik und Wissenschaft nahezu unstrittig, dass Inflation vor allem volkswirtschaftliche Kosten verursacht und deshalb Preisstabilität das vorrangige Ziel moderner Geldpolitik sein muss. So sieht insbesondere die in Frankfurt ansässige Europäische Zentralbank (EZB) ihre Hauptaufgabe darin, die jährliche Inflationsrate in der Eurozone unter 2 Prozent zu halten. Klettert die Inflationsrate nur wenige Dezimalpunkte über diesen Zielwert, muss mit Zinserhöhungen und einer restriktiven Geldpolitik der Zentralbank gerechnet werden. Diese Geldpolitik i s t gerechtfertigt, wenn bereits niedrige Inflationsraten messbare realwirtschaftliche Effekte besitzen. Eine Studie der Professur für Empirische Makroökonomie untersucht deshalb den Einfluss von Inflation auf die Variabilität der relativen Preise.
Kapitalmarktorientierte Risikosteuerung in Banken : Marktwertsteuerung statt Marktzinsmethode
(2005)
In diesem Beitrag wird das Konzept der Marktzinsmethode als Grundlage der dualen Risikosteuerung von Kredit- und Marktpreisrisiken in Frage gestellt. Die Kreditrisiken einer Bank implizieren bonitätsinduzierte Marktpreisrisiken und bankspezifische Refinanzierungskosten. Während die bonitätsinduzierten Marktpreisrisiken in der dualen Risikosteuerung keine Berücksichtigung finden, werden die bankspezifischen Refinanzierungskosten zwar erkannt, aber bankintern nicht verursachungsgerecht zugeordnet. Das Grundmodell der Marktzinsmethode bietet keine Lösungsansätze zur Behebung dieser Probleme. Demgegenüber lassen sich die Fehlsteuerungsimpulse von vornherein durch eine konsequente Marktbewertung (Mark to Market) aller Finanzinstrumente vermeiden. Als Ausblick werden erste Überlegungen zur Implementierung einer umfassenden Marktwertsteuerung in Banken entwickelt und exemplarisch ein hierfür geeignetes Bewertungsmodell vorgestellt.
To resolve the IPO underpricing puzzle it is essential to analyze who knows what when during the issuing process. In Germany, broker-dealers make a market in IPOs during the subscription period. We examine these pre-issue prices and find that they are highly informative. They are closer to the first price subsequently established on the exchange than both the midpoint of the bookbuilding range and the offer price. The pre-issue prices explain a large part of the underpricing left unexplained by other variables. The results imply that information asymmetries are much lower than the observed variance of underpricing suggests.
Seit der Einführung des Deutschen Corporate Governance Kodex (Kodex) im Jahr 2002 sind deutsche börsennotierte Unternehmen zur Abgabe der Entsprechenserklärung gemäß § 161 AktG verpflichtet (Comply-or-Explain-Prinzip). Auf der Basis dieser Information soll durch den Druck des Kapitalmarkts die Einhaltung des Kodex überwacht und gegebenenfalls sanktioniert werden. Dabei wird regelmäßig postuliert, dass bei überdurchschnittlicher Befolgung bzw. Nichtbefolgung der Kodex-Empfehlungen eine Belohnung durch Kurszuschläge bzw. eine Sanktionierung durch Kursabschläge erfolgt. Die Ergebnisse einer Ereignisstudie zeigen, dass die Abgabe der Entsprechenserklärung keine erhebliche Kursbeeinflussung auslöst und die für das Enforcement des Kodex angenommene (und erforderliche) Selbstregulierung durch den Kapitalmarkt nicht stattfindet. Es wird daher kritisch hinterfragt, ob der für den Kodex gewählte und grundsätzlich zu begrüßende flexible Regulierungsansatz im System des zwingenden deutschen Gesellschaftsrechts einen geeigneten Enforcement-Mechanismus darstellt. This paper studies the short-run announcement effects of compliance with the German Corporate Governance Code (‘the Code’) on firm value. Event study results suggest that firm value is unaffected by the announcement, although such market reactions to the first time disclosure of the declaration of conformity were widely assumed by the private and public promoters of the Code. This result from acceptance of the German Code add evidence to the hypothesis that regulatory corporate governance initiatives that rely on mandatory disclosure without monitoring and enforcement are ineffective in civil law countries.
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.
Eine bedeutende Stelle der betrieblichen Funktionen nimmt die Beschaffung der Ware am Markt ein. Die Organisation des Beschaffungswesens ist dabei integraler Bestandteil der Unternehmensstrategie und führung. Die Beschaffung im engeren Sinne umfasst dabei den Einkauf von Anlagegütern, Roh-, Hilfs- und Betriebsstoffen, Fertigwaren sowie von Dienstleistungen (z. B. Transportleistungen) und Rechten (z. B. Lizenzen aus Patenten). Die Beschaffung ist neben der Produktions- und Absatzfunktion einer der Hauptbereiche betrieblicher Planung und Leistungserstellung [Bichler/Krohn 2001]. Die Hauptaufgabe des Einkaufs im Industrieunternehmen besteht in der Beschaffung von Materialen und Teilen nach den von den zuständigen Fachabteilungen vorgegebenen Qualitätsvorschriften, zu günstigen Konditionen und zum richtigen Zeitpunkt, wodurch die termingerechte Produktion sicher gestellt werden kann. Eine weiterführende Aufgabe des Einkaufs besteht in einer Analyse des Beschaffungsmarktes sowie in der Aufbereitung und Weitergabe von Informationen an den Vertrieb. Es sind die Hersteller auf dem Markt zu suchen und zu katalogisieren, welche die entsprechenden Materialien in gleich bleibender Qualität und zu günstigen Preisen liefern können [Bichler/Krohn 2001]. Die Organisation des Einkaufsprozesses stellt einen bedeutenden Problemfokus für die Unternehmensleitung dar. Gegenstand dieser Untersuchung ist die Fragestellung, wie sich Einkaufgenossenschaften im Bibliothekswesen optimal bilden sollen. Die Frage der Optimalität muss dazu zunächst präzisiert werden und wird vor dem Hintergrund verschiedener Zielsetzungen näher diskutiert. Einkaufsgenossenschaften und verbünde finden sich in der Praxis immer häufiger und stellen probate Mittel dar, die Kosten für den Bezug von nötigen Betriebsmaterialen nachhaltig zu senken. Im Sektor der wissenschaftlichen Informationsversorgung können seit einigen Jahren im Bereich der elektronischen Informationsressourcen ebenfalls Einkaufsverbünde in Form von Bibliothekskonsortien beobachtet werden. Ziel dieser Genossenschaften ist es, gemeinsam Lizenzen für elektronische Informationen zu erwerben. Die derzeitige Bezugspraxis zeigt, dass Konsortien überwiegend regional ausgerichtet sind und weniger auf thematischer Ebene agieren. Auch die Größe sowie Nachfragestruktur und intensität finden weitestgehend noch keine Beachtung. Diese Arbeit untersucht Vor- und Nachteile von Einkaufgenossenschaften und diskutiert verschiedene Entscheidungsmodelle zur Bestimmung einer optimalen Konsortialstruktur vor dem Hintergrund der derzeitig gegebenen Marktstrukturen im Sektor der wissenschaftlichen Informationsversorgung.
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
Thema dieser Arbeit ist eine ökonomische Einordnung der Förderung der beruflichen Weiterbildung (FbW) als Teil der Aktiven Arbeitsmarktpolitik in Deutschland. Die Analyse erfolgt im Lichte des sektoralen Wandel, der Verschiebung der qualifikatorischen Arbeitsnachfrage und der vorrauszusehenden Produktivitätseffekte im Zusammenhang mit einer alternden Gesellschaft. Auf Basis der Humankapitaltheorie wird zunächst theoretisch erörtert, inwieweit sich FbW als Teil der Aktiven Arbeitsmarktpolitik aus Effizienz- und Verteiliungsgesichtspunkten rechtfertigen lässt und in welcher Form FbW sinnvoll sein kann.
Unter dem Stichwort "Patchwork-Biografien" wird die Tatsache, dass ein großer Teil der abhängig Beschäftigten ihren erlernten Beruf nicht mehr ausüben, in jüngster Zeit viel diskutiert. Diese Studie liefert einen empirischen Beitrag zur Anatomie der Berufswechsel für westdeutsche Männer auf Basis der BIBB/IABDaten 1998/1999. Als Grundlage für die empirische Analyse wird ein theoretisches Modell der Wahl zwischen horizontal differenzierten Berufen entwickelt. Die wichtigsten Ergebnisse sind: Ex post beobachtete Berufswechsel hängen negativ vom Durchschnittslohn im Ausbildungsberuf und positiv vom Durchschnittslohn im Erwerbsberuf ab. Der deskriptiv beobachtete durchschnittliche Entlohnungseffekt eines Berufswechsels ist signifikant positiv, verstärkt sich noch, wenn für den Ausbildungsberuf kontrolliert wird, und ist demgegenüber signifikant negativ, wenn für den Erwerbsberuf kontrolliert wird. Der geschätzte kausale durchschnittliche Entlohnungseffekt ist positiv. Die Ergebnisse sind insgesamt damit konsistent, dass Berufswechsel vor allem damit zusammenhängen, dass Beschäftigte im neuen Erwerbsberuf größere Verdienst- und Karrierechancen wahrnehmen können. JEL - Klassifikation: J62 , J31 , J24 , C21
Der Bestimmung risikoadäquater Diskontierungssätze kommt bei der Unternehmensbedeutung eine zentrale Bedeutung zu. Wird zu deren Bestimmung in der praktischen Anwendung das CAPM verwendet, gilt es dabei, risikolose Zinssätze und Risikoprämien zu bestimmen, für die erwartete Renditen des Marktportfeuilles und Beta-Faktoren als Maßgrößen für das systematische Risiko benötigt werden. Passend zu den zu bewertenden erwarteten Überschussgrößen sollten auch die zur Diskontierung verwendeten Renditeforderungen die im Bewertungszeitpunkt erwarteten künftigen Renditen vergleichbarer Anlagen widerspiegeln. Die weitaus meisten Beiträge zur Operationalisierung des CAPM leiten die Renditeforderungen jedoch aus historischen Kapitalmarktrenditen ab. Wir zeigen in diesem Beitrag auf, wie erwartete künftige Renditen aus beobachtbaren Größen, vor allen den Zinsstrukturkurven und den beobachtbaren Analystenprognosen, zukunftsorientiert abgeleitet werden können. Damit wird eine konzeptionell schlüssigere Bewertung der im Bewertungszeitpunkt erwarteten künftigen Überschüsse mit den zeitgleich erwarteten künftigen Renditen ermöglicht.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.
Krieg, das haben wir von den Massenmedien gelernt, ist nur dort, wo jemand zusieht, das spectaculum bedarf des Mediums. Mediale Aufmerksamkeit bestimmt darüber, ob Kriege und ihre Folgen überhaupt noch von jemand anderem wahrgenommen werden als von den unmittelbar Betroffenen. Manipulationen über die Nachrichten vom Krieg sind so alt wie das Kriegswesen, nur tritt heute neben die Manipulation das Ringen um die knappe Währung Aufmerksamkeit. Längst haben wir uns an bizarre Mitteilungen wie die gewöhnt, der Afghanistan- Krieg sei der erste des neuen Jahrtausends gewesen, während dauerhaft schwelende Kriegsherde der Welt unbeachtet bleiben. Und längst ringen die Siegessicheren darum, dass sie ihren Krieg vor allem medial gewinnen – das andere ist gar nicht so wichtig. Um all dies geht es Thomas Scharff in seiner Habilitationsschrift eigentlich gar nicht. Eigentlich. Dennoch ist er mit seiner Analyse von Texten über den Krieg der Karolinger ganz nah dran am 21. Jahrhundert. Nicht warum Krieg geplant, geführt und wie er gewonnen wird, sondern das Schreiben der "Intellektuellen" über Krieg, der Krieg als Thema – das ist Scharffs erklärtes Vorhaben. Nach Politik und Sozialgeschichte soll nun die Historiographiegeschichte den Blick auf neue Facetten eröffnen. ...
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We analyzed two possible signing approaches (server based and client based signatures) and conclude that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. We also present some of the constraints that still have to be addressed before qualified mobile signatures are possible.
Mit dieser Arbeit ist gezeigt worden, wie vielfältig die Produkte bzw. Dienste im Mobilfunkbereich sind. Der eigentliche Schwerpunkt lag auf der Fragestellung, wie die Mobilfunk-Dienste im Internet bepreist werden. Die Untersuchung der verschiedenen Mobilfunktarife im Internet hatte das Ziel, die grundlegenden Preisparameter für diese Tarife zu identifizieren, zu diskutieren und zu modellieren. Das oberste Ziel bei der Modellierung war die Erstellung eines flexiblen Tarif- und Abrechnungsmodells. Zu diesem Zweck wurden die Vorteile, die XML-Schema und XML-Netze bieten, zum Ausdruck gebracht. Dabei wurde das methodische Vorgehen in den Vordergrund gestellt und nicht die Abbildung des tatsächlichen Marktgeschehens. Zunächst wurde in dieser Arbeit kurz das Internet und die speziellen Eigenschaften des Internets behandelt. Dabei wurde festgestellt, dass sich das Internet auf Grund seiner Eigenschaften besonderes für digitale Produkte eignet. Die digitalen Produkte und deren Eigenschaften wurden untersucht und daraus ergab sich, dass die digitalen Produkte eine vorteilhafte Kostenstruktur aufweisen; nämlich vernachlässigbar niedrige Reproduktionskosten. Unter anderem ist festgestellt worden, dass für die Nutzung der digitalen Produkte für Konsumenten deren Verbreitungsgrad wichtig ist. Gerade hier kann das Internet dank seiner Eigenschaften diese Anforderung besser als ein anderer Vertriebskanal unterstützen. Schließlich lassen sich aus dem Zusammenspiel der Interneteigenschaften und der Merkmale der digitalen Güter gewisse ökonomische Gesetzmäßigkeiten ableiten. Diese verschaffen einem Unternehmen langfristig Vorteile gegenüber der Konkurrenz. Der Schwerpunkt dieser Arbeit liegt aber bei einer speziellen Gruppe der digitalen Produkte, nämlich der Produkte bzw. Dienste im Mobilfunkbereich. Mobilfunk ist eine wichtige und weitverbreitete Art der Mobilkommunikation. Auf dem deutschen Mobilfunkmarkt wurde gerade die 4. Generation der Mobilfunkstandards – UMTS - eingeführt. Allerdings wird UMTS noch einige Zeit brauchen, um sich auf dem Markt richtig zu etablieren. Damit bleibt der GPRS immer noch der führende Standard auf diesem Markt. Der meist genutzte Dienst im Mobilfunk ist immer noch der „Sprach-Dienst“. Der Mobilfunk bietet neben der „Sprache“ eine ganze Reihe weiterer Dienste an. Durch die neuen Technologien ist der Trend in Richtung Datenübertragung über Mobilfunk stark am Aufholen. Die zur Verfügung stehenden Dienste hängen mit den Mobilfunkstandards zusammen. Daher ist es möglich, dass bei der Änderung der Standards auch die zur Verfügung stehenden Dienste angepasst werden. Ein wichtiger Punkt am Bespiel von Mobilfunk als digitales Produkt bzw. Dienstleistung war die Wahl der richtigen Preisstrategie. Die meisten Netzbetreiber entschieden sich für die Strategie differenzierter Preise. Damit können sie unterschiedliche Zahlungsbereitschaften ihrer Kunden relativ gut ausschöpfen. Hierzu wurden die Vielfältigkeit der Möglichkeiten und die Vorteile, die die Preisdifferenzierungsstrategie anbietet, dargestellt. Der sich anschließende Hauptteil dieser Arbeit ist die Parametrisierung und die Modellierung des Mobilfunktarifs und dessen Abrechnungssystems. Zur Modellierung wurden XML-Schema und XML-Netze gewählt. Das XML-Schema ermöglicht flexible Erstellung, Anpassung und Erweiterung von Tarifelementen. Außerdem ermöglicht XML Datenaustausch über Plattform unabhängige Protokolle. Die XML-Netze bieten durch ihre graphische Darstellung die Visualisierung der Abläufe und der ablaufrelevanten Daten. Die aktuellen Zustände können aufgezeigt, simuliert und analysiert werden. Außerdem ermöglichen sie die gute Umstrukturierung, Anpassung und Erweiterung des Abrechnungsprozesses. Bei der Erstellung des Abrechnungsmodells wurde von den Hauptbestandteilen eines beliebigen Abrechnungsmodells ausgegangen. Anschließend sind diese Bestandteile an die Anforderungen des Abrechnungsmodells für Mobilfunkverträge angepasst worden. Die jeweiligen Abrechnungsparameter wurden, wie z.B. Tarifdaten, mit der modifizierten XMLSchema dargestellt. Die Tarifdaten stellen die Vielfältigkeit der Parameter dar, die die Preise eines Mobilfunktarifes beeinflussen. Die Preisparameter wurden nach eingehender Untersuchung verschiedener Tarife181 der vier Netzbetreiber identifiziert. Dabei fiel auf, dass die Netzbetreiber in der Regel von vergleichsweise ähnlichen Parametern ausgingen. Damit haben auch die Tarife ähnliche Strukturen. Weiterhin führen stark differenziert Preise dazu, dass man nicht vom „schlechtesten“ oder vom „besten“ Tarif sprechen kann. Im Prinzip gibt es nur den „besten“ Tarif für ein bestimmtes Nutzungsverhalten. Außer Sprachkommunikation wurden in der Arbeit auch andere Kommunikationsarten vorgestellt. Dabei wurde eine neue Art des Bepreisens angesprochen, nämlich das Bepreisen nach Dienstqualität. Die darauf basierenden Preisstrukturen werden zukünftig sicherlich eine große Rolle spielen, da sie sich insbesondere für Dienste eignen, die vom UMTS unterstütz werden.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
Ziel dieser Präsentation (anlässlich des Seminars „Die Auswirkungen von Asset Securitisation auf die Stabilität des Finanzmarktes“ Österreichische Nationalbank (ÖNB), Wien 1. Oktober 2003) ist es, eine Verbindung zwischen Verbriefung und Finanzmarkstabilität unter Berücksichtigung veränderter Finanzintermediation herzustellen. In der folgenden Abhandlung soll nun zunächst auf die Natur der Verbriefung per se eingegangen werden, um sodann anhand theoretischer Überlegungen und empirischer Beobachtungen mögliche Quelle systemischen Risikos in der Kreditverbriefung aufzuzeigen. In diesem Fall handelt es sich um die Informationsasymmetrien und die durch Handelbarkeit von Kreditrisiko bestimmte Transaktionsstruktur („security design“), die bei regulatorischer Nichtberücksichtigung eine destabilisierende Wirkung nicht nur im Bereich der Verbriefung, sondern auch hinsichtlich der gegenseitigen Zahlungsverpflichtungen von Finanzintermediären begründen könnte.
Das Firmenkundensegment und die Präsenz auf den internationalen Märkten für gewerblichen Hypothekarkredit und der Finanzierung öffentlicher Haushalte gewinnen für die deutschen Hypothekenbanken bis zum Jahr 2007 erheblich an Bedeutung, so das Ergebnis eines Forschungsprojekts der Goethe-Universität Frankfurt. Die Immobilienfinanziers werden ihre Geschäftsbeziehungen zu Unternehmen in den nächsten fünf Jahren sowohl qualitativ als auch räumlich ausbauen. Real Estate Investment Banking und Expansion ins Ausland stehen auf der strategischen Agenda der Hypothekenbanken ganz oben.
Im Rahmen einer Ereignisstudie am deutschen Kapitalmarkt wird untersucht, ob Adhoc- Mitteilungen korrekt eingesetzt werden. Die Ergebnisse belegen, daß Nemax-50-Unternehmen die Veröffentlichung potentiell positiver Meldungsinhalte bevorzugen und die Bekanntmachung negativer Mitteilungen verzögern. Außerdem veröffentlichen Nemax-50-Werte in positiven Marktphasen besonders viele Mitteilungen und einen besonders hohen Anteil an positiven Meldungsinhalten, um von der positiven Stimmung der Marktteilnehmer zu profitieren. Dax-30-Werte verhalten sich dagegen regelgerecht. Die Befunde belegen die Notwendigkeit einer stärkeren Überwachung des Veröffentlichungsverhaltens der Emittenten, die in 2002 am Neuen Markt gelistet waren.
Die zunehmende Monopolisierung auf dem Markt für Informationsressourcen im akademischen Sektor führte in den vergangenen Jahren zu einer verstärkten Bildung von Bibliothekskonsortien auf der Abnehmerseite, die einen Gegenpol in Form einer Einkaufsgenossenschaft darstellen sollten [McCa02]. Diese Tendenzen lassen sich in verschiedenen Ländern wie etwa in Deutschland, England, der Schweiz und der Niederlande beobachten [Okerso]. In den USA sind Konsortien eher selten zu finden; das größte Konsortium ist hier OHIO-Link (http://www.lib.ohio-state.edu/). In Deutschland richten sich die meisten Konsortien wegen der föderalen Finanzierungsstrukturen regional aus; überregionale bzw. deutschlandweite Konsortien sind derzeit noch selten. Ein Zusammenschluss auf thematischer Grundlage findet derzeit so gut wie gar nicht statt, vielmehr werden möglichst viele Bibliotheken in Konsortien unabhängig von den an den jeweiligen Standorten betriebenen Forschungsschwerpunkten eingebunden [AnDe02]....
Der folgende Beitrag geht der Frage nach, wie die Verteilung von Entscheidungs- und Handlungsrechten in Unternehmen im Rahmen der Corporate Governance ausgestaltet werden kann. Im Zentrum der Überlegungen steht die Frage, welcher der am Unternehmen beteiligten Interessengruppen diese Rechte sinnvollerweise zukommen sollten. Insbesondere die beiden polaren Systeme - das auf dem Shareholder-Value-Primat aufbauende System einer ausschließlich im Interesse der Aktionäre geführten Unternehmung auf der eine Seite - und einem Corporate Governance-System, das die Interessen aller am Unternehmen beteiligten Stakeholder berücksichtigt, auf der anderen Seite - werden geschildert und mit den Mitteln der ökonomischen Theorie bewertet. Spezifische Investitionen möglicher Stakeholder und die Institutionen und Mechanismen, die eine Absicherung der daraus entstehenden ökonomischen Renten für die jeweiligen Stakeholder erlauben, sind damit wichtige Bestimmungsparameter für die Unternehmensverfassung. Insbesondere die Existenz und Güte von Märkten innerhalb des Finanzsystems, in dem ein Unternehmen tätig ist, lassen das ein oder das andere Corporate Governance-System vorteilhafter erscheinen. Überlegungen zu anderen möglichen Mechanismen, die auf der internen Organisation von Unternehmungen basieren und dadurch eine Feinsteuerung von Entscheidungs- und Handlungsrechten - und der damit verbundenen Machtverteilung zwischen den Interessengruppen im Unternehmen - erlaubt, schließen die Arbeit ab.
Die durch jahrzehntelange Planwirtschaft geprägten Strukturen sind in Russland noch fest verwurzelt. Dementsprechend ist das Bankensystem auch zwölf Jahre nach dem Ende des kommunistischen Regimes unterentwickelt. Die markantesten Merkmale der Finanzwirtschaft sind die ungewöhnliche Größenstruktur der Banken; deren Schwierigkeiten, die rapide zunehmende Zahl kleinster, kleiner und mittlerer Unternehmen mit Finanzdienstleistungen zu versorgen sowie die geringe Rolle ausländischer Banken. Überdies sind die weiterhin bestehenden Systemrisiken nicht zu unterschätzen.
Elektronische Informationsressourcen, wie beispielsweise elektronische Zeitschriften und Datenbanken, gewannen in den letzten Jahren zunehmend an Bedeutung im Feld der akademischen Literaturversorgung. Mit diesem Trend einhergehend konnten Veränderungen der Bezugspraxis bei Bibliotheken einerseits und neue Preis- und Geschäftsmodelle bei Verlagen andererseits beobachtet werden. Neben der bequemeren Nutzbarkeit für die Leser bietet das neue Medium auch neue Formen des Kostencontrollings und der Optimierung für die Abnehmer. Dieser Workshop soll sich mit der Frage der Kostenrechnung und -verteilung für Konsortien für elektronische Informationsressourcen insbesondere eJournals beschäftigen. Dabei werden die neuen Möglichkeiten der Nutzungsmessung besonders berücksichtigt. Neben den theoretischen Ansätzen werden auch konkrete Beispielrechnungen durchgeführt und die Praktikabilität für die Umsetzung in der Praxis im besonderen Maße diskutiert.
Diese Arbeit untersucht empirisch den Zusammenhang von Beschäftigung und Lohnstrukturen zwischen sowie innerhalb von Qualifikations- und Altersgruppen. Zunächst werden Substitutionselastizitäten zwischen Qualifikations- und Altersgruppen geschätzt und die Lohnveränderungen bestimmt, die notwendig gewesen wären, um im Jahre 1997 die qualifikationsspezifischen Arbeitslosenquoten zu halbieren. Die geschätzten Substitutionselastizitäten sind sehr hoch. Die notwendige Lohnreduktion liegt nominal zwischen 9% und 10,6% und fällt umso höher aus, je geringer die Qualifikation der Arbeitnehmergruppe ist. Der zweite Teil der Arbeit befasst sich mit dem Zusammenhang zwischen residualer Lohnungleichheit und Beschäftigungsdynamik. Es werden konkurrierende Implikationen aus der Theorie der Grenzproduktivitätsentlohnung und der Suchtheorie abgeleitet und empirisch untersucht. Die Ergebnisse sind für keine der beiden Theorien überzeugend. Das robuste Ergebnis einer signifikant positiven Korrelation zwischen dem Niveau der Arbeitslosenquote und der residualen Lohnungleichheit legt allerdings nahe, dass Suchfriktionen zur Erklärung der residualen Lohndispersion beitragen können. JEL - Klassifikation: J31 , J21 , E24 , J64
Der "Generationenvertrag" der gesetzlichen Rentenversicherung hat die Grenzen seiner Leistungsfähigkeit erreicht. Damit ist die "erste Säule" der Alterssicherung, die auf diesem Umlageverfahren basiert, ins Wanken geraten. Schuld daran ist die zunehmende Überalterung der Gesellschaft, aber auch die anhaltend hohe Arbeitslosigkeit, die zu enormen Beitragsausfällen führt. Schon heute sind die Rentenzahlungen nur noch zu rund 75 Prozent durch die Sozialversicherungsbeiträge der arbeitenden Bevölkerung gedeckt, der Rest muss – ähnlich wie bei den Beamtenpensionen – aus dem allgemeinen Steueraufkommen finanziert werden. Das birgt vor allem für die jungen Beitragszahler substanzielle Risiken. Angesichts dieser Perspektiven sind immer weniger junge Menschen bereit, steigende Rentenbeiträge bei stetig sinkenden Leistungen zu akzeptieren. Kann die kapitalgedeckte Alterssicherung diese Defizite auffangen? Wie lassen sich die vielfältigen Konzepte der privaten Alterssicherung bewerten?
Ist Quantität in der Historiographie ein Argument? Oder ist die Menge von Nachweisen, zumal in Zeitaltern, für diemit zahlreichen Überlieferungszufällen zu rechnen ist, gerade ein oberflächlich verführerisches und trügerisches Argument? Beide Fragen brennen Mediävisten schon seit langem unter den Nägeln, wenngleich sie sich nicht nur bei Epochen mit raren materiellen Überresten stellen sollten. Wie viele Belege brauchen wir für die Richtigkeit einer historischen These? Wie sollen wir wissen, welches Gewicht eine singuläre Quelle hat? Wenn diese Fragen zugleich implizieren, dass man sich über Statistiken hinwegsetzen könnte, dann werden sie zu gefährlichen Fragen. Deren Virulenz wird in der Mediävistik und anderswo für gewöhnlich durch das Anlegen fachspezifischer Korsette und das Eintrainieren professioneller Betäubungstechniken bereits in der Sozialisationsphase effizient eingedämmt: Beliebt dafür sind das Erlernen eines strengen Puzzlespiels in der Quellenexegese, ritualisierte Logik, rhetorische Nonchalance und – besonders verhängnisvoll in Bereichen der Wirtschaftsgeschichte – der Hinweis auf die Existenz ökonomisch-theoretisch unbezweifelbarer Zusammenhänge, die auf die Aufdeckung durch besonders talentierte Spürnasen nur zu warten scheinen. ...
Die vorliegende Arbeit beleuchtete ein bisher in der Finanzwissenschaft weitgehend unbeachtetes Thema.: die Ausgaben für staatliches Personal. Der Fokus lag dabei auf den von den acht westdeutschen Flächenländern getätigten Ausgaben. Ziel war es, Gemeinsamkeiten und Unterschiede in der Entwicklung, der Höhe und der Struktur der Personalausgaben über einen Zeitraum von 26 Jahren, von 1970 bis 1996, herauszuarbeiten. Weiterhin wurden die insbesondere seit Mitte der neunziger Jahre verstärkten Aktivitäten der Länder zur Begrenzung bzw. dem effizienteren Einsatz der Personalausgaben untersucht. ...
In diesem Beitrag zur Frage nach dem Ausmaß von Einkommensarmut von Familien stehen zwei Aspekte im Mittelpunkt. – Zum einen ist im Vorfeld von Verteilungsanalysen die Art der Einkommensgewichtung in Mehrpersonenhaushalten zu klären. Nach Abwägung verschiedener Ansätze zur Ableitung einer Äquivalenzskala wurde eine Präferenz für ein institutionell orientiertes Gewichtungsschema, approximiert durch die alte OECD-Skala, begründet. – Zum anderen wurde der Einfluss der Frauenerwerbsbeteiligung auf die Einkommenssituation von Familien mit Kindern empirisch untersucht. Von prekären Einkommensverhältnissen und Einkommensarmut sind vor allem Familien mit geringfügig beschäftigter oder nichterwerbstätiger Partnerin sowie Alleinerziehende – Letztere wiederum bei fehlender Erwerbstätigkeit besonders stark – betroffen, wobei in den neuen Ländern die Situation wesentlich brisanter ist als in den alten Ländern. Bei politischen Maßnahmen sollten Erwerbswünsche der Frauen und Bedürfnisse der Familien berücksichtigt werden. Von daher sind Transfers im Rahmen des Familienleistungsausgleichs und die öffentliche Förderung von Kinderbetreuungseinrichtungen nicht als konkurrierende, sondern eher als komplementäre Konzepte zu diskutieren.
Die Entwicklung des aggregierten Privatvermögens und seine Verteilung in Deutschland seit 1970
(2002)
Die hier vorgestellte Untersuchung des Vermögens privater Haushalte als ein möglicher Indikator für den Wohlstand einer Gesellschaft hat für die Bundesrepublik Deutschland einen starken Anstieg der Vermögen seit 1970 aufgezeigt. Dies gilt sowohl für die makroökonomischen Resultate der Finanzierungsrechnung der Deutschen Bundesbank als auch für die mikroökonomischen Ergebnisse der Einkommens- und Verbrauchsstichproben des Statistischen Bundesamts. Allerdings werden auch wesentliche Unterschiede im Aussagegehalt der einzelnen Datensätze deutlich. Während die Finanzierungsrechnung eine Steigerung des Nettovermögens um 808 Prozent in 27 Jahren aufweist (von 1,3 Billionen DM im Jahr 1970 auf 12,1 Billionen DM im Jahr 1997) lautet der entsprechende Prozentwert auf der Berechnungsbasis der Einkommens- und Verbrauchsstichproben nur 280 Prozent in 25 Jahren bei einer wesentlich niedrigeren Gesamthöhe in späteren Untersuchungen (von 2,2 Billionen DM im Jahr 1973 auf nur 8,3 Billionen DM im Jahr 1998). Die Untersuchung der Daten der EVS hat aufgezeigt, welch große Bedeutung das Immobilienvermögen für die Vermögenssituation der privaten Haushalte hat. Allerdings ist es nicht so, dass alle Haushalte über Eigentum an Grund- und Hausbesitz verfügen. In Westdeutschland hat es zwar eine starke Steigerungen der Eigentümerquote seit 1961 gegeben. Seit 1993 ist jedoch eine Stagnation bei etwa 50 Prozent zu konstatieren. Die Analyse der Vermögensverteilung nur bezogen auf die westdeutschen Haushalte hat im Zeitraum von 1973 bis 1993 eine abnehmende Konzentration sowohl bei der Betrachtung der Anteile einzelner Haushaltsquintile am Nettogesamtvermögen als auch bei der Analyse des Gini-Koeffizienten ergeben. Allerdings hat sich dieser Trend in den Jahren bis 1998 nicht weiter fortgeführt. Für das Jahr 1998 ist in Westdeutschland feststellbar, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil über 60 Prozent des Gesamtvermögens aufweisen kann. Für Ostdeutschland sind starke Anpassungstendenzen hin zu den Werten der westdeutschen Bundesländer festzustellen. Dies betrifft einerseits die absolute Höhe der Vermögenswerte, auch wenn diese bisher nur 38 Prozent des entsprechenden Wertes westdeutscher Haushalte bei einer Betrachtung der Durchschnittswerte je Haushalte im Jahr 1998 erreichen. Andererseits ist auch die Eigentümerquote an Haus- und Grundbesitz nach der Wiedervereinigung stark angestiegen. Durch dieses Immobilieneigentum auf breiterer Basis wird die Ungleichheit der Vermögensverteilung in Ostdeutschland im Zeitablauf etwas verringert, so dass der Gini-Koeffizient in den Jahren von 1993 zu 1998 leicht gesunken ist. Jedoch kann auch für die neuen Bundesländer festgestellt werden, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil ostdeutscher Haushalte sogar über 70 Prozent des Gesamtvermögens aufweisen kann. Feststellbar ist weiterhin eine hohe Übereinstimmung der Vermögensverteilung in Ost- und Westdeutschland. Sowohl die Vermögensverteilung auf der Basis der Quintilswerte als auch die Resultate der Gini-Koeffizienten weisen ähnliche Ergebnisse auf, wobei eine starke Angleichungstendenz zwischen beiden Landesteilen gegeben ist. Diese Ähnlichkeit der Ergebnisse kann nur als erstaunlich bezeichnet werden, wenn man bedenkt, dass beide Landesteile für über 40 Jahre unterschiedlichen wirtschaftspolitischen Leitbildern gefolgt sind – die Bundesrepublik Deutschland der sozialen Marktwirtschaft und die Deutsche Demokratische Republik der sozialistischen Planwirtschaft.
Elektronische (digitale) Zeitschriften spielen seit mehreren Jahren eine zunehmend wichtigere Rolle in der Informationsversorgung von Wissenschaft und Forschung. Während jedoch die Nutzungsformen sich so gut wie vollständig an den Standards des www mit all seinen Vorzügen orientieren, sind die Preisbildungsmechanismen noch stark an der Welt der gedruckten Zeitschriften orientiert. Sie unterliegen allerdings zur Zeit einem erheblichen Wandel, ohne dass erkennbar wäre, welche Preisstrukturen zukünftig den Markt bestimmen werden. Das seit November 2001 laufende DFG-Projekt "Perspektiven für den Bezug elektronischer Informationsressourcen in der Bundesrepublik Deutschland" hat sich zum Ziel gesetzt, die Marktsituation für elektronische Informationsversorgung im hochschulischen Bereich zu analysieren und davon ausgehend Perspektiven abzuleiten. In einer ersten Phase sollen zunächst die Nutzungsgewohnheiten seitens der Wissenschaftler und Studierenden untersucht werden. Die Ergebnisse werden in der vorliegenden Arbeit exemplarisch aufgezeigt, eine detaillierte Nutzungsanalyse wird zu einem späteren Zeitpunkt veröffentlicht.
Diese Arbeit gibt einen Überblick der Konzeption und der Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Die rechtliche Grundlage der AAMP stellte von 1969 bis 1997 das Arbeitsförderungsgesetz (AFG) dar. 1998 wurde dieses durch das Sozialgesetzbuch (SGB) III abgelöst. Während das AFG noch unter Bedingungen der Vollbeschäftigung eingeführt wurde und auch eine generelle Verbesserung der Funktionsweise des Arbeitsmarktes vorsah, erfolgte im Zeitablauf eine stärkere Ausrichtung der AAMP auf die Wiedereingliederung von Problemgruppen in den Arbeitsmarkt. Das SGB III stellt die Eingliederung von Arbeitslosen in reguläre Beschäftigung in den Mittelpunkt. Obwohl das SGB III in Ansätzen eine Erfolgskontrolle der AAMP vorsieht und trotz der hohen fiskalischen Kosten (43 Mrd. DM im Jahr 2001) fehlt bisher eine umfassende Evaluation der Wirkungen der AAMP unter Berücksichtigung der Kosten. Die Arbeit stellt die grundlegenden methodischen Probleme einer aussagekräftigen Evaluation dar. Die mikroökonomische Evaluation untersucht, ob die Teilnahme an einem arbeitsmarktpolitischen Programm zu einem Erfolg im Hinblick auf individuelle Zielgrößen wie Beschäftigung oder Verdienst führt.
Diese Arbeit vergleicht die Verdienststrukturen in Westdeutschland für die Jahre 1990 und 1995 basierend auf der Gehalts- und Lohnstrukturerhebung und der IAB—Beschäftigtenstichprobe. Wir betrachten Verdienstunterschiede im Hinblick auf die berufliche Qualifikation, das Geschlecht, den Erwerbsstatus, die Branchenzugehörigkeit und das Alter. Die Analyse verwendet die Methode der Quantilsregressionen und ist rein deskriptiver Natur. Die beiden Datensätze unterscheiden sich teilweise in der Stichprobenzusammensetzung und es finden sich zum Teil Unterschiede in den geschätzten Verdienstrelationen. Qualitativ stimmen die Ergebnisse vor allem für Männer relativ gut überein. Die Verdienststrukturen erweisen sich als sehr differenziert, beispielsweise nehmen geschlechtsspezifische und qualifikatorische Verdienstunterschiede wie auch die Verdienstdispersion innerhalb einer Arbeitnehmergruppe typischerweise mit dem Alter zu. JEL - Klassifikation: C14 , J31 , C80
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
Über die Wirkung der Förderung der beruflichen Weiterbildung in Ostdeutschland sind in den letzten Jahren zahlreiche empirische Studien durchgeführt worden, die auf den methodischen Fortschritten der Evaluationsforschung aufbauen. Dieser Beitrag stellt die empirische Evidenz im Kontext der institutionellen Regelungen und der methodischen Probleme einer angemessenen mikro- oder makroökonomischen Evaluation dar. Insbesondere behandeln wir die im ostdeutschen Kontext wichtigen Probleme der Mehrfachteilnahmen und der Reduktion der Beschäftigungsquoten für die Teilnehmer kurz vor einer Weiterbildung ("Ashenfelters Tal"), die bislang in empirischen Analysen kaum Berücksichtigung finden. Die durchgeführten mikroökonomischen Evaluationsstudien basieren auf Umfragedaten mit kleinen Teilnehmerzahlen. Die erzielten Evaluationsergebnisse ergeben ein ernüchterndes Bild der Wirkung geförderter Weiterbildung: Es zeigen sich eher negative als positive Maßnahmeneffekte auf die Beschäftigung. Aufgrund der schwachen Datenbasis und verbleibender methodischer Probleme erlaubt die bisherige Evidenz jedoch noch keine wirtschaftspolitischen Schlussfolgerungen. Stattdessen sollten die eher negativen Ergebnisse von der politischen Seite zum Anlass genommen werden, die Voraussetzungen für eine angemessene und kontinuierliche Evaluation der aktiven Arbeitsmarktpolitik zu schaffen.
Der Beitritt zur Europäischen Union (EU) war seit Beginn der Transformation in Osteuropa eines der wichtigsten politischen Ziele der neu gewählten Regierungen. Im Mittelpunkt der öffentlichen Diskussion stand dabei weniger die Frage nach möglichen nationalen Opfern einer schnellen EU-Integration, sondern der Wunsch, die nach dem zweiten Weltkrieg erfolgte Teilung Europas endgültig zu überwinden. Nach über zehn Jahren Transformation und Privatisierung ist jedoch vielerorts Ernüchterung eingekehrt. Die politische Debatte um die EU-Integration der osteuropäischen Beitrittskandidaten wird zunehmend von den Kandidaten selbst kritisch geführt, und die Frage nach den nationalen Lasten eines EU-Beitritts gewinnt an Bedeutung. Je näher der Beitritt der osteuropäischen Staaten zur EU rückt, desto nachdrücklicher wird dort gefragt, ob die Mitgliedschaft in der Union ein Gewinn sein wird. Die Beitrittskandidaten befürchten u.a., dass die eigene Wirtschaft und ganze Berufsgruppen, wie z.B. die Bauern, dem EU-Wettbewerbsdruck nicht standhalten werden können. Auf der anderen Seite bremsen eigennützige Ansprüche der Altmitglieder die Osterweiterung der EU. Noch ist bei anstehenden Abstimmungen in den mittel- und osteuropäischen Ländern (MOEL) über den Beitritt überall eine Mehrheit dafür zu erwarten, doch die Euroskepsis wächst und die Europa-Kritiker gewinnen an politischem Einfluss. Die vorliegende Arbeit soll einen Beitrag zur Versachlichung der EU-Erweiterungsdiskussion leisten und die Zusammenhänge zwischen dem Transformationsprozess der MOEL und deren EU-Integration verdeutlichen. Eine sachliche Diskussion kann nur dann geführt werden, wenn dabei die Besonderheiten, die Gemeinsamkeiten und die Interdependenzen von Transformations- und Integrationsprozess berücksichtigt werden. Wir gehen dazu wie folgt vor. Zunächst beschreiben wir en Transformationsprozess aus ökonomischer Sicht (2.). Neben den wirtschaftlichen und sozialen Folgen der Transformation, soll die historische Pfadabhängigkeit verschiedener Transformationsergebnisse gezeigt und deren Bedeutung für die EU-Integrationsfähigkeit der MOEL diskutiert werden. Im Anschluss daran erläutern wir die Voraussetzungen einer EU-Osterweiterung aus Sicht der Beitrittskandidaten (Beitrittskriterien von Kopenhagen) und aus Sicht der Europäischen Union. Wir zeigen die aus einem Integrationsprozess resultierenden wirtschaftlichen, sozialen und politischen Folgen für Neu- und Altmitglieder auf und stellen den aktuellen Stand der EU-Beitrittsverhandlungen vor (3.). Die Arbeit endet mit der Darstellung alternativer Entwicklungen und einem Fazit (4.).
Untersuchungsgegenstand ist der empirische Gehalt der ökonomischen Theorie eines Hedgings auf Unternehmensebene. In den USA wurde die Hedging-Theorie in einer Reihe von empirischen Studien aufgegriffen. Die Befunde sind zumeist konsistent mit dem Erklärungsansatz von Froot/Scharfstein/Stein (1993), wonach eine Verringerung der Cashflow-Volatilität – unter der Annahme steigender Außenfinanzierungskosten – zu einer Reduzierung von Unterinvestitionskosten führt. Bei deutschen Unternehmen besitzt dieser Ansatz bemerkenswerterweise jedoch nur einen geringen Erklärungsgehalt. Die Ergebnisunterschiede können auf unterschiedliche Kapitalmarktverhältnisse zurückgeführt werden: Die unterstellten steigenden Kosten der Außenfinanzierung besitzen für deutsche Unternehmen aufgrund der Dominanz des Bezugsrechtsverfahrens sowie der Rolle der Hausbank als Mechanismus zur Überwindung von Informationsproblemen eine vergleichsweise geringere Bedeutung. Die Managerinteressen erweisen sich bei deutschen Unternehmen als eine wesentliche Hedging-Determinante. Zwischen der Höhe des gebundenen Managervermögens und der Hedging-Wahrscheinlichkeit besteht entsprechend der Hedging-Theorie ein signifikanter positiver Zusammenhang. Entgegen den amerikanischen Befunden kann jedoch eine disziplinierende Wirkung von Großaktionären auf die Hedging-Entscheidung nicht beobachtet werden. Zur Berücksichtigung der spezifischen deutschen Kapitalmarktverhältnisse wird der Einfluss von Bankenbeteiligungen und Familienunternehmen auf die Hedging-Entscheidung untersucht. Ein Bankeneinfluss auf die Derivateeinsatz-Entscheidung kann jedoch nicht festgestellt werden. Entgegen Diversifikations- und Kapitalmarktüberlegungen besteht bei Familienunternehmen interessanterweise eine signifikant geringere Hedging-Wahrscheinlichkeit.
Auf die Fragen kommt es an: "Woher kommt der Mensch? wo will er hin? – und warum um alles in der Welt ist er da nicht geblieben?" Der Meister zirkulärer Sinnsuche hat als Fragender seine beste Rolle gefunden und damit den postheroischen Typus Mensch erschaffen, der in der Vieldeutigkeit der Welt erleichtert seinen Unfrieden findet: damit, dass Pazifisten Kriege verteidigen, dass die Außerparlamentarischen eine Partei gründen, dass die Konservativen die interessanteren Zeitungen machen und die Komik zur wirksamsten Waffe gegen Dummheit und Schmerz geworden ist. Matthias Beltz hat beiläufig mit Lebensweisheiten und assoziativ aufgetürmtem Scharfsinn nicht nur seine Fragen bewaffnet, in denen gewagte Antworten ihren vitalen Keim austreiben, sondern auch das Misstrauen gesät gegenüber politisch korrekten, nachgeplapperten und smarten Antworten. ...
Im folgenden Beitrag wird zunächst die Entwicklung der personellen Einkommensverteilung in Deutschland zwischen 1993 und 1998 auf der Basis der Einkommens- und Verbrauchsstichproben (EVS) dargestellt. Dabei werden - ähnlich wie in früheren Analysen auf Basis der EVS und des Sozio-ökonomischen Panels (SOEP) - hoch aggregierte Indikatoren berechnet, mit denen die Informationsfülle einer Mikrodatenquelle zu nur einer Zahl bzw. zu einer eindimensionalen relativen Häufigkeitsverteilung verdichtet wird. In einem zweiten Schritt und schwerpunktmäßig wird untersucht, welche Verteilungsstrukturen sich hinter diesen Darstellungen der Gesamtverteilung verbergen.
Auch sechs Jahre nach Einführung der Vorschriften zur Ad-hoc-Publizität nach § 15 WpHG besteht bei den Unternehmen weiterhin große Unsicherheit bezüglich ihrer ordnungsmäßigen Umsetzung. Dies gilt insbesondere für die Behandlung von ad-hoc-meldepflichtigen Sachverhalten, die sich aus der Regelberichterstattung ergeben. Der vorliegende Beitrag entwickelt hierzu Lösungsansätze im Sinne einer kapitalmarktorientierten Unternehmenspublizität.
In den 1980er und den frühen 1990er Jahren waren japanische Banken die weltweit größten Finanzinstitute und galten als Inbegriff „globaler“ Banken. Der Crash der japanischen Wertpapier- und Immobilienmärkte Anfang der 1990er Jahre und die nachfolgende Rezession waren Anlass zu tiefgreifenden Reformen im japanischen Finanzsystem. Die japanischen Banken waren gezwungen, ihre internationalen Strategien zu reformulieren. Als Konsequenz zogen sie sich aus vielen Märkten zurück und strukturierten ihre internationalen Netzwerke um. Vor dem Hintergrund theoretischer Überlegungen zu der Bedeutung von „Globalität“ und einer empirischen Untersuchung der Entwicklung der Auslandsstellennetze japanischer Banken in den 1980er und 1990er Jahren stellt der vorliegende Beitrag die Globalität japanischer Banken in Frage.
Mängel bei der Abschlußprüfung : Tatsachenberichte und Analysen aus betriebswirtschaftlicher Sicht
(2001)
Unternehmenskrisen, „überraschende“ zumal, standen am Anfang der gesetzlichen Normierung der Abschlußprüfung in Deutschland. Es entspricht daher einem legitimen Anliegen von Öffentlichkeit und Fachwelt, die herrschende Maßstäblichkeit der Qualität von Abschlußprüfungen und die Glaubwürdigkeit4 von Abschlußprüfern insbesondere dann in gesteigertem Maße als Problem zu begreifen, wenn den gesetzlichen Schutzzwecken und Schutznormen der etablierten Abschlußprüfung zum Trotz Unternehmen in eine Krise geraten: Denn innerhalb der institutionellen Mechanismen ihrer Früherkennung – eines funktionalen Teils des deutschen Systems von corporate governance – gilt die Pflichtprüfung mit Recht als pivotales Element. Vieles an festzustellender Kritik mag hierbei einem der Komplexität der zu verhandelnden Sachzusammenhänge unüberbrückbaren Laienverständnis geschuldet sein; manches aber ist sicherlich erklärlich durch verbesserbare gesetzliche Vorschriften, zu lösende theoretische (ökonomische und rechtswissenschaftliche) Problemstellungen und eine zu fördernde gute Berufspraxis. Jüngste fragliche Mängel der Abschlußprüfung geben den Anlaß zu vorliegenden Tatsachenberichten und betriebswirtschaftlichen Analysen. Die getroffene Auswahl der Unternehmen ist hierbei ebenso willkürlich wie die der betroffenen Wirtschaftsprüfungsgesellschaften – nicht zufällig ist indes die Auswahl der betriebswirtschaftlichen Grundprobleme: Betreffen diese doch wesentliche Erwartungen an die Abschlußprüfung, die offenbar so regelmäßig enttäuscht wurden, daß selbst in Regierungsbegründungen von Gesetzesvorlagen nunmehr eine „sog. Erwartungslücke“5 bemüht wird. Die Erwartungslücken ergeben sich hierbei insbesondere aus der Vorstellung, daß (a) der gesetzliche Pflichtprüfer bei einer ordnungsmäßigen Prüfung zwingend doloses Handeln aufzudecken habe, daß (b) bilanzielle Wertansätze hinreichend zuverlässige Größen bilden, die über die Vermögenslage des Unternehmens berichten und schließlich (c) die Prüfung der tatsächlichen wirtschaftlichen Lage des Unternehmens und die Unterrichtung hiervon in Prüfungsbericht und Bestätigungsvermerk eine Selbstverständlichkeit der Pflichtprüfung sei. Diesen Erwartungen folgt der Gang der Untersuchung.
Eine spieltheoretische Analyse von Zulieferer-Abnehmer-Beziehungen auf Basis des JELS-Modells
(2001)
Im Rahmen wertorientierter Unternehmensführung gewinnen Erfolgsbeteiligungen immer größere Verbreitung. Besonders populär ist das EVA-Bonussystem, das auf dem Erfolgskonzept "Economic Value Added" von STERN STEWART & Co. beruht. In der vorliegenden Arbeit wird gezeigt, daß dieses Bonussystem gegen die Bedingung der Anreizkompatibilität verstößt: Der Entscheidungsträger kann finanzielle Vorteile erzielen, indem er Investitionsentscheidungen trifft, die aus Sicht der Anteilseigner nachteilig sind. Insbesondere besteht die Tendenz zur Unterinvestition. Die Darstellungen beruhen auf der Annahme, daß nicht nur die Anteilseigner zukünftige Einkünfte (bzw. Überschüsse) mit einem risikoangepaßten Zinssatz diskontieren, sondern auch der Entscheidungsträger. Zunächst werden die theoretischen Grundlagen dargestellt. Wenn bei gegebener Risikoklasse der Entscheidungsträger erwartete Prämien mit dem Kalkulationszinsfuß k +D diskontiert und die Anteilseigner erwartete Überschüsse des Leistungsbereichs mit k diskontieren, besteht bei einem im Zeitablauf konstanten Prämiensatz f und Überschußbeteiligung nur dann Anreizkompatibilität, wenn D= 0 gilt. Für D> 0 besteht die Tendenz zur Unterinvestition. Sie ist um so größer, je höher D ist und je später die potentiellen Projektüberschüsse anfallen. Bei Beteiligung am Residualgewinn ergeben sich dieselben Anreizwirkungen wie bei Überschußbeteiligung, sofern die kalkulatorischen Zinsen mit dem risikolosen Zinssatz r ermittelt werden. Werden sie mit k ermittelt, so wird (für k>r ) im Vergleich zu einer Überschußbeteiligung die Tendenz zur Unterinvestition ausgelöst (sofern D= 0) oder verstärkt (sofern D> 0). Die Tendenz zur Unterinvestition ist jeweils um so gravierender, je später aktivierte Anschaffungsauszahlungen als Abschreibungen zu verrechnen sind und je höher der für die Ermittlung der kalkulatorischen Zinsen auf die (Rest-)Buchwerte maßgebliche Zinssatz k ist. Der Economic Value Added stellt eine Konkretisierung des Residualgewinns dar. Auch bei dem darauf aufbauenden (EVA-)Bonussystem besteht die Tendenz zu Fehlentscheidungen (insbesondere zur Unterinvestition). Sie resultiert vor allem aus der Ermittlung der kalkulatorischen Zinsen mit dem risikoangepaßten Zinssatz k, den geforderten "Bereinigungen" bei der Ermittlung des investierten Kapitals bzw. des Periodenerfolges und gegebenenfalls der Wahl der Erfolgsänderung gegenüber dem Vorjahr als Bemessungsgrundlage.
Vor dem Hintergrund allgemeiner Bedingungen der Anreizkompatibilität wird für verschiedenen Kapitalmarktmodelle untersucht, ob zwischen den Anteilseignern eines Unternehmens Einmütigkeit besteht und, wenn ja, mit welchem Unternehmensziel der finanzielle Nutzen der Anteilseigner maximiert wird. Von besonderer Bedeutung für die Anreizkompatibilität der üblichen linearen Erfolgsteilung ist die Bedingung pareto-effizienter Risikoteilung. Sind für den Erfolg des Unternehmens spezifische Störterme relevant und soll der Entscheidungsträger in relativ starkem Umfang am Erfolg beteiligt werden, ist die Risikoteilung zwischen ihm und den (anderen) Anteilseignern pareto-inferior. Anreizkompatible erfolgsorientierte Belohnungs- bzw. Prämienfunktionen für den Entscheidungsträger sind dann konvex und zustandsabhängig. Aktienoptionsprogramme können als Approximationen an solche Prämienfunktionen interpretiert werden.
Motivation der Arbeit Die Motivation zur vorliegenden Arbeit beruht auf zwei herausragenden Charakteristika des deutschen Kapitalstocks. Dieser ist zum einen durch ein hohen Anteil der Wohnbauten gekennzeichnet. Wohnbauten unterscheiden sich in einiger Hinsicht deutlich von den Ausrüstungen sowie den übrigen Bauten und machen daher eine eigenständige Analyse ihrer Bestimmungsgründe erforderlich. Zum anderen fällt auf, daß die meisten Wohnungen Mietwohnungen sind und Deutschland damit im Vergleich mit westlichen Industrienationen eine geringe Eigentümerquote aufweist. Es soll daher die Besitzwahlentscheidung der Haushalte unter besonderer Berücksichtigung der Kosten unterschiedlicher Besitzformen untersucht werden. Längerfristige makroökonomische Entwicklung des Wohnungsbestandes In langer Sicht zeigt sich, daß die seit 1950 entstandenen Wohnungen nur zum Teil durch eine wachsende Bevölkerung erklärt werden können. Bedeutender sind hier veränderte Wohngewohnheiten, die einen höheren Wohnungsbestand erforderlich machen. Zum einen ist hier die Verringerung der Zahl der Haushalte zu nennen, die sich eine Wohnung teilen. Dieser Rückgang war besonders in der unmittelbaren Nachkriegszeit markant, setzte sich aber auch bis in die Gegenwart fort. Zum anderen hat sich die Haushaltsgröße von 3 Personen je Haushalt im Jahre 1950 auf 2,18 Personen im Jahre 1998 verringert. Mittelfristige regionale Entwicklung des Wohnungsbestandes Auffälligste Entwicklung der letzten Jahrzehnte ist der deutliche Rückgang fertiggestellter Wohnungen seit den 1970er Jahren bis 1987 und der danach beobachtbare Wiederanstieg. Zur Untersuchung der konjunkturellen Bestimmungsgründe dieser Entwicklung werden Längsschnitts-Querschnitts-Bauinvestitionsfunktionen für Bundesländer mit Methoden der Panelanalyse geschätzt. Als Investitionsindikator werden die realen Baugenehmigungen (in Kubikmetern umbauten Raums) pro Kopf der Bevölkerung herangezogen. Im Vergleich zu Spezifikationen, die den mit Tobins Q vergleichbaren Renditequotient als Exogene enthalten, zeigen sich hierbei Modelle, die stattdessen die Realzinsen berücksichtigen, im Hinblick auf die Anpassungsgüte ebenbürtig. Neben einem signifikanten Einfluß des Prokopfeinkommens zeigt sich ein signifikant negativer Einfluß der Bevölkerungsdichte und ein signifikanter Einfluß der geographischen Nord-Süd-Lage, mit höherer durchschnittlicher Investitionsaktivität der südlichen Bundesländer. Hierin kommt die besondere Lageabhängigkeit der Bauinvestitionen zum Ausdruck. Ferner zeigt sich, daß der Einkommenseinfluß signifikant von der Vermögensstruktur der untersuchten Einheiten abhängt: Je höher der Anteil des Finanzvermögens im Vergleich zum Wohnungsvermögen ist, umso geringer ist der Einfluß des Einkommens auf die Investitionsaktivität. Je liquider also die Vermögensstruktur der Einheiten ist, umso weniger ist ihre Investitionsaktivität vom laufenden Einkommen abhängig. Da das Einkommen als Indikator des Zustroms liquider Mittel gesehen werden kann, bestätigen sich damit für das Investitionsverhalten von Produktionsunternehmen vorliegende Befunde einer Liquiditätsabhängigkeit der Investitionen auch für die Wohnungsbautätigkeit. Das spricht auch dafür, daß der signifikante Einkommenseinfluß - zumindest nicht ausschließlich - Ausdruck eines Einkommenseffektes bei der Nachfrage nach dem Konsumgut Wohnung ist. Da allerdings daneben auch der Zinseinfluß bzw. der Einfluß des Renditequotienten bei den liquiden Einheiten geringer ausfällt, gewinnen in dieser Gruppe andere, einheitenspezifische und nicht explizit erfaßte Determinanten an Bedeutung. Diese Determinanten sind möglicherweise auch mit einem mesoökonomischen Modell nicht zu erfassen. Zusammenhänge zwischen dem verwendeten Investitionsindikator und der wohnungspolitisch relevanten Zahl neuer Wohnungen werden im Anschluß untersucht. Dabei zeigt sich zwar eine weitgehend gleichläufige Entwicklung beider Größen. Da jedoch einer gegebenen Menge umbauten Raumes sowohl im Zeit- als auch im Ländervergleich eine unterschiedliche Zahl neuer Wohnungen gegenübersteht, ist dieser Zusammenhang durch den Einfluß sich unterscheidender Baukonventionen überlagert. So gibt es etwa - besonders für die Aufschwungphase von 1987 bis 1994 - Hinweise auf "sparsameres" Bauen, wie etwa Einsparen von Nebenflächen und Verringerung der Wohnungsgrößen. Da die berechneten Effekte zudem in den Bundesländern mit unterschiedlichem Gewicht in Erscheinung treten, tragen diese nicht nur zu einer qualitativen Veränderung des Wohnungsbestandes im Zeitablauf, sondern auch zu einer qualitativen Differenzierung des regionalen Wohnungsbestandes bei. Wohnkosten und Besitzformwahl Im nächsten Abschnitt wird der Frage nachgegangen, welchen Einfluß die Kosten der Besitzformen Miete und Eigentum auf die individuelle Besitzformwahl der Haushalte haben. Datenbasis ist die Einkommens- und Verbrauchsstichprobe des Jahres 1993, die eine Fülle von haushalts- und wohnungsindividuellen Informationen enthält. Hierzu werden Mietkosten und Selbstnutzungskosten (ermittelt als Kapitalkosten des gebundenen Vermögens, haushaltsindividuellem Steuervorteil und Erhaltungsaufwand) gegenübergestellt. Für diese Gegenüberstellung ist es erforderlich, für Mieter hypothetische Selbstnutzungskosten, hier für den Fall des Kaufs der aktuell bewohnten Wohnung zu bestimmen. Für Eigentümer sind hypothetische Mietkosten für den Fall zu ermitteln, daß sie die eigene Wohnung mieteten. Es werden durchweg kalkulatorische Werte verwendet, was die Vergleichbarkeit von Mieter und Eigentümerhaushalten gewährleistet und auf beobachtete marktpreisbestimmende Faktoren abstellt. Mit befriedigender Anpassungsgüte werden hierzu mit einem Regressionsansatz, in den Lage- und Ausstattungsmerkmale der Wohnungen eingehen, ein deutschlandweiter Miet- und Verkehrswertspiegel geschätzt. Mit diesen läßt sich eine kalkulatorische Miete und das in der Wohnung gebundene Vermögen (kalkulatorischer Verkehrswert) sowohl für Mieter- als auch für Eigentümerhaushalte abschätzen. Bei der Berechnung der Kosten des gebundenen Eigen- und Fremdkapitals und des Steuervorteils kann auf die individuellen Angaben der Haushalte zugegriffen werden. Die Gegenüberstellung von Mietkosten und Selbstnutzungskosten für beide Haushaltsgruppen ergibt eine Kostendifferenz, die einer Rendite vor Wertsteigerungen entspricht. Deskriptive Analysen für Bundesländer und Einkommensgruppen zeigen, daß im Allgemeinen eine höhere Kostendifferenz mit einer höheren Eigentümerquote einhergeht. Dieser positive Zusammenhang bestätigt sich in einem Logit-Modell, in dem die Kostendifferenz eine gute Klassifikation von Mieter- und Eigentümerhaushalten ermöglicht. Auch nach Aufnahme weiterer in der Literatur berücksichtigter Variablen wie Haushaltsnettoeinkommen und soziodemographischen Variablen bleibt die Kostendifferenz die erklärungskräftigste Variable. Offenbar dienen diese Variablen bei weniger haushaltsindividueller Berechnung der Kosten- bzw. Rentabilitätsvariable auch als Proxies für bestimmte Kosten- bzw. Rentabilitätskomponenten. Eine nach Bundesländern und Einkommensgruppen disaggregierte Analyse der Modellergebnisse bestätigt die gute Klassifikationsgüte, weist aber auch auf noch fehlende Informationen zu den Motiven der Besitzwahlentscheidung hin. Steuerpolitische Implikationen einer unterschiedlichen Wohneigentumsförderung Die Steuervorteile aus der Nutzung selbstgenutzten Wohneigentums sind eine wichtige Komponente der berechneten Kostendifferenz. Um Erkenntnisse über den Einfluß unterschiedlicher steuerlicher Regelungen selbstgenutzten Wohnraums zu gewinnen, werden mikroökonomische Besteuerungsszenarien durchgeführt. Der im Jahre 1993 gültigen Regelung, die Abschreibungen im Rahmen von Höchstbeträgen und ein Baukindergeld vorsieht, werden folgende drei alternative Regelungen gegenübergestellt: (1) Die seit 1996 praktizierte Eigenheimzulage mit einer einkommensunabhängigen Förderung und einem Baukindergeld. (2) Die Gewährung eines Schuldzinsabzugs vom zu versteuernden Einkommen. (3) Die sogenannte Investitionsgutlösung, die auf einer Gewinn- und Verlustrechnung des Wohnungseigentümers beruht. Für jeden Haushalt der Datenbasis werden aufgrund seiner individuellen Situation die Steuervorteile und die Kostendifferenz berechnet, die er bei Gültigkeit der alternativen Regelung aufweisen würde. Mit dem oben geschätzten Logit-Modell wird die Besitzform bei Gültigkeit der alternativen Regelung vorhergesagt. Fehlklassifizierte Mieter, die zudem gemäß verschiedener Variablen als nicht kaufrestringiert eingeschätzt werden, gelten als potentielle Neueigentümer. Gemessen an der Zahl potentieller Neueigentümer erweist sich die Eigenheimzulage als am wohnungspolitisch effektivsten, hätte aber auch den höchsten fiskalischen Aufwand zur Folge. Da die Gewährung eines Schuldzinsabzuges und die Investitionsgutlösung eine geringere Zahl potentieller Neueigentümern mit sich bringen würden, dürfen diese Varianten in der hier unterstellten Ausgestaltung als wohnungspolitisch unergiebig eingestuft werden. Da von der Investitionsgutlösung auch die Alteigentümer betroffen wären, ist bei der hier untersuchten Ausgestaltung mit einer gegenüber dem Status Quo zusätzlichen Subventionierung dieser Gruppe in Höhe von 2,62 Mrd. DM zu rechnen, was wohnungspolitisch nicht zu rechtfertigen ist. Im Hinblick auf die Verteilung der potentiellen Neueigentümer zeigt sich in allen Szenarien, daß diese überwiegend den oberen Einkommensdezilen angehören. Im Vergleich mit den anderen Szenarien führt die Gewährung einer Eigenheimzulage in den unteren Einkommensdezilen, die eine geringe Eigentümerquote aufweisen, noch zur höchsten Zahl potentieller Eigentümer. Die Eigenheimzulage würde hier mit Abstand zur höchsten potentiellen Fördersumme in den unteren fünf Einkommensdezilen beitragen. In den östlichen Flächenstaaten reagiert die Anzahl potentieller Neueigentümer und der durchschnittliche Förderbetrag besonders deutlich auf die unterstellte Fördervariante. Die Eigenheimzulage führt hier zum höchsten Anteil potentieller Neueigentümer, was angesichts der dort niedrigen Eigentümerquote positiv zu beurteilen ist. In den westlichen Flächenstaaten dagegen führen alle betrachteten Fördervarianten der Tendenz nach zu einem hohen Anteil potentieller Neueigentümer in Ländern mit einer niedrigen Eigentümerquote. Im Hinblick auf die Wohnlagen findet der Tendenz nach bei allen Varianten eine stärkere Förderung von Zentren und zentrumsnahen Lagen mit bis zu 25 km Großstadtentfernung statt. Auch gemessen an diesem Verteilungskriterium führt die Eigenheimzulage zu einer geringsten Ausprägung des geschilderten Zentrum-Peripherie-Gefälles. Steuerpolitische Implikationen einer Kombination wohnungspolitischer Instrumente Zunächst zeigt sich, daß reine Begrenzungen des Schuldzinsabzuges wohnungspolitisch nicht effektiv sind. Erst durch eine Kombination mit einer Option auf eine einkommensunabhängige Mindestförderung (ähnlich der Eigenheimzulage, aber ohne Baukindergeld) erlangt die Gewährung eines Schuldzinsabzuges eine wohnungspolitische Effektivität. Die Zahl potentieller Neukäufer ließe sich bei jeweils gleichem fiskalischen Aufwand mit Mindestfördersätzen von knapp 3 Prozent gegenüber dem Status Quo und mit Mindestfördersätzen von rund 3,5 Prozent gegenüber der Eigenheimzulage erhöhen. Die Investitionsgutlösung wird durch das Instrument eines begrenzten Schuldzinsabzuges bzw. eines weiteren Mietzinszuschlages, jeweils kombiniert mit einem Mietgewinnfreibetrag variiert. Zur Erreichung von Aufkommensneutralität bei den Alteigentümern müßte der Schuldzinsabzug drastisch reduziert werden. Mit Mietzinszuschlägen gelangt man ohne Gewährung eines Mietgewinnfreibetrages bei einem Zuschlagsatz von 0,9 Prozentpunkten und bei Gewährung eines Freibetrages von 5.000 DM p.a. bei einem Zuschlag von etwa 2,5 Prozentpunkten zu einer aufkommensneutralen Position der Alteigentümer. Die Investitionsgutlösung wird sodann so ausgestaltet, daß sie für Alteigentümer aufkommensneutral ist. Hierzu wird auf die obigen Erkenntnisse zurückgegriffen und es werden drei verschiedene aufkommensneutrale Kombinationspunkte von Mietzinszuschlag und Mietgewinnfreibetrag gewählt. Potentielle Neueigentümer können auf Ansatz ihres (negativen) Mietgewinnes oder auf die Mindestförderung optieren. Eine gleiche Zahl potentieller Neueigentümer wie im Status Quo würde sich - bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 2,8 Prozent ergeben. Die schon hohe Zahl potentieller Neueigentümer in der Eigenheimzulage ließe sich - wiederum bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 3,4 Prozent erreichen und gleichzeitig ein höheres Maß an Gleichheit bei der Verteilung der Fördersummen über die Einkommensdezile erreichen. Bei derart hohen Mindestfördersätzen würde allerdings die größte Zahl potentieller Neueigentümer auf die Mindestförderung optieren, so daß hier praktisch nicht mehr von einer Investitionsgutlösung gesprochen werden kann. Belastet man die Alteigentümer mit per Saldo 2 Mrd. DM so ergeben sich vergleichbare Ergebnisse. Der Fiskus wird dann aber in die Lage versetzt, bei Aufkommensneutralität insgesamt höhere Fördersätze zu gewähren. Resümee Bei der Eigenheimförderung steht das eigenständige wohnungspolitische Ziel einer hohen Eigentümerquote klar im Vordergrund, da andere Zielsetzungen schwierig zu begründen sind. Die durchgeführten Szenarien geben Hinweise darauf, daß mit einer einkommensunabhängigen Förderung dieses Ziel am effektivsten erreicht werden kann. Eine vollständige Verteilungsgleichheit läßt sich allerdings nicht herstellen. In allen Szenarien bleiben die Bezieher höherer Einkommen bevorteilt, wenn auch das Ausmaß der Ungleichheit zwischen den gerechneten Varianten erheblich variiert. Auch hier kommt eine einkommensunabhängige Mindestförderung zu günstigen Ergebnissen und würde zudem die Chance bieten, die seit Jahrzehnten bestehende deutliche Konzentration der Fördermittel auf die oberen Einkommensgruppen abzuschwächen. Eine eindeutige wohnungspolitische Ausrichtung würde zudem den Verzicht auf die familienpolitische Komponente eines Baukindergeldes nahelegen, das Bestandteil der derzeit praktizierten und fast aller vorherigen Förderarten war. Aus den Szenarien gibt es Hinweise darauf, daß einem Verzicht auf diese Komponente bei gleicher wohnungspolitischer Effektivität ein reduzierter fiskalischer Aufwand gegenübersteht. Dagegen stehen allerdings die offenbar mit der Wohnungspolitik immer fest verknüpften familienpolitischen Überlegungen. Bei alledem ist die Stärkung der Nachfrage nach selbstgenutztem Wohnraum vor dem Hintergrund der im ersten Teil der Arbeit aufgezeigten lang- und mittelfristigen, demographischen, ökonomischen und regionalen Rahmenbedingungen der Wohnungsbauaktivität nicht unproblematisch. Stößt diese zusätzliche Nachfrage auf ein starres Angebot, resultieren allenfalls Preissteigerungen, die wiederum eine Erhöhung der Eigentümerquote im Wege stehen und auch aus verteilungspolitischer Sicht nicht wünschenswert sind.
Die Struktur der Gesetzlichen Rentenversicherung (GRV) in der Bundesrepublik Deutschland ist grundsätzlich geändert worden. Die Bundesregierung hat die Einführung einer zusätzlichen privaten Alterssicherung auf freiwilliger Basis beschlossen. Hierdurch soll ein Kapitalstock gebildet werden, der die Leistungen der GRV ergänzt. Zur Förderung dieser Systemänderung der Alterssicherung werden umfangreiche fiskalische Unterstützungsmaßnahmen eingeführt. Im Rahmen des hier vorliegenden Beitrags wird auf die besondere Situation der Familien mit Kindern eingegangen. Im zweiten Abschnitt wird untersucht, inwieweit Familien mit Kindern in den letzten zehn Jahren in Deutschland in der Lage waren, privates Vermögen aufzubauen. Im dritten Abschnitt werden die beabsichtigten Änderungen des Systems der gesetzlichen Rentenversicherung in den Grundzügen dargestellt, und es wird ein Überblick über die geplanten fiskalischen Fördermaßnahmen gegeben. Im abschließenden vierten Abschnitt wird eine Bewertung der Änderungen vor allem in Bezug auf die Situation von Familien versucht.
Im Zentrum des Schwerpunktes stehen die Beschreibung, Erklärung und Gestaltung von Informationserstellungs- und -verarbeitungsprozessen, insbesondere soweit sie durch moderne Informations- und Kommunikationstechniken unterstützt werden. Diese Prozesse dienen zum einen der unmittelbaren Bedürfnisbefriedigung durch Information sowie zum anderen der Koordination physischer Wertschöpfung. Die schnelle Fortentwicklung der IuK-Systeme sowie die rasante Verbreitung ihrer Nutzung führen vielfach zu tief greifenden Veränderungen der Geschäftsabläufe und darüber hinaus des gesellschaftlichen Lebens. Aufgabe des Schwerpunktes ist hierbei, die Nutzenpotenziale neuer Informations- und Kommunikationstechniken sowie deren Anwendung insbesondere in Wirtschaft und Verwaltung zu analysieren und eigene Gestaltungsvorschläge zu unterbreiten. Dies gilt auch für die Gestaltung und Auswahl der institutionellen Rahmenbedingungen von Informationserstellungs- und - verarbeitungsprozessen.