Refine
Year of publication
Document Type
- Part of Periodical (291)
- Working Paper (190)
- Book (95)
- Report (45)
- Contribution to a Periodical (44)
- Article (43)
- Doctoral Thesis (35)
- diplomthesis (8)
- Periodical (8)
- Conference Proceeding (7)
Language
- German (782) (remove)
Is part of the Bibliography
- no (782)
Keywords
- Financial Institutions (43)
- Deutschland (40)
- Capital Markets Union (29)
- Financial Markets (26)
- ECB (24)
- Macro Finance (22)
- Banking Regulation (21)
- Banking Supervision (20)
- Banking Union (18)
- Household Finance (18)
Institute
- Wirtschaftswissenschaften (782) (remove)
Joseph E. Stiglitz (1943 - )
(2000)
Am 24.11.1999 gibt Joseph E. Stiglitz seinen vorzeitigen Rücktritt als Chief Economist und Senior Vice President der Weltbank zum Jahresende bekannt. Er will sich wieder ausschließlich der Forschung und Lehre widmen und kehrt auf seinen Lehrstuhl am Economics Department der Stanford University zurück. Stiglitzs Rückzug aus der aktiven Entwicklungspolitik erfolgt nicht ganz freiwillig. Er selbst kommentiert seinen Entschluß: „It has become obvious to me that it would be difficult to continue to speak out as forcefully and publicly as I have on a variety of issues and still remain as chief economist. Rather than muzzle myself, or be muzzled, I decided to leave.“ (New York Times, 1.12.1999). Seit geraumer Zeit galt seine öffentliche Kritik am Washington Consensus, dem ökonomischen Glaubensbekenntnis, auf das sich die politische Linie des US Treasury genauso stützt wie die Stabilisierungs- und Reformpolitik des IWF, als Dorn im Auge der Vertreter dieser Institutionen. Für sie war Stiglitz - so die Metapher der Financial Times vom 26.11.99 - „a veritable gadfly“, eine wahre Viehbremse, deren lästiges Summen aufgrund von Position und Intellekt nicht einfach ignoriert werden konnte. ...
Wir untersuchen die regulatorischen Änderungen in der EU, die die Transparenz bei nachhaltigen Investitionen erhöhen sollen. Durch eine Untersuchung der Unterschiede zwischen ESG-Ratingagenturen bewerten wir Herausforderungen für Standardisierung und Konsens von Ratings. Unsere Analyse unterstreicht die Dringlichkeit klarerer ESG-Ratings für eine nachhaltige Invesitionslandschaft.
Kapitalmarktorientierte Risikosteuerung in Banken : Marktwertsteuerung statt Marktzinsmethode
(2005)
In diesem Beitrag wird das Konzept der Marktzinsmethode als Grundlage der dualen Risikosteuerung von Kredit- und Marktpreisrisiken in Frage gestellt. Die Kreditrisiken einer Bank implizieren bonitätsinduzierte Marktpreisrisiken und bankspezifische Refinanzierungskosten. Während die bonitätsinduzierten Marktpreisrisiken in der dualen Risikosteuerung keine Berücksichtigung finden, werden die bankspezifischen Refinanzierungskosten zwar erkannt, aber bankintern nicht verursachungsgerecht zugeordnet. Das Grundmodell der Marktzinsmethode bietet keine Lösungsansätze zur Behebung dieser Probleme. Demgegenüber lassen sich die Fehlsteuerungsimpulse von vornherein durch eine konsequente Marktbewertung (Mark to Market) aller Finanzinstrumente vermeiden. Als Ausblick werden erste Überlegungen zur Implementierung einer umfassenden Marktwertsteuerung in Banken entwickelt und exemplarisch ein hierfür geeignetes Bewertungsmodell vorgestellt.
Stellungnahme zum Entwurf eines Gesetzes zur Umsetzung der Richtlinie 2014/59/EU (BRRD-Umsetzungsgesetz) der Bundesregierung vom 22.09.2014
Der Gesetzentwurf der Bundesregierung zur Umsetzung der EU-Richtlinie 2014/59/EU zur Festlegung eines Rahmens für die Sanierung und Abwicklung von Kreditinstituten und Wertpapierfirmen (“BRRD-Umsetzungsgesetz“) berührt auch die Frage der institutionellen Struktur für die Zuständigkeit für Bankenaufsicht und Geldpolitik. Es gibt gewichtige Gründe dafür, auf lange Sicht die Geldpolitik von der Bankenaufsicht und möglichen Bankenabwicklungs- und -restrukturierungsfragen institutionell zu trennen. Bei einer Trennung ist zu beachten, dass alle Institutionen für ihre jeweiligen Mandate gleichberechtigt auf erstklassige Daten über die Kapitalmärkte und die Transaktionen und Bilanzen der Banken zugreifen müssen. Ein Y-Modell, in dem zwei voneinander unabhängige Institutionen auf eine gemeinsame Datenbasis aufsetzen, kann im deutschen Kontext erreicht werden, indem die Bundesbank und die Bafin in einer Institution zusammengeführt werden, wobei sowohl die Aufsicht wie auch die Geldpolitik als Anstalt in der Anstalt (AIDA) geführt werden. Im Rahmen dieser „doppelten AIDA“-Lösung können beide Anstalten gleichberechtigt auf eine Datenbasis zugreifen. Die Daten werden im Rahmen der Mandate von Geldpolitik und Aufsicht wie bisher bundesweit erhoben. Die Entwicklung und spätere Einführung des Y-Modells („doppelte AIDA“) würde auch einen Modellcharakter für die noch zu führende Debatte um eine sinnvolle Institutionenstruktur für Europa haben.
Der Einsatz von Künstliche Intelligenz (KI) – Technologien eröffnet viele Chancen, birgt aber auch viele Risiken – insbesondere in der Finanzbranche. Dieses Whitepaper gibt einen Überblick über den aktuellen Stand der Anwendung und Regulierung von KI-Technologien in der Finanzbranche, und diskutiert Chancen und Risiken von KI. KI findet in der Finanzbranche zahlreiche Anwendungsgebiete. Dazu gehören Chatbots, intelligente Assistenten für Kunden, automatischer Hochfrequenzhandel, automatisierte Betrugserkennung, Überwachung der Compliance, Gesichtserkennungssoftware zur Kundenidentifikation u. v. m. Auch Finanzaufsichtsbehörden setzen zunehmend KI-Anwendungen ein, um große und komplexe Datenmengen (Big Data) automatisiert und skalierbar auf Muster zu untersuchen und ihren Aufsichtspflichten nachzukommen.
Die Regulierung von KI in der Finanzbranche ist ein Balanceakt. Auf der einen Seite gibt es eine Notwendigkeit Flexibilität zu gewährleisten, um Innovationen nicht einzudämmen und im internationalen Wettbewerb nicht abgehängt zu werden. Strenge Auflagen können in diesem Zusammenhang als Barriere für die erfolgreiche Weiter-)Entwicklung von KI-Applikationen in der Finanzbranche wirken. Auf der anderen Seite müssen Persönlichkeitsrechte geschützt und Entscheidungsprozesse nachvollziehbar bleiben. Die fehlende Erklärbarkeit und Interpretierbarkeit von KI-Modellen entsteht in erster Linie durch Intransparenz bei einem Großteil heutiger KI-Anwendungen, bei welchen zwar die Natur der Ein- und Ausgaben beobachtbar und verständlich ist, nicht jedoch die genauen Verarbeitungsschritte dazwischen (Blackbox Prinzip).
Dieses Spannungsfeld zeigt sich auch im aktuellen regulatorischen Ansatz verschiedener Behörden. So werden einerseits die positiven Seiten von KI betont, wie Effizienz- und Effektivitätsgewinne sowie Rentabilitäts- und Qualitätssteigerungen (Bundesregierung, 2019) oder neue Methoden der Gefahrenanalyse in der Finanzmarktregulierung (BaFin, 2018a). Andererseits, wird darauf verwiesen, dass durch KI getroffene Entscheidungen immer von Menschen verantwortet werden müssen (EU Art. 22 DSGVO) und demokratische Rahmenbedingungen des Rechtsstaats zu wahren seien (FinTechRat, 2017).
Für die Zukunft sehen wir die Notwendigkeit internationale Regularien prinzipienbasiert, vereinheitlicht und technologieneutral weiterzuentwickeln, ohne dabei die Entwicklung neuer KIbasierter Geschäftsmodelle zu bremsen. Im globalen Wettstreit sollte Europa bei der Regulierung des KI-Einsatzes eine Vorreiterrolle einnehmen und damit seine demokratischen Werte der digitalen Freiheit, Selbstbestimmung und das Recht auf Information weltweit exportieren. Förderprogramme sollten einen stärkeren Fokus auf die Entwicklung nachhaltiger und verantwortungsvoller KI in Banken legen. Dazu zählt insbesondere die (Weiter-)Entwicklung breit einsetzbarer Methoden, die es erlauben, menschen-interpretierbare Erklärungen für erzeugte Ausgaben bereitzustellen und Problemen wie dem Blackbox Prinzip entgegenzuwirken.
Aus Sicht der Unternehmen in der Finanzbranche könnte eine Kooperation mit BigTech-Unternehmen sinnvoll sein, um gemeinsam das Potential der Technologie bestmöglich ausschöpfen zu können. Nützlich wäre auch ein gemeinsames semantisches Metadatenmodell zur Beschreibung der in der Finanzbranche anfallenden Daten. In Zukunft könnten künstliche Intelligenzen Daten aus sozialen Netzwerken berücksichtigen oder Smart Contracts aushandeln. Eine der größten Herausforderungen der Zukunft wird das Anwerben geeigneten Personals darstellen.
Die Erklärung von Intelligenz fasziniert Menschen seit Jahrtausenden, scheint sich doch mit ihr die menschliche Singularität gegenüber Natur und Tier zu manifestieren. Zugleich betonen nicht nur philosophische Strömungen, sondern auch die Mathematik, die Neuro- und die Computerwissenschaften die Abhängigkeit menschlicher Intelligenz von mechanistischen Prozessen. Ob damit eine Verwandtschaft beider Formen der Informationsverarbeitung verbunden ist oder genau umgekehrt fundamentale Unterschiede bestehen, ist seit knapp hundert Jahren Gegenstand wissenschaftlicher Kontroversen. Fest steht allerdings, dass Maschinen jedenfalls in manchen Bereichen die menschliche Leistungsfähigkeit in Schnelligkeit und Präzision übertreffen können. Nähert man sich dieser Vorstellung, drängt sich die Frage auf, ob es sich empfiehlt, bestimmte Entscheidungen besser von Maschinen treffen, jedenfalls aber unterstützen zu lassen. Neben Ärzten, Rechtsanwälten und Börsenhändlern betrifft das auch Leitungsentscheidungen von Unternehmensführern.
Vor diesem Hintergrund wird im Folgenden ein Überblick über Formen künstlicher Intelligenz (KI) gegeben. Im Anschluss fokussiert der Beitrag auf die Rolle von KI im Kontext von Vorstandsentscheidungen. Dazu zählen allgemeine Sorgfaltspflichten, wenn über den Einsatz von KI im Unternehmen zu entscheiden ist. Geht es um die Unterstützung gerade von Vorstandsentscheidungen stellen sich zusätzlich Fragen der Kooperation von Mensch und Maschine, der Delegation des Kernbestands von Leitungsentscheidungen und der Einstandspflicht für KI.
Die große Herausforderung, um das systemische Risiko im Finanzsektor zu vermindern, besteht darin, kluge Finanzarchitektur zu etablieren, die gewährtleistet, dass ein verbindlicher Anteil von Bankanleihen außerhalb des Finanzsektors gehalten wird. Die Anleihegläubiger von außerhalb des Bankensektors müssen sich dadurch auszeichnen, dass sie kein Refinanzierungsrisiko haben, wenn sie eine plötzliche Verlussituation erleben.
Am 6. Februar 2013 hat die Bundesregierung den "Entwurf eines Gesetzes zur Abschirmung von Risiken und zur Planung der Sanierung und Abwicklung von Kreditinstituten und Finanzgruppen” veröffentlicht. Artikel 2 des Gesetzesentwurfs sieht vor bei systemrelevanten Finanzinstitutionen das Einlagen- und Kreditgeschäft vom Handelsgeschäft abzutrennen. Die Zielsetzung des Gesetzentwurfs, Kapitalkosten wieder in direkte Abhängigkeit des Risikos von Geschäftsfeldern zu setzen und eine Abwicklung zu erleichtern, die ohne den Einsatz von Steuermitteln gelingen kann, ist begrüßenswert. In seiner derzeitigen Ausgestaltung läuft der Gesetzesentwurf jedoch Gefahr, zwar symbolträchtig zu sein, aber in der Zielerreichung hinsichtlich Stabilität des Finanzmarktes und Schutz von Einlegern und Steuerzahlern hinter den Erwartungen zurückzubleiben.
Der vorliegende Beitrag zeigt auf, wie hedonische Preisindizes für Immobilien auf der Basis von Transaktionen berechnet werden können. Der Heterogenität der Immobilien wird dabei durch ein ökonometrisches Modell Rechnung getragen, wobei in dieser Arbeit das Problem der Wahl einer geeigneten Funktionsform durch eine Transformation nach dem Ansatz von Box/Cox (1964) explizit berücksichtigt wird. Die Datenbasis deckt etwa 65% der Transaktionen des Wohnungsmarktes im Zeitraum 1990-1999 ab. Die Korrektur aufgrund unvollständiger Angaben führt zu einem Datensatz von 84 686 Transaktionen. Dieser Datensatz ist ein Vielfaches dessen, was bisher vergleichbaren Studien zugrunde lag und stellt damit eine international einmalige Datengrundlage dar.
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Die Dissertation verfolgt zwei Ziele: (1) Detaillierte Analyse der Zusammenhänge zwischen Kundenkenngrößen, Erfolgsmaßen des wertbasierten Kundenmanagements und insbesondere dem Unternehmenswert, (2) Entwicklung eines Ansatzes zur externen Berichterstattung der Kundenkenngrößen sowie Erfolgsmaße des wertbasierten Kundenmanagements, der die Kriterien der Finanzberichterstattung erfüllt.
Der Beitritt zur Europäischen Union (EU) war seit Beginn der Transformation in Osteuropa eines der wichtigsten politischen Ziele der neu gewählten Regierungen. Im Mittelpunkt der öffentlichen Diskussion stand dabei weniger die Frage nach möglichen nationalen Opfern einer schnellen EU-Integration, sondern der Wunsch, die nach dem zweiten Weltkrieg erfolgte Teilung Europas endgültig zu überwinden. Nach über zehn Jahren Transformation und Privatisierung ist jedoch vielerorts Ernüchterung eingekehrt. Die politische Debatte um die EU-Integration der osteuropäischen Beitrittskandidaten wird zunehmend von den Kandidaten selbst kritisch geführt, und die Frage nach den nationalen Lasten eines EU-Beitritts gewinnt an Bedeutung. Je näher der Beitritt der osteuropäischen Staaten zur EU rückt, desto nachdrücklicher wird dort gefragt, ob die Mitgliedschaft in der Union ein Gewinn sein wird. Die Beitrittskandidaten befürchten u.a., dass die eigene Wirtschaft und ganze Berufsgruppen, wie z.B. die Bauern, dem EU-Wettbewerbsdruck nicht standhalten werden können. Auf der anderen Seite bremsen eigennützige Ansprüche der Altmitglieder die Osterweiterung der EU. Noch ist bei anstehenden Abstimmungen in den mittel- und osteuropäischen Ländern (MOEL) über den Beitritt überall eine Mehrheit dafür zu erwarten, doch die Euroskepsis wächst und die Europa-Kritiker gewinnen an politischem Einfluss. Die vorliegende Arbeit soll einen Beitrag zur Versachlichung der EU-Erweiterungsdiskussion leisten und die Zusammenhänge zwischen dem Transformationsprozess der MOEL und deren EU-Integration verdeutlichen. Eine sachliche Diskussion kann nur dann geführt werden, wenn dabei die Besonderheiten, die Gemeinsamkeiten und die Interdependenzen von Transformations- und Integrationsprozess berücksichtigt werden. Wir gehen dazu wie folgt vor. Zunächst beschreiben wir en Transformationsprozess aus ökonomischer Sicht (2.). Neben den wirtschaftlichen und sozialen Folgen der Transformation, soll die historische Pfadabhängigkeit verschiedener Transformationsergebnisse gezeigt und deren Bedeutung für die EU-Integrationsfähigkeit der MOEL diskutiert werden. Im Anschluss daran erläutern wir die Voraussetzungen einer EU-Osterweiterung aus Sicht der Beitrittskandidaten (Beitrittskriterien von Kopenhagen) und aus Sicht der Europäischen Union. Wir zeigen die aus einem Integrationsprozess resultierenden wirtschaftlichen, sozialen und politischen Folgen für Neu- und Altmitglieder auf und stellen den aktuellen Stand der EU-Beitrittsverhandlungen vor (3.). Die Arbeit endet mit der Darstellung alternativer Entwicklungen und einem Fazit (4.).
Das Ergebnis des Volksentscheids im Vereinigten Königreich ist ein Weckruf. Alle Entscheidungsträger der Europäischen Union und ihrer Mitgliedstaaten sind aufgerufen, grundlegende Reformen der Verfassung einer Europäischen Union, möglicherweise nur noch einer europäischen „Kontinentalunion“ unverzüglich in Angriff zu nehmen. Unverzüglich bedeutet, einen Reformprozess nicht erst dann zu beginnen, wenn die Verhandlungen über ein Austrittsabkommen beendet worden sind. Eine Rückentwicklung der Europäischen Union zu einer bloßen Wirtschaftsgemeinschaft dürfte dabei keine Lösung sein. Es ist jetzt angezeigt, offen und – notfalls kontrovers – zu diskutieren, wie ein künftiger Bundesstaat auf europäischer Ebene aussehen könnte.
Anleihen werden in der Regel in zahlreiche Teilschuldverschreibungen aufgespalten und diese an verschiedene Investoren verkauft. Dies begründet, der Zahl der umlaufenden Teilschuldverschreibungen entsprechend, jeweils unterschiedliche Schuldverhältnisse zwischen dem Emittenten und dem jeweiligen Investor. Hält ein Investor mehrere Teilschuldverschreibungen, so entstehen dementsprechend mehrere rechtlich voneinander zu unterscheidende Schuldverhältnisse mit gleichem Inhalt.1 Diese können jeweils ein unterschiedliches rechtliches Schicksal haben, z. B. getrennt voneinander übertragen werden. Sie können auch, von atypischen Gestaltungen abgesehen, je einzeln vom Gläubiger gekündigt werden, wenn die Anleihebedingungen insoweit keine Vorkehrungen treffen. Die folgenden Bemerkungen dazu befassen sich zunächst mit der umstrittenen Frage, ob auch eine Kündigung aus wichtigem Grund seitens eines Gläubigers gemäß §§ 490 Abs. 1, 314 BGB in Betracht kommt (im Folgenden I. - VII.)
Lackmustest Monte Paschi
(2017)
Die mit unterschiedlichen Organisationsformen des Wertpapierhandels einhergehende Liquidität und ihre Messung ist eine der zentralen Fragen im Zusammenhang mit der Gestaltung von Wertpapiermärkten. Zunächst wird die Eignung verschiedener in der Literatur vorgeschlagener Liquiditätsmaße diskutiert. Anhand einer Serie von Marktexperimenten wird dann die Liquidität der grundsätzlichen Ausgestaltungsformen des Wertpapierhandels - Gesamtkursermittlung, kontinuierliche Auktion und Market-Maker-System - miteinander verglichen.
Sowohl das Handelsvolumen als auch das von ROLL (1984) vorgeschlagene Maß sind offenbar für den Vergleich der Liquidität unterschiedlich organisierter Wertpapiermärkte nicht geeignet. Eine aufgrund theoretischer Überlegungen prognostizierte Überschätzung der Transaktionskosten bei der Gesamtkursermittlung kann empirisch bestätigt werden.
Die explizite Geld-Brief-Spanne ist dagegen grundsätzlich ein geeignetes Liquiditätsmaß. Mit den Daten der experimentellen Märkte läßt sich auch für die Gesamtkursermittlung eine solche Spanne ermitteln. Sie erweist sich als niedriger als die Spanne in der kontinuierlichen Auktion und dem Market-Maker-Markt. Jedoch ist auch die Geld-Brief-Spanne mit Vorsicht zu interpretieren. Es wird gezeigt, daß unter bestimmten Umständen systematische Verzerrungen existieren können. In den hier untersuchten experimentellen Märkten ließen sich diese identifizieren. Bei Untersuchungen anhand von Felddaten ist dies jedoch nicht ohne weiteres möglich, so daß hier die Gefahr von Verzerrungen durchaus real ist.
Außerhalb Griechenlands herrscht die Ansicht vor, dass eine höhere Wettbewerbsfähigkeit gleichbedeutend ist mit Preissenkungen für Güter und Dienstleistungen. Angesichts der begrenzten Bereitschaft in Griechenland, Reformen umzusetzen, fordern die Gläubiger drastische Lohnkürzungen, um die Produktivität zu erhöhen und die öffentlichen Ausgaben zu senken. Doch mit einer Kürzungsrunde nach der anderen lässt sich Wettbewerbsfähigkeit nicht erreichen. Umfangreiche flächendeckende Lohnkürzungen reduzieren vielmehr die erwartete Produktivität, da sie die besten Arbeitnehmer vertreiben, dem Rest Anreize zur Produktivität nehmen und neue gute Leute fernhalten.
Der Fokus dieser kumulativen Dissertation liegt auf der Untersuchung des Managements
öffentlich-privater Informationstechnologie (IT)-Partnerschaften. Daher werden
im Rahmen dieses Kapitels zunächst die Bedeutung der Forschung über öffentlichprivate
Partnerschaften (ÖPP) im IT-Bereich und anschließend die untersuchten zentralen
Forschungsfragen erläutert. Im Anschluss wird die Struktur dieser Arbeit kurz vorgestellt,
um darzustellen, wie die zentralen Forschungsfragen adressiert wurden.
...
Wie in der Einleitung beschrieben, bestand die zentrale Motivation für diese kumulative
Dissertation in der fehlenden Forschung zur Konzeptionalisierung öffentlicher und privater
Organisationskulturen und der Analyse deren Auswirkungen auf die erfolgreiche
Realisierung von IT-ÖPPs. Daher zielten die durchgeführten Fallstudien darauf ab, zu
untersuchen, wie IT-ÖPPs trotz anfänglicher Schwierigkeiten erfolgreich gestaltet werden
können und wie eine IT-ÖPP über die Zeit hinweg etabliert und aufrechterhalten
werden kann.
Das Ziel der ersten zentralen Forschungsfrage konzentrierte sich daher auf die Analyse
der Unterschiede von öffentlichen und privaten Organisationskulturen. Artikel 1 beantwortet
diese Forschungsfrage durch die Konzeptionalisierung öffentlicher und privater
Organisationskulturen (bestehend aus divergierenden Denkweisen, Wissensbasen
und organisationalen Strukturen) und liefert erste Einblicke in deren Auswirkungen auf
die öffentlich-private Zusammenarbeit sowie den Erfolg von IT-ÖPPs. Dadurch leistet
Artikel 1 einen Beitrag zur IT-ÖPP-Forschungsdomäne. Außerdem trägt Artikel 1 zur
theoretischen Domäne organisationaler Kulturunterschiede dadurch bei, dass er den
Einfluss öffentlicher und privater Normen sowie deren Werte auf organisationsspezifisches
Verhalten aufdeckt. Zusammenfassend illustriert Artikel 1, dass die Etablierung
einer nachhaltigen IT-ÖPP das Bewusstsein sowie Verständnis für Unterschiede von
öffentlichen und privaten Organisationskulturen erfordert, um einen Kooperationsmodus
zu verhandeln.
Artikel 2, 3 und 4 erweitern die Erkenntnisse der Auswirkungen unterschiedlicher Organisationskulturen
auf öffentlich-private Zusammenarbeit in IT-ÖPPs durch die Analyse
der Gründe und Vorgehensweisen zur erfolgreichen Gestaltung einer IT-ÖPP trotz
anfänglicher Schwierigkeiten. Dadurch antworten die Artikel auf die zweite zentrale
Forschungsfrage. Der Beitrag von Artikel 2 zur Forschungsdomäne besteht in der Untersuchung
der Rolle divergierender Verständnisse und Erwartungen, deren Auswirkungen
durch den ÖPP-Kontext verstärkt werden, für das Scheitern von IT-ÖPP-Projekten.
Der theoretische Beitrag hingegen bezieht sich auf die Identifizierung der Ursachen der
Verletzung des psychologischen Vertrags auf einer individuellen Ebene in IT-ÖPPs.
Abgeleitet von diesen Erkenntnissen veranschaulicht Artikel 2 die Bedeutung der Aufrechterhaltung
informaler Beziehungen für die Realisierung von IT-Projekten im ÖPPKontext.
Artikel 3 setzt auf den Ergebnissen von Artikel 2 auf und illustriert die organisationalen
Voraussetzungen sowie Management-Praktiken (auch beeinflusst durch
den spezifischen ÖPP-Kontext) für die Wiederherstellung einer nachhaltigen Partnerschaft
in scheiternden IT-ÖPP-Projekten. Dadurch leistet Artikel 3 einen Beitrag zur
IT-ÖPP-Forschungsdomäne. Aus einer theoretischen Perspektive erweitert Artikel 3 die
bestehende Literatur über das Brückenspannen durch die Untersuchung der notwendigen
Voraussetzungen und Aktivitäten des Brückenspannens auf einer organisationalen
Ebene, um die kulturelle Kluft in interorganisationalen Kooperationen zu überbrücken.
Basierend auf diesen Erkenntnissen zeigt Artikel 3, dass die Trendwende eines negativen
Verlaufs von IT-ÖPP-Projekten die Etablierung einer unbelasteten öffentlichprivaten
Beziehung und die kontinuierliche Pflege der Partnerschaft sowie der Beziehungen
zu den Anspruchsgruppen erfordert. Artikel 4 analysiert ebenfalls die Gründe
sowie Vorgehensweisen für erfolgreiche IT-ÖPPs. Basierend auf der Konzeptionalisierung
von öffentlichen und privaten Organisationskulturen von Artikel 1 erweitert
Artikel 4 die Analyse von Artikel 1 durch die detaillierte Darstellung, wie organisationsspezifische
Verhaltensweisen begründet sind und wie sie die öffentlich-private Zusammenarbeit
erschweren. Zusätzlich erweitert Artikel 4 die Erkenntnisse der IT-ÖPPForschungsdomäne
durch die Illustration, wie Unterschiede organisationaler Kulturen
ausbalanciert werden können, um eine nachhaltige Partnerschaft zu etablieren und ITÖPPs
aus administrativer, politischer und betriebswirtschaftlicher Perspektive erfolgreich
zu gestalten. Hinsichtlich der theoretischen Domäne organisationaler Kulturunterschiede
liefert Artikel 4 tiefgehende Einblicke in den Einfluss von Normen und Routinen
öffentlicher und privater Logiken auf die Ausprägungen öffentlicher und privater
Organisationskulturen sowie die detaillierte Erläuterung der Auswirkungen kultureller
Unterschiede auf organisationsspezifisches Verhalten. Abschließend erläutert Artikel 4
die Hierarchie von IT-ÖPP-Erfolgskriterien aus administrativer, politischer sowie betriebswirtschaftlicher
Perspektive und illustriert, dass der Erfolg von IT-ÖPPs von der
Verhandlung von Kompromissen über gemeinsame Partnerschaftsziele und -vorgehensweisen
hinsichtlich der verschiedenen Interessen der Parteien abhängig ist.
Artikel 5 integriert die Ergebnisse der Artikel 1 bis 4 und untersucht die Etablierung
und Aufrechterhaltung einer IT-ÖPP über die Zeit hinweg. Dadurch beantwortet Artikel
5 die dritte zentrale Forschungsfrage. Durch die Analyse des Partnerschaftsentwicklungsprozesses
in IT-ÖPP-Projekten, der der Herausforderung kollidierender öffentlicher
und privater Organisationskulturen ausgesetzt ist, erläutert Artikel 5 die drei
Phasen der IT-ÖPP-Entwicklung und die Ereignisse, die den Übergang zwischen den
Phasen initiieren. Zusätzlich zu diesen Beiträgen zur Forschungsdomäne illustriert Artikel
5 das Zusammenspiel konkurrierender institutioneller Logiken über die Zeit hinweg
und belegt den schrittweisen Austausch konkurrierender Logiken durch eine neue,
dominante Logik. Zusammenfassend zeigt Artikel 5, dass die Etablierung und Aufrechterhaltung
einer nachhaltigen, bilateralen Partnerschaft zwischen öffentlichen und
privaten Organisationen die Verhandlung eines Kooperationsmodus durch die Aufweichung
öffentlicher und privater institutioneller Normen und Prinzipien sowie die gedankliche
Annäherung der Parteien aneinander erfordert.
Insgesamt liefert diese kumulative Dissertation Erkenntnisse über die Unterschiede zwischen
öffentlichen und privaten Organisationskulturen, wie diese Unterschiede die öffentlich-
private Zusammenarbeit in IT-ÖPPs erschweren, die Management-Praktiken
für die Etablierung und Aufrechterhaltung einer nachhaltigen Partnerschaft über die Zeit
hinweg sowie die erfolgreiche Gestaltung von IT-ÖPPs. Dadurch schafft diese Arbeit
einen Ausgangspunkt für die tiefergehende Erforschung von IT-ÖPP-Management, die
Analyse des spezifischen ÖPP-Kontexts und die Verbesserung der Realisierung von ITÖPP-
Projekten.
Ist Quantität in der Historiographie ein Argument? Oder ist die Menge von Nachweisen, zumal in Zeitaltern, für diemit zahlreichen Überlieferungszufällen zu rechnen ist, gerade ein oberflächlich verführerisches und trügerisches Argument? Beide Fragen brennen Mediävisten schon seit langem unter den Nägeln, wenngleich sie sich nicht nur bei Epochen mit raren materiellen Überresten stellen sollten. Wie viele Belege brauchen wir für die Richtigkeit einer historischen These? Wie sollen wir wissen, welches Gewicht eine singuläre Quelle hat? Wenn diese Fragen zugleich implizieren, dass man sich über Statistiken hinwegsetzen könnte, dann werden sie zu gefährlichen Fragen. Deren Virulenz wird in der Mediävistik und anderswo für gewöhnlich durch das Anlegen fachspezifischer Korsette und das Eintrainieren professioneller Betäubungstechniken bereits in der Sozialisationsphase effizient eingedämmt: Beliebt dafür sind das Erlernen eines strengen Puzzlespiels in der Quellenexegese, ritualisierte Logik, rhetorische Nonchalance und – besonders verhängnisvoll in Bereichen der Wirtschaftsgeschichte – der Hinweis auf die Existenz ökonomisch-theoretisch unbezweifelbarer Zusammenhänge, die auf die Aufdeckung durch besonders talentierte Spürnasen nur zu warten scheinen. ...
Mehr Nachhaltigkeit im deutschen Leitindex DAX - Reformvorschläge im Lichte des Wirecard-Skandals
(2020)
Im Rahmen der Aufarbeitung des Wirecard-Skandals wird ebenfalls eine Änderung der Kriterien zur Aufnahme in den deutschen Leitindex DAX diskutiert. Die bislang von der Deutschen Börse vorgelegten Vorschläge zur Reformierung des DAX gehen in die richtige Richtung, sind aber nicht weitreichend genug. Es bedarf eines deutlichen Zeichens, dass sich künftig nur solche Unternehmen für den DAX qualifizieren können, die ein zumindest befriedigendes Maß an Nachhaltigkeit gemessen durch einen ESG (Environment, Social, Governance)-Risk-Score in ihrer Geschäftstätigkeit erreichen. Eine Simulation verdeutlicht, dass nach ESG-Kriterien seit langem kritisch betrachtete Unternehmen dem DAX nicht mehr angehören würden. Dies würde klare Anreize bei den Unternehmen setzen, Nachhaltigkeitsaspekte stärker als bisher in ihrer Strategie zu berücksichtigen. Letztlich kann eine Neugestaltung wichtiger Aktienindizes einen Beitrag dazu leisten, dass mehr Kapital in nachhaltig wirtschaftende Unternehmen und Sektoren fließt.
Mehr Nachhaltigkeit im deutschen Leitindex DAX : Reformvorschläge im Lichte des Wirecard-Skandals
(2020)
Im Rahmen der Aufarbeitung des Wirecard-Skandals wird auch eine Änderung der Kriterien zur Aufnahme in den deutschen Leitindex DAX diskutiert. Die bislang von der Deutschen Börse vorgesehenen Maßnahmen gehen in die richtige Richtung, sind aber nicht weitreichend genug. Es bedarf eines deutlichen Zeichens, dass sich künftig nur solche Unternehmen für den DAX qualifizieren können, die ein zumindest befriedigendes Maß an Nachhaltigkeit gemessen durch einen ESG-Risk-Score (Environment, Social, Governance) in ihrer Geschäftstätigkeit erreichen. Eine Simulation verdeutlicht, dass nach ESG-Kriterien seit langem kritisch betrachtete Unternehmen dem DAX nicht mehr angehören würden. Damit könnte mehr Kapital in nachhaltig wirtschaftende Unternehmen und Sektoren fließen.
Während sich die Entwicklungsfinanzierung in Theorie und Praxis generell mit dem Finanzwesen in Entwicklungs- und Transformationsländern befasst, steht im Teilgebiet der Microfinance die Frage im Vordergrund, wie in diesen Ländern der Zugang ärmerer Bevölkerungsgruppen und speziell von Klein- und Kleinstunternehmer(innen), Kleinbauern und sonstigen wirtschaftlich Selbständigen aus eher niedrigen sozialen Schichten zu Kredit und anderen Finanzdiensleistungen verbessert werden kann. Obwohl es einige Vorläufer gibt, die schon früh die allgemeine Politik der Entwicklungsländer bezüglich ihrer Finanzsektoren und ebenso die dazu passende Entwicklungshilfe-Politik der Industrieländer der 60er und 70er Jahre mit ökonomisch-theoretischen Argumenten scharf kritisiert haben,1 waren in der Vergangenheit weder Entwicklungsfinanzierung im allgemeinen noch Microfinance im besonderen ein wirklich ernst genommener Gegenstand der ökonomischen Literatur, die man zum mainstream rechnen kann. Dem entspricht es, dass sich auch die Praxis der Entwicklungsfinanzierung sehr lange weitgehend unabhängig von ökonomisch- theoretischen Überlegungen vollzogen hat. Diese Situation hat sich seit mehr als einem Jahrzehnt grundlegend verändert. Dies hat einen wesentlichen Grund darin, dass sich in der entwicklungspolitischen Praxis auf dem Gebiet der Finanzierung von Klein- und Kleinstbetrieben, eben Microfinance, Erfolge erzielen ließen, die vorher unvorstellbar waren. Mit einer deutlichen commercial orientation und einer Ausrichtung auf die genuinen Probleme des financial institution building konnte erreicht werden, dass es inzwischen einige Dutzend Finanzinstitutionen in Entwicklungs- und Transformationsländern gibt, die ökonomisch stabil und sogar profitabel sind und mit ihrem Leistungsangebot eine große Anzahl von "armen" Kunden erreichen, die bei den Kreditabteilungen der herkömmlichen Banken kaum über die Schwelle gelassen würden.2 Dies hat die Aufmerksamkeit von Forschern aus dem mainstream erweckt. Mindestens ebenso wichtig sind aber die immanenten Entwicklungen innerhalb der ökonomischen Theorie. Mit ihrer Hinwendung zum institutionalistischen Denkansatz hat die Wirtschaftstheorie auf einmal eine neue Aufmerksamkeit für die Phänomene entwickelt, die für die Praktiker der Entwicklungsfinanzierung seit langem von zentraler Bedeutung sind: Inzwischen kann man theoretisch nachweisen, dass es in der Tat Zugangsprobleme zu Kredit für "kleine Leute" gibt, dass das Angebot von Kredit für sie beschränkt ist und dass es nicht genügt, einfach nur staatlich auferlegte Restriktionen – die so genannte financial repression – zu beseitigen, um ....
Der vorliegende Artikel analysiert systematisch die Erreichung der MiFID-Ziele anhand der wissenschaftlichen Literatur. Ziel der MiFID ist es, die Rahmenbedingungen für einen effizienten und kostengünstigen Wertpapierhandel zu schaffen. Erreicht werden soll dies durch die Verschärfung des Wettbewerbs, die Integration der Märkte, die Offenlegung von Handelsintentionen und -geschäften sowie die Stärkung der rechtlichen Position der Investoren. Im Ergebnis zeigt sich, dass die Förderung des Wettbewerbes als erfolgreich bewertet wird, aber die regulatorischen Möglichkeiten der Marktintegration nicht ausgeschöpft werden. Ferner wird die Forderung nach einheitlichen Transparenzbestimmungen für alle Ordermechanismen nur teilweise umgesetzt. Der Anleger erfährt letztlich gegenüber Finanzintermediären durch die MiFID keinen höheren Schutz.
Der Ökonom Prof. Guido Friebel hat zusammen mit anderen Wissenschaftler*innen die Einführung eines sogenannten Mitarbeiterempfehlungsprogramms (ERP = Employee Referral Program) in einer Lebensmittelkette untersucht. Der größte Effekt liegt in der gestiegenen Wertschätzung der Mitarbeitenden seitens der Unternehmensleitung.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We analyzed two possible signing approaches (server based and client based signatures) and conclude that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. We also present some of the constraints that still have to be addressed before qualified mobile signatures are possible.
Die Kompetenzmessung im Hochschulbereich stellt bislang ein weitgehend vernachlässigtes Forschungsgebiet des Bildungssektors dar (vgl. Blömeke et al. 2013). Eine umfassende Analyse des internationalen Forschungsstandes im Bereich der Modellierung und Erfassung von Kompetenzen zeigt insbesondere für Europa ein Forschungsdefizit im Hochschulsektor auf (vgl. Kuhn/Zlatkin-Troitschanskaia 2011). Daher wurde 2010 vom BMBF das Forschungsprogramm "Kompetenzmodellierung und Kompetenzerfassung im Hochschulsektor" (KoKoHs) initiiert, welches die Ziele verfolgt, die Leistungsfähigkeit des tertiären Bildungssystems in Deutschland zu erhalten und Grundlagen für eine Evaluation der Kompetenzentwicklung sowie des Kompetenzerwerbs an Hochschulen zu schaffen (vgl. Blömeke et al. 2013, 3). Im Rahmen des Forschungsprogramms werden u.a. Verbundprojekte aus den Bereichen der Berufs- und Wirtschaftspädagogik (Projekt WiWiKom, siehe Zlatkin-Troitschanskaia/Breuer 2013) sowie der Lehrerbildung gefördert (für eine Übersicht der einzelnen Projekte siehe Blömeke/Zlatkin-Troitschanskaia 2013). Das Verbundprojekt "Modellierung und Erfassung fachwissenschaftlicher und fachdidaktischer Kompetenzen im wirtschaftspädagogischen Studium" (kurz KoMeWP: Kompetenzmessung im wirtschaftspädagogischen Studium; siehe Seifried/Wuttke/Schmitz 2011) verknüpft diese beiden Bereiche. 1 Dabei wird die Zielsetzung verfolgt, die professionelle Kompetenz von angehenden Lehrkräften im kaufmännisch-verwaltenden Bereich zu modellieren und testtheoretisch abprüfbar zu machen. ...
Mit dieser Arbeit ist gezeigt worden, wie vielfältig die Produkte bzw. Dienste im Mobilfunkbereich sind. Der eigentliche Schwerpunkt lag auf der Fragestellung, wie die Mobilfunk-Dienste im Internet bepreist werden. Die Untersuchung der verschiedenen Mobilfunktarife im Internet hatte das Ziel, die grundlegenden Preisparameter für diese Tarife zu identifizieren, zu diskutieren und zu modellieren. Das oberste Ziel bei der Modellierung war die Erstellung eines flexiblen Tarif- und Abrechnungsmodells. Zu diesem Zweck wurden die Vorteile, die XML-Schema und XML-Netze bieten, zum Ausdruck gebracht. Dabei wurde das methodische Vorgehen in den Vordergrund gestellt und nicht die Abbildung des tatsächlichen Marktgeschehens. Zunächst wurde in dieser Arbeit kurz das Internet und die speziellen Eigenschaften des Internets behandelt. Dabei wurde festgestellt, dass sich das Internet auf Grund seiner Eigenschaften besonderes für digitale Produkte eignet. Die digitalen Produkte und deren Eigenschaften wurden untersucht und daraus ergab sich, dass die digitalen Produkte eine vorteilhafte Kostenstruktur aufweisen; nämlich vernachlässigbar niedrige Reproduktionskosten. Unter anderem ist festgestellt worden, dass für die Nutzung der digitalen Produkte für Konsumenten deren Verbreitungsgrad wichtig ist. Gerade hier kann das Internet dank seiner Eigenschaften diese Anforderung besser als ein anderer Vertriebskanal unterstützen. Schließlich lassen sich aus dem Zusammenspiel der Interneteigenschaften und der Merkmale der digitalen Güter gewisse ökonomische Gesetzmäßigkeiten ableiten. Diese verschaffen einem Unternehmen langfristig Vorteile gegenüber der Konkurrenz. Der Schwerpunkt dieser Arbeit liegt aber bei einer speziellen Gruppe der digitalen Produkte, nämlich der Produkte bzw. Dienste im Mobilfunkbereich. Mobilfunk ist eine wichtige und weitverbreitete Art der Mobilkommunikation. Auf dem deutschen Mobilfunkmarkt wurde gerade die 4. Generation der Mobilfunkstandards – UMTS - eingeführt. Allerdings wird UMTS noch einige Zeit brauchen, um sich auf dem Markt richtig zu etablieren. Damit bleibt der GPRS immer noch der führende Standard auf diesem Markt. Der meist genutzte Dienst im Mobilfunk ist immer noch der „Sprach-Dienst“. Der Mobilfunk bietet neben der „Sprache“ eine ganze Reihe weiterer Dienste an. Durch die neuen Technologien ist der Trend in Richtung Datenübertragung über Mobilfunk stark am Aufholen. Die zur Verfügung stehenden Dienste hängen mit den Mobilfunkstandards zusammen. Daher ist es möglich, dass bei der Änderung der Standards auch die zur Verfügung stehenden Dienste angepasst werden. Ein wichtiger Punkt am Bespiel von Mobilfunk als digitales Produkt bzw. Dienstleistung war die Wahl der richtigen Preisstrategie. Die meisten Netzbetreiber entschieden sich für die Strategie differenzierter Preise. Damit können sie unterschiedliche Zahlungsbereitschaften ihrer Kunden relativ gut ausschöpfen. Hierzu wurden die Vielfältigkeit der Möglichkeiten und die Vorteile, die die Preisdifferenzierungsstrategie anbietet, dargestellt. Der sich anschließende Hauptteil dieser Arbeit ist die Parametrisierung und die Modellierung des Mobilfunktarifs und dessen Abrechnungssystems. Zur Modellierung wurden XML-Schema und XML-Netze gewählt. Das XML-Schema ermöglicht flexible Erstellung, Anpassung und Erweiterung von Tarifelementen. Außerdem ermöglicht XML Datenaustausch über Plattform unabhängige Protokolle. Die XML-Netze bieten durch ihre graphische Darstellung die Visualisierung der Abläufe und der ablaufrelevanten Daten. Die aktuellen Zustände können aufgezeigt, simuliert und analysiert werden. Außerdem ermöglichen sie die gute Umstrukturierung, Anpassung und Erweiterung des Abrechnungsprozesses. Bei der Erstellung des Abrechnungsmodells wurde von den Hauptbestandteilen eines beliebigen Abrechnungsmodells ausgegangen. Anschließend sind diese Bestandteile an die Anforderungen des Abrechnungsmodells für Mobilfunkverträge angepasst worden. Die jeweiligen Abrechnungsparameter wurden, wie z.B. Tarifdaten, mit der modifizierten XMLSchema dargestellt. Die Tarifdaten stellen die Vielfältigkeit der Parameter dar, die die Preise eines Mobilfunktarifes beeinflussen. Die Preisparameter wurden nach eingehender Untersuchung verschiedener Tarife181 der vier Netzbetreiber identifiziert. Dabei fiel auf, dass die Netzbetreiber in der Regel von vergleichsweise ähnlichen Parametern ausgingen. Damit haben auch die Tarife ähnliche Strukturen. Weiterhin führen stark differenziert Preise dazu, dass man nicht vom „schlechtesten“ oder vom „besten“ Tarif sprechen kann. Im Prinzip gibt es nur den „besten“ Tarif für ein bestimmtes Nutzungsverhalten. Außer Sprachkommunikation wurden in der Arbeit auch andere Kommunikationsarten vorgestellt. Dabei wurde eine neue Art des Bepreisens angesprochen, nämlich das Bepreisen nach Dienstqualität. Die darauf basierenden Preisstrukturen werden zukünftig sicherlich eine große Rolle spielen, da sie sich insbesondere für Dienste eignen, die vom UMTS unterstütz werden.
Dieser Band enthält Kurzfassungen der Beiträge zur MKWI 2010. Die Vollversionen der Beiträge sind auf dem wissenschaftlichen Publikationenserver (GoeScholar) der Georg-August-Universität Göttingen und über die Webseite des Universitätsverlags unter http://webdoc.sub.gwdg.de/univerlag/2010/mkwi/ online verfügbar und in die Literaturnachweissysteme eingebunden.
Mängel bei der Abschlußprüfung : Tatsachenberichte und Analysen aus betriebswirtschaftlicher Sicht
(2001)
Unternehmenskrisen, „überraschende“ zumal, standen am Anfang der gesetzlichen Normierung der Abschlußprüfung in Deutschland. Es entspricht daher einem legitimen Anliegen von Öffentlichkeit und Fachwelt, die herrschende Maßstäblichkeit der Qualität von Abschlußprüfungen und die Glaubwürdigkeit4 von Abschlußprüfern insbesondere dann in gesteigertem Maße als Problem zu begreifen, wenn den gesetzlichen Schutzzwecken und Schutznormen der etablierten Abschlußprüfung zum Trotz Unternehmen in eine Krise geraten: Denn innerhalb der institutionellen Mechanismen ihrer Früherkennung – eines funktionalen Teils des deutschen Systems von corporate governance – gilt die Pflichtprüfung mit Recht als pivotales Element. Vieles an festzustellender Kritik mag hierbei einem der Komplexität der zu verhandelnden Sachzusammenhänge unüberbrückbaren Laienverständnis geschuldet sein; manches aber ist sicherlich erklärlich durch verbesserbare gesetzliche Vorschriften, zu lösende theoretische (ökonomische und rechtswissenschaftliche) Problemstellungen und eine zu fördernde gute Berufspraxis. Jüngste fragliche Mängel der Abschlußprüfung geben den Anlaß zu vorliegenden Tatsachenberichten und betriebswirtschaftlichen Analysen. Die getroffene Auswahl der Unternehmen ist hierbei ebenso willkürlich wie die der betroffenen Wirtschaftsprüfungsgesellschaften – nicht zufällig ist indes die Auswahl der betriebswirtschaftlichen Grundprobleme: Betreffen diese doch wesentliche Erwartungen an die Abschlußprüfung, die offenbar so regelmäßig enttäuscht wurden, daß selbst in Regierungsbegründungen von Gesetzesvorlagen nunmehr eine „sog. Erwartungslücke“5 bemüht wird. Die Erwartungslücken ergeben sich hierbei insbesondere aus der Vorstellung, daß (a) der gesetzliche Pflichtprüfer bei einer ordnungsmäßigen Prüfung zwingend doloses Handeln aufzudecken habe, daß (b) bilanzielle Wertansätze hinreichend zuverlässige Größen bilden, die über die Vermögenslage des Unternehmens berichten und schließlich (c) die Prüfung der tatsächlichen wirtschaftlichen Lage des Unternehmens und die Unterrichtung hiervon in Prüfungsbericht und Bestätigungsvermerk eine Selbstverständlichkeit der Pflichtprüfung sei. Diesen Erwartungen folgt der Gang der Untersuchung.
Möglichkeiten der Evaluation von E-Learning-Arrangements. Eine Analyse am Beispiel von EverLearn
(2010)
Der Einsatz von E-Learning-Angeboten wird seit Mitte der 1990er Jahre intensiv diskutiert (Baumgartner et al. 2002, S. 13) und sowohl von der Industrie als auch von staatlichen Stellen gefördert (Kerres et al. 2005). Neben dem Wunsch nach genereller Modernisierung (Bachmann et al. 2004, S. 1) soll der Einsatz von E-Learning vor allem zu einer Verbesserung der Betreuungsintensität der Lernenden, insbesondere in Massenveranstaltungen an deutschen Hochschulen führen (Grüne et al. 2006; Hiltz 1995; Mathes 2002; Schwickert et al. 2005). E-Learning soll es ermöglichen, die Lernenden intensiver und individueller zu betreuen, und so zu einer Erhöhung des empfundenen Servicegrades beitragen (Alavi 1994; Schutte 1997).
Seit der Abschaffung der zentralen Vergabestelle für Studienplätze (ZVS) müssen Hochschulen solche vermuteten Wettbewerbsvorteile nutzen und sich aktiv um die Steigerung der Bewerberzahlen und die Zufriedenheit der Lernenden bemühen, was zu der Forderung führte, den Einsatz von E-Learning-Angeboten in der Hochschullehre auszudehnen (BLK 2002, S. 1; BMBF 2000). In der Folge wurden große Summen für die Entwicklung und die Implementierung innovativer E-Learning-Angebote bereitgestellt, ohne deren langfristigen Erfolg sicherstellen zu können (Marshall et al. 2004).
In diesem Beitrag untersuchen wir, wie eine nachhaltige Implementierung von E-Learning-Projekten in Hochschulen durch organisatorische Gestaltungsmaßnahmen gefördert werden kann. Die Untersuchung erfolgt aus dem Blickwinkel der Wirtschaftsinformatik, die sich mit dem Potenzial von Informations- und Kommunikationstechnik (IKT) für die Verbesserung von Geschäftsprozessen beschäftigt (Laudon et al. 2007; Lyytinen 1985; WKWI 1994)...
Die notwendige ökologische Transformation aber auch darüberhinausgehend die zunehmenden Erwartungen, die Gesellschaft und Politik an die Wirtschaft stellen, erfordern eine Prüfung des Wettbewerbsrechts und seiner Durchsetzung, insbesondere auch der dabei verwendeten (ökonomischen) Konzepte und Methoden, dahingehend, ob die aktuelle Praxis nicht einer stärkeren Berücksichtigung von Nachhaltigkeitszielen in unbegründeter Weise im Wege steht. Auf europäischer Ebene hat der Diskurs darüber im Jahr 2021 erheblich an Fahrt gewonnen. Wir stellen wesentliche Initiativen dar. Dabei zeigt sich unseres Erachtens allerdings auch, dass für eine konstruktive Weiterentwicklung noch die nötigen konzeptionellen und methodischen Grundlagen fehlen.
Negative Zinsen auf Einlagen – juristische Hindernisse und ihre wettbewerbspolitischen Auswirkungen
(2015)
Im anhaltenden Niedrigzinsumfeld tun Banken sich schwer damit, die ihnen zur Verfügung gestellte Liquidität einer renditeträchtigen Nachfrage zuzuführen. Darüberhinaus müssen sie auf Liquiditätsüberschüsse, die im Rahmen der Einlagenfazilität des Eurosystems über Nacht bei den nationalen Zentralbanken der Eurozone deponiert werden, Strafzinsen entrichtet. Vor diesem Hintergrund könnten Banken durch negative Einlagenzinsen das Anliegen verfolgen, die Nachfrage nach Aufbewahrung von (Sicht)Einlagen zu verringern. Einer solchen Strategie stehen aber aus juristischer Sicht Hindernisse entgegen, soweit der beschriebene Paradigmenwechsel auch im Rahmen existierender Kundenbeziehungen einseitig vorgenommen werden soll. Die rechtlichen Hürden sind weder Ausdruck einer realitätsfernen Haarspalterei, noch eines verbraucherschützenden Furors. Vielmehr ermöglichen sie privaten und gewerblichen Bankkunden, im Zeitpunkt der angestrebten Zinsanpassung bewusst über die Verwendung ihrer liquiden Mittel zu entscheiden.
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
Die Anpassung der EU-Richtlinie über Märkte für Finanzinstrumente (MiFID II) und die Einführung einer begleitenden Verordnung (MiFIR) im Jahr 2014 werden erhebliche Auswirkungen auf die Finanzmärkte in Europa haben und zu einer grundlegenden Neuordnung der Finanzmarktstrukturen führen. Ausgehend von einer Diskussion der Zielerreichung der ursprünglichen Richtlinie (MiFID I) aus dem Jahr 2004 werden im vorliegenden Artikel die Zielsetzungen und Maßnahmen der Neuregelung beleuchtet. Wesentliche Elemente im Hinblick auf Marktstrukturen und den Wertpapierhandel sind die Einführung einer neuen Handelsplatzkategorie, des organisierten Handelssystems („Organised Trading Facility“; OTF), sowie die Ausweitung der bislang für Aktien geltenden Transparenzvorschriften auf weitere Finanzinstrumente. Zudem werden eine Handelsverpflichtung für Aktien und Derivate sowie eine Clearingpflicht für Derivate, die auf geregelten Märkten gehandelt werden, neu eingeführt. Schließlich werden der algorithmische Handel und der Hochfrequenzhandel auf europäischer Ebene reguliert, wobei die Regelungen weitgehend dem 2013 eingeführten deutschen Hochfrequenzhandelsgesetz angelehnt sind. Im Ausblick wird zunächst der weitere Prozess der Regulierung skizziert (insbesondere die sog. Level II-Maßnahmen). Abschließend werden mögliche Auswirkungen von MiFID II und MiFIR auf die Marktstruktur und den Wertpapierhandel aufgezeigt.
Der verstärkte Umgang mit Wissen in den Wirtschaftswissenschaften ist in den letzten Jahren in den Fokus der Wissenschaftler geraten. Ausgeblendet wurde dabei größtenteils die Kehrseite von Wissen, die Frage nach dem "Nichtwissen". Das Nichtwissen ist aufgrund der vorherrschenden Auffassung des gesellschaftlichen Bildes mit einer negativen Notation behaftet. Die zunehmende Auseinandersetzung des Nichtwissens in den Geisteswissenschaften bringt die positiven Funktionen zur Geltung. Der vorliegende Artikel zeigt zunächst die erfolgsfördernden Funktionen des Nichtwissens auf und implementiert somit Chancen des Nichtwissens in einem wirtschaftwissenschaftlichen Rahmen. Im Anschluss werden empirische Befunde, resultierend aus einer Befragung, die an der Goethe Universität Frankfurt am Main durchgeführt wurde, präsentiert.
Open-end real estate funds are of particular importance in the German bank-dominated financial system. However, recently the German open-end fund industry came under severe distress which triggered a broad discussion of required regulatory interventions. This paper gives a detailed description of the institutional structure of these funds and of the events that led to the crisis. Furthermore, it applies recent banking theory to openend real estate funds in order to understand why the open-end fund structure was so prevalent in Germany. Based on these theoretical insights we evaluate the various policy recommendations that have been raised.
Eine bedeutende Stelle der betrieblichen Funktionen nimmt die Beschaffung der Ware am Markt ein. Die Organisation des Beschaffungswesens ist dabei integraler Bestandteil der Unternehmensstrategie und führung. Die Beschaffung im engeren Sinne umfasst dabei den Einkauf von Anlagegütern, Roh-, Hilfs- und Betriebsstoffen, Fertigwaren sowie von Dienstleistungen (z. B. Transportleistungen) und Rechten (z. B. Lizenzen aus Patenten). Die Beschaffung ist neben der Produktions- und Absatzfunktion einer der Hauptbereiche betrieblicher Planung und Leistungserstellung [Bichler/Krohn 2001]. Die Hauptaufgabe des Einkaufs im Industrieunternehmen besteht in der Beschaffung von Materialen und Teilen nach den von den zuständigen Fachabteilungen vorgegebenen Qualitätsvorschriften, zu günstigen Konditionen und zum richtigen Zeitpunkt, wodurch die termingerechte Produktion sicher gestellt werden kann. Eine weiterführende Aufgabe des Einkaufs besteht in einer Analyse des Beschaffungsmarktes sowie in der Aufbereitung und Weitergabe von Informationen an den Vertrieb. Es sind die Hersteller auf dem Markt zu suchen und zu katalogisieren, welche die entsprechenden Materialien in gleich bleibender Qualität und zu günstigen Preisen liefern können [Bichler/Krohn 2001]. Die Organisation des Einkaufsprozesses stellt einen bedeutenden Problemfokus für die Unternehmensleitung dar. Gegenstand dieser Untersuchung ist die Fragestellung, wie sich Einkaufgenossenschaften im Bibliothekswesen optimal bilden sollen. Die Frage der Optimalität muss dazu zunächst präzisiert werden und wird vor dem Hintergrund verschiedener Zielsetzungen näher diskutiert. Einkaufsgenossenschaften und verbünde finden sich in der Praxis immer häufiger und stellen probate Mittel dar, die Kosten für den Bezug von nötigen Betriebsmaterialen nachhaltig zu senken. Im Sektor der wissenschaftlichen Informationsversorgung können seit einigen Jahren im Bereich der elektronischen Informationsressourcen ebenfalls Einkaufsverbünde in Form von Bibliothekskonsortien beobachtet werden. Ziel dieser Genossenschaften ist es, gemeinsam Lizenzen für elektronische Informationen zu erwerben. Die derzeitige Bezugspraxis zeigt, dass Konsortien überwiegend regional ausgerichtet sind und weniger auf thematischer Ebene agieren. Auch die Größe sowie Nachfragestruktur und intensität finden weitestgehend noch keine Beachtung. Diese Arbeit untersucht Vor- und Nachteile von Einkaufgenossenschaften und diskutiert verschiedene Entscheidungsmodelle zur Bestimmung einer optimalen Konsortialstruktur vor dem Hintergrund der derzeitig gegebenen Marktstrukturen im Sektor der wissenschaftlichen Informationsversorgung.
In der heutigen Theorie der Optionsbewertung wird davon ausgegangen, daß die Markterwartungen genau berechenbar sind. Die Unsicherheit besteht lediglich darin, welcher Aktienkurs sich letztlich realisiert, die Eintrittswahrscheinlichkeiten sind bekannt. Dabei treten jedoch erhebliche Probleme auf, denn theoretisch erwartete Preise entsprechen oft nicht den am Markt beobachteten. Ziel dieser Arbeit ist es, zu untersuchen, ob auch dann eine Optionsbewertung möglich ist, wenn die Unsicherheit nicht nur auf die Stochastik reduziert wird, sondern wenn zusätzlich angenommen wird, daß Marktteilnehmer nur unscharfes Wissen über künftige Preisentwicklungen haben. Hierbei dient die Fuzzy Set Theorie zur Modellierung der nur größenordnungsmäßig bekannten künftigen Aktienkurse. Es wird in dieser Arbeit zwischen der Optionspreistheorie und der Fuzzy Set Theorie eine Verbindung geschaffen, die es zukünftig erlauben wird, die Unsicherheit im Markt besser zu modellieren, als dies mit heute dominierenden Methoden der Optionsbewertung möglich ist.