Refine
Document Type
- diplomthesis (8) (remove)
Language
- German (8)
Has Fulltext
- yes (8) (remove)
Is part of the Bibliography
- no (8)
Keywords
- Beschaffung (1)
- EML (1)
- IMS Learning Design (1)
- Lehrerbildung (1)
- Medienpädagogik (1)
- Nachhaltige Entwicklung (1)
- Neue Medien (1)
- Organisation (1)
- Seychellen (1)
- Tourismus (1)
Institute
- Wirtschaftswissenschaften (8) (remove)
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.
Mit dieser Arbeit ist gezeigt worden, wie vielfältig die Produkte bzw. Dienste im Mobilfunkbereich sind. Der eigentliche Schwerpunkt lag auf der Fragestellung, wie die Mobilfunk-Dienste im Internet bepreist werden. Die Untersuchung der verschiedenen Mobilfunktarife im Internet hatte das Ziel, die grundlegenden Preisparameter für diese Tarife zu identifizieren, zu diskutieren und zu modellieren. Das oberste Ziel bei der Modellierung war die Erstellung eines flexiblen Tarif- und Abrechnungsmodells. Zu diesem Zweck wurden die Vorteile, die XML-Schema und XML-Netze bieten, zum Ausdruck gebracht. Dabei wurde das methodische Vorgehen in den Vordergrund gestellt und nicht die Abbildung des tatsächlichen Marktgeschehens. Zunächst wurde in dieser Arbeit kurz das Internet und die speziellen Eigenschaften des Internets behandelt. Dabei wurde festgestellt, dass sich das Internet auf Grund seiner Eigenschaften besonderes für digitale Produkte eignet. Die digitalen Produkte und deren Eigenschaften wurden untersucht und daraus ergab sich, dass die digitalen Produkte eine vorteilhafte Kostenstruktur aufweisen; nämlich vernachlässigbar niedrige Reproduktionskosten. Unter anderem ist festgestellt worden, dass für die Nutzung der digitalen Produkte für Konsumenten deren Verbreitungsgrad wichtig ist. Gerade hier kann das Internet dank seiner Eigenschaften diese Anforderung besser als ein anderer Vertriebskanal unterstützen. Schließlich lassen sich aus dem Zusammenspiel der Interneteigenschaften und der Merkmale der digitalen Güter gewisse ökonomische Gesetzmäßigkeiten ableiten. Diese verschaffen einem Unternehmen langfristig Vorteile gegenüber der Konkurrenz. Der Schwerpunkt dieser Arbeit liegt aber bei einer speziellen Gruppe der digitalen Produkte, nämlich der Produkte bzw. Dienste im Mobilfunkbereich. Mobilfunk ist eine wichtige und weitverbreitete Art der Mobilkommunikation. Auf dem deutschen Mobilfunkmarkt wurde gerade die 4. Generation der Mobilfunkstandards – UMTS - eingeführt. Allerdings wird UMTS noch einige Zeit brauchen, um sich auf dem Markt richtig zu etablieren. Damit bleibt der GPRS immer noch der führende Standard auf diesem Markt. Der meist genutzte Dienst im Mobilfunk ist immer noch der „Sprach-Dienst“. Der Mobilfunk bietet neben der „Sprache“ eine ganze Reihe weiterer Dienste an. Durch die neuen Technologien ist der Trend in Richtung Datenübertragung über Mobilfunk stark am Aufholen. Die zur Verfügung stehenden Dienste hängen mit den Mobilfunkstandards zusammen. Daher ist es möglich, dass bei der Änderung der Standards auch die zur Verfügung stehenden Dienste angepasst werden. Ein wichtiger Punkt am Bespiel von Mobilfunk als digitales Produkt bzw. Dienstleistung war die Wahl der richtigen Preisstrategie. Die meisten Netzbetreiber entschieden sich für die Strategie differenzierter Preise. Damit können sie unterschiedliche Zahlungsbereitschaften ihrer Kunden relativ gut ausschöpfen. Hierzu wurden die Vielfältigkeit der Möglichkeiten und die Vorteile, die die Preisdifferenzierungsstrategie anbietet, dargestellt. Der sich anschließende Hauptteil dieser Arbeit ist die Parametrisierung und die Modellierung des Mobilfunktarifs und dessen Abrechnungssystems. Zur Modellierung wurden XML-Schema und XML-Netze gewählt. Das XML-Schema ermöglicht flexible Erstellung, Anpassung und Erweiterung von Tarifelementen. Außerdem ermöglicht XML Datenaustausch über Plattform unabhängige Protokolle. Die XML-Netze bieten durch ihre graphische Darstellung die Visualisierung der Abläufe und der ablaufrelevanten Daten. Die aktuellen Zustände können aufgezeigt, simuliert und analysiert werden. Außerdem ermöglichen sie die gute Umstrukturierung, Anpassung und Erweiterung des Abrechnungsprozesses. Bei der Erstellung des Abrechnungsmodells wurde von den Hauptbestandteilen eines beliebigen Abrechnungsmodells ausgegangen. Anschließend sind diese Bestandteile an die Anforderungen des Abrechnungsmodells für Mobilfunkverträge angepasst worden. Die jeweiligen Abrechnungsparameter wurden, wie z.B. Tarifdaten, mit der modifizierten XMLSchema dargestellt. Die Tarifdaten stellen die Vielfältigkeit der Parameter dar, die die Preise eines Mobilfunktarifes beeinflussen. Die Preisparameter wurden nach eingehender Untersuchung verschiedener Tarife181 der vier Netzbetreiber identifiziert. Dabei fiel auf, dass die Netzbetreiber in der Regel von vergleichsweise ähnlichen Parametern ausgingen. Damit haben auch die Tarife ähnliche Strukturen. Weiterhin führen stark differenziert Preise dazu, dass man nicht vom „schlechtesten“ oder vom „besten“ Tarif sprechen kann. Im Prinzip gibt es nur den „besten“ Tarif für ein bestimmtes Nutzungsverhalten. Außer Sprachkommunikation wurden in der Arbeit auch andere Kommunikationsarten vorgestellt. Dabei wurde eine neue Art des Bepreisens angesprochen, nämlich das Bepreisen nach Dienstqualität. Die darauf basierenden Preisstrukturen werden zukünftig sicherlich eine große Rolle spielen, da sie sich insbesondere für Dienste eignen, die vom UMTS unterstütz werden.
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
Der Ansatz des Infrastruktur-Netzwerkes bietet eine Möglichkeit, das Entstehen von Netzwerken und die Abhängigkeit von bestimmten Einflüssen auf die Struktur nachzuvollziehen. Trotz der komplexen Struktur scheinen dezentrale Ansätze ihre Berechtigung zu haben. Das deutlich schlechtere Abschneiden des statischen Ansatzes zeigt, wie wichtig Kommunikation zwischen den Akteuren ist. Da die umfangreiche Kommunikation trotz des recht einfachen Entscheidungsverhaltens gute Ergebnisse erzielt, wäre zu untersuchen, wie weit man bei Einschränkung der Kommunikation durch bessere Entscheidungsregeln ähnlich gute Ergebnisse erzielen kann. Die Frage, wie gut ein statischer Ansatz sein kann, ist sicher nicht endgültig beantwortet. Ob jedoch rein statische Ansätze ein realistisches Szenario darstellen und untersucht werden sollten, ist eine Frage, die hier nicht beantwortet werden kann. Das sehr gute Abschneiden von reinen Verbesserungsverfahren lässt auf eine relativ homogene Nachbarschaftsstruktur schließen. Des weiteren war zu beobachten, dass in größeren Netzen der relative Verlust durch Fehlentscheidungen tendenziell geringer ausfällt. Ein Ursache könnte sein, dass die zunehmende Dichte von Netzwerken zu Bündelungseffekten bezüglich der Transportleistungen führen. In einem nächsten Schritt wäre es interessant, intelligentere Entscheidungsregeln von Agenten in einem solchen Umfeld zu testen. Durch geeigneten Einsatz dieser ’internen Intelligenz’ bei eingeschränkter Kommunikation, ist es vielleicht möglich, zu schnelleren und effizienteren Lösungen zu finden, als es mit diesem Ansatz möglich war.
Die Neue Institutionenökonomie beschäftigt sich mit der Erklärung institutioneller Gegebenheiten wie Vertrags- und Organisationsformen und versucht, eine Begründung für die Existenz von Unternehmen zu finden. Ein Bestandteil der Neuen Institutionenökonomie ist, neben der Principal- Agent- und der Property-Rights-Theorie, die hier näher zu erörternde Transaktionskostentheorie. Entstanden ist die Transaktionskostentheorie aus der Kritik an der Neoklassik, insbesondere an den dieser zugrunde liegenden Annahmen. Innerhalb der neoklassischen Theorie wird der Preismechanismus als das zentrale Instrument zur Koordination von wirtschaftlichen Aktivitäten betrachtet. Die Wirtschaftssubjekte handeln in einem Markt unter vollständiger Konkurrenz, in dem sich ohne Verursachung von Kosten ein Gleichgewichtspreis bildet. Sie verhalten sich daher als Mengenanpasser, die aufgrund dieses vorgegebenen Preises ihren Gewinn maximieren. Im Gegensatz dazu wird in der Transaktionskostentheorie davon ausgegangen, daß die Bildung des Preises bzw. die Nutzung des Marktmechanismus nicht kostenlos genutzt werden kann. Aus der Annahme der Neoklassik, daß der Preis die operativen Entscheidungen der Wirtschaftssubjekte determiniert und zu einer effizienten Allokation der Produktionsfaktoren führt,6 stellt sich weiterhin die Frage nach dem Grund für die Existenz von Unternehmungen, welche mit Hilfe der Transaktionskostentheorie beantwortet wird. Wäre der Marktmechanismus tatsächlich in der Lage alle wirtschaftlichen Aktivitäten effizient zu koordinieren, so bestünde keine Notwendigkeit für die Bildung von Institutionen. Die Entstehung von Unternehmen ist daher auf ein Versagen des Preismechanismus aufgrund von Transaktionskosten zurückzuführen....
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...