Refine
Year of publication
- 2004 (24) (remove)
Document Type
- diplomthesis (24) (remove)
Has Fulltext
- yes (24)
Is part of the Bibliography
- no (24)
Keywords
- Atom (1)
- Caché (1)
- EML (1)
- IMS Learning Design (1)
- InterSystems (1)
- Ionisation (1)
- Laser (1)
- Lehrerbildung (1)
- Medienpädagogik (1)
- Molekül (1)
Institute
- Physik (11)
- Informatik (6)
- Mathematik (3)
- Wirtschaftswissenschaften (3)
- Biochemie und Chemie (1)
Die Arbeiten von Alexander Michailowitsch Lyapunov (1857-1918) waren der Anfangspunkt intensiver Erforschung des Stabilitätsverhaltens von Differentialgleichungen. In der vorliegenden Arbeit sollen Lyapunovfunktionen auf Zeitskalen in Bezug auf das Stabilitätsverhalten des homogenen linearen Systems x-delta = A(t)x untersucht werden.
Es wurde eine Meßstation zum Vermessen von THz-Photomischern vorgestellt und aufgebaut. Weiterhin konnte gezeigt werden, wie diese Station es ermöglicht, das Vermessen von THz-Photomischern, im Vergleich zum bisher verwendeten Meßaufbau, deutlich zu vereinfachen und zu beschleunigen. Mit dieser Station wurden zwei Proben, die sich in der Dicke der LT-GaAs-Schicht unterscheiden, vermessen. Um die gemessenen Daten analysieren zu können wurden zuvor beschrieben, wie eine Modulation des Photostroms in Photomischern erhalten und damit THz-Strahlung erzeugt werden kann. Gemessen wurde die THz-Leistung in Abhängigkeit von Frequenz , Vorspannung und Leistung der optischen Beleuchtung. Diese Messungen haben zu Ergebnissen geführt, die nur zum Teil mit den theoretisch vorhergesagten Ergebnissen übereinstimmen. So wurde festgestellt, daß nur etwa 1 bis 2 % der theoretisch erwarteten THz-Leistung detektiert wurde. Dies kann an langlebigen Ladungsträgern liegen, die im Substrat erzeugt werden. Diese Ladungsträger unterhalb der LT-GaAs-Schicht führen zu einer erhöhten Leitfähigkeit und können dadurch Reflexion und Absorption von THz-Strahlung verursachen. Diese Vermutung wird unterstützt durch die Beobachtung einer starken Reduktion des Signals in einem gepulsten THz-System, wenn eine konstante Hintergrundbeleuchtung eingeschaltet wird.[45] Weiterhin ist nicht auszuschließen, daß die für die THz-Erzeugung relevante Lebenszeit der Ladungsträger deutlich größer ist, als die mit Anrege-Abfrage-Messungen bestimmte. Analog könnte auch eine deutlich höhere Kapazität des Photomischers als die theoretisch berechnete diese Beobachtung erklären. Ob langlebige Ladungsträger im Substrat für die geringe gemessen Leistung verantwortlich sind kann überprüft werden, indem zwischen Substrat und LT-GaAs-Schicht einen Bragg-Refelektor gewachsen wird. So kann verhindert werden, daß eingestrahlte Leistung das Substrat erreicht. Dadurch können keine Ladungsträger im Substrat angeregt werden. Zusätzlich hat dies den Effekt, daß ein größerer Anteil der eingestrahlten Strahlung absorbiert werden kann, weil die einfallende Strahlung wegen der Reflexion zweimal durch die LT-GaAs-Schicht läuft. Ein solcher Mischer wurde bereits von E. R. Brown vorgeschlagen.[46] Bei den Messungen der THz-Leistung gegen Vorspannung konnte beobachtet werden, daß der Photostrom eine andere Abhängigkeit von der Vorspannung zeigt, als theoretisch vorhergesagt wurde. Erwartet wurde ein linearer Zusammenhang. Bei höheren Vorspannungen wurde aber ein stärkerer Anstieg beobachtet. Dies kann z.B. an einem zusätzlichen nichtlinearen Strom durch das Substrat oder an einer vom elektrischen Feld abhängigen Lebenszeit der Ladungsträger liegen. Für beide Erklärungsansätze wurden vereinfachte Modelle vorgestellt. Beide Modelle treffen dabei unterschiedliche Vorhersagen über die Änderung der Effizienz beim Auftreten des höheren Stromes. Deutlich werden die Unterschiede in den Vorhersagen im Frequenzverlauf. So führt ein zusätzlicher Strom durch das Substrat zu einer Verringerung der Effizienz um einen von der Frequenz unabhängigen konstanten Faktor. Der Frequenzverlauf verschiebt sich also zu geringeren Effizienzen. Eine Erhöhung der Lebenszeit hingegen führt zu einem geänderten Frequenzverlauf. So ist die Änderung der Effiienz bei niedirgen Frequenzen gering, zu höheren Frequenzen hin ändert sich die Effizienz jedoch immer stärker. Die Vorhersagen beider Modelle wurden mit dem gemessenen Daten verglichen. Bei den gegebenen Parametern war der Unterschied zwischen den beiden Modellen jedoch zu gering und die Fluktuation in den Meßdaten zu hoch, um entscheiden zu können, welches der beiden Modelle die gemessenen Daten besser beschreibt. Um erkennen zu können, welches der Modelle den Effekt beschreibt, der zu einem höheren Strom führt, müßte der Effekt in den Meßdaten erhöht werden. Dies kann geschehen, indem zusätzlich bei höheren Spannungen gemessen wird. Es müßte dabei allerdings die optische Leistung reduziert werden, um ein Zerstören der Mischer zu vermeiden. In dieser Arbeit konnte somit gezeigt werden, daß die aufgebaute Meßstation ein vereinfachtes Messen von THz-Photomischern ermöglicht. Weiterhin konnte das Verhalten von zwei vermessenen Mischern gezeigt und analysiert werden, sowie weitere Messungen vorgeschlagen werden, die eine exaktere Analyse der Photomischer ermöglichen sollten.
Das im Rahmen dieser Arbeit durchgeführte Experiment hatte zum Ziel Interferenzeffekte beim dissoziativen Ladungstransfer bei Molekülion-Atomstößen zu beobachten. Interferenzeffekte in Molekül-Atomstößen wurden von McGuire hervorgesagt und berechnet [4]. Diese Arbeit betrachtet ein ähnlichen Reaktionssystem. Die von ihm vorausgesagten Effekte wurden bestätigt. Das Experiment hat es ermöglicht, Interferenzen für alle Molekülorientierungen zu betrachten, womit man leicht Analogien zu zwei speziellen Fällen herstellen kann: mit der Molekülachse senkrecht zur Strahlrichtung entsteht eine Situation ähnlich einem Doppelspalt, bei dem die Kerne des Moleküls als Reaktionszentrum an Stelle der Spalte treten; mit der Molekülachse in Strahlrichtung entsteht eine Situation bei der Streuung an einem einzelnen Atom. In allem Molekülorientierungen erkennt man ein ringförmiges Minimum bei 1.6 a.u., wie es insbesondere bei der Beugung einem einzelnen Atom zu beobachten ist. Bei senkrechter Stellung der Molekülachse zur z-Achse überlagert durch die Streifen eines Doppelspaltes. Es war außerdem möglich den Endzustand der Teilchen zu bestimmen, so daß man sagen konnte, ob eine Teilchen angeregt aus der Reaktion hervorgegangen ist oder ob es über metastabile Zwischenzustände zerfallen ist. So ließ sich für den Impulsübertrag von 1.6 au eine Besonderheit feststellen: ein Minimum läßt sich nur im direkten Kanal ohne Anregung beobachten. Findet der Zerfall hingegen über metastabile Zwischenzustände ohne Anregung statt, so weist dieser Kanal bei etwa 1.6 au ein Maximum auf. Parallel zur Durchführung dieser Arbeit wurden erste Tests mit einem digitalen Oszillographen von Aquiris gemacht. Dieser speichert den Spannungsverlauf der Spannung an den Delaylineanoden. Peaks müssen dann schnell genug erkannt und ausgewertet werden. In der Offlineanalyse wären dann eng nebeneinander oder übereinanderliegende Peaks besser als solche zu erkennen. Diese würde die Totzeitproblematik, die sie durch die Dissoziation eines Moleküls senkrecht zur z-Achse entsteht, erheblich entschärfen.
Die vorliegende Arbeit beschäftigt sich mit der Messung der Elektronen-Driftgeschwindigkeit in dem Gasgemisch Ne/CO2 (90% / 10 %). Durchgeführt wurde sie zur Optimierung der Spurendriftkammer des ALICE-Projektes am CERN. Mit dem Aufbau zur Driftgeschwindigkeitsmessung läßt sich eine Genauigkeit von 1‰ erzielen. Untersucht wurden mit diesem Anspruch die Abhängigkeiten von der Temperatur, von CO2 Konzentrationsänderungen sowie von Stickstoffzugabe. Für die genaue Messung der Driftgeschwindigkeit wurde eine kleine Driftkammer gebaut. Die Ionisation des Gases erfolgt mit Hilfe eines UV-Lasers, dessen Strahl zunächst aufgeweitet, und dann geteilt wird. Der Abstand der so erhaltenen zwei Laser-Strahlen wird mit Hilfe von zwei präzisen Doppelblenden definiert. Zur Kontrolle der Gaszusammensetzung und -qualität wurde eine Gasanalysestation zusammengestellt. Die aufgenommenen Daten werden über ein ADC-System auf einem Computer gespeichert. Damit können in der Analyse die Driftgeschwindigkeitsdaten mit den Gasdaten zeitgleich ausgewertet werden. Das wird u.a. für die Korrektur der Daten auf den momentanen Druck und die Temperatur des Gases benötigt. Die Driftgeschwindigkeit wurde bei Feldstärken von 100 - 900 V/cm in Schritten von 100 V/cm gemessen. Die Spurendriftkammer des ALICE-Experimentes soll bei einer Feldstärke von 400 V/cm arbeiten. Die dafür gemessenen Ergebnisse sind: Temperaturabhängigkeit: Bei der erreichbaren Genauigkeit läßt sich über die Abhängigkeit der Driftgeschwindigkeit ve􀀀 von der Teilchenzahldichte N des Gases ve􀀀 = f(E/N) = f(E*T/P) keine weitere Temperaturabhängigkeit feststellen. Die relative Änderung der Driftgeschwindigkeit mit der Temperatur beträgt: Dv400 e􀀀 DT = 3.1 +- 0.23‰ /K CO2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit mit dem CO2-Gehalt bei einer CO2- Konzentration um die 10% beträgt: Dv400 e􀀀;CO2 = -7.69 +- 0.39 Eine Erhöhung des CO2-Gehaltes um 1‰ (10.0% -> 10.1 %) führt also zu einer Herabsetzung der Driftgeschwindigkeit um ca. 7.7‰. N2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit bei Stickstoffzugabe beträgt Dv400 e􀀀;N2 = - 1.14 +- 0.08 Eine Zugabe von 1‰ N2 zur Driftgasmischung führt damit zu einer Herabsetzung der Driftgeschwindigkeit um ca. 1.1‰ .
Mit dieser Arbeit ist gezeigt worden, wie vielfältig die Produkte bzw. Dienste im Mobilfunkbereich sind. Der eigentliche Schwerpunkt lag auf der Fragestellung, wie die Mobilfunk-Dienste im Internet bepreist werden. Die Untersuchung der verschiedenen Mobilfunktarife im Internet hatte das Ziel, die grundlegenden Preisparameter für diese Tarife zu identifizieren, zu diskutieren und zu modellieren. Das oberste Ziel bei der Modellierung war die Erstellung eines flexiblen Tarif- und Abrechnungsmodells. Zu diesem Zweck wurden die Vorteile, die XML-Schema und XML-Netze bieten, zum Ausdruck gebracht. Dabei wurde das methodische Vorgehen in den Vordergrund gestellt und nicht die Abbildung des tatsächlichen Marktgeschehens. Zunächst wurde in dieser Arbeit kurz das Internet und die speziellen Eigenschaften des Internets behandelt. Dabei wurde festgestellt, dass sich das Internet auf Grund seiner Eigenschaften besonderes für digitale Produkte eignet. Die digitalen Produkte und deren Eigenschaften wurden untersucht und daraus ergab sich, dass die digitalen Produkte eine vorteilhafte Kostenstruktur aufweisen; nämlich vernachlässigbar niedrige Reproduktionskosten. Unter anderem ist festgestellt worden, dass für die Nutzung der digitalen Produkte für Konsumenten deren Verbreitungsgrad wichtig ist. Gerade hier kann das Internet dank seiner Eigenschaften diese Anforderung besser als ein anderer Vertriebskanal unterstützen. Schließlich lassen sich aus dem Zusammenspiel der Interneteigenschaften und der Merkmale der digitalen Güter gewisse ökonomische Gesetzmäßigkeiten ableiten. Diese verschaffen einem Unternehmen langfristig Vorteile gegenüber der Konkurrenz. Der Schwerpunkt dieser Arbeit liegt aber bei einer speziellen Gruppe der digitalen Produkte, nämlich der Produkte bzw. Dienste im Mobilfunkbereich. Mobilfunk ist eine wichtige und weitverbreitete Art der Mobilkommunikation. Auf dem deutschen Mobilfunkmarkt wurde gerade die 4. Generation der Mobilfunkstandards – UMTS - eingeführt. Allerdings wird UMTS noch einige Zeit brauchen, um sich auf dem Markt richtig zu etablieren. Damit bleibt der GPRS immer noch der führende Standard auf diesem Markt. Der meist genutzte Dienst im Mobilfunk ist immer noch der „Sprach-Dienst“. Der Mobilfunk bietet neben der „Sprache“ eine ganze Reihe weiterer Dienste an. Durch die neuen Technologien ist der Trend in Richtung Datenübertragung über Mobilfunk stark am Aufholen. Die zur Verfügung stehenden Dienste hängen mit den Mobilfunkstandards zusammen. Daher ist es möglich, dass bei der Änderung der Standards auch die zur Verfügung stehenden Dienste angepasst werden. Ein wichtiger Punkt am Bespiel von Mobilfunk als digitales Produkt bzw. Dienstleistung war die Wahl der richtigen Preisstrategie. Die meisten Netzbetreiber entschieden sich für die Strategie differenzierter Preise. Damit können sie unterschiedliche Zahlungsbereitschaften ihrer Kunden relativ gut ausschöpfen. Hierzu wurden die Vielfältigkeit der Möglichkeiten und die Vorteile, die die Preisdifferenzierungsstrategie anbietet, dargestellt. Der sich anschließende Hauptteil dieser Arbeit ist die Parametrisierung und die Modellierung des Mobilfunktarifs und dessen Abrechnungssystems. Zur Modellierung wurden XML-Schema und XML-Netze gewählt. Das XML-Schema ermöglicht flexible Erstellung, Anpassung und Erweiterung von Tarifelementen. Außerdem ermöglicht XML Datenaustausch über Plattform unabhängige Protokolle. Die XML-Netze bieten durch ihre graphische Darstellung die Visualisierung der Abläufe und der ablaufrelevanten Daten. Die aktuellen Zustände können aufgezeigt, simuliert und analysiert werden. Außerdem ermöglichen sie die gute Umstrukturierung, Anpassung und Erweiterung des Abrechnungsprozesses. Bei der Erstellung des Abrechnungsmodells wurde von den Hauptbestandteilen eines beliebigen Abrechnungsmodells ausgegangen. Anschließend sind diese Bestandteile an die Anforderungen des Abrechnungsmodells für Mobilfunkverträge angepasst worden. Die jeweiligen Abrechnungsparameter wurden, wie z.B. Tarifdaten, mit der modifizierten XMLSchema dargestellt. Die Tarifdaten stellen die Vielfältigkeit der Parameter dar, die die Preise eines Mobilfunktarifes beeinflussen. Die Preisparameter wurden nach eingehender Untersuchung verschiedener Tarife181 der vier Netzbetreiber identifiziert. Dabei fiel auf, dass die Netzbetreiber in der Regel von vergleichsweise ähnlichen Parametern ausgingen. Damit haben auch die Tarife ähnliche Strukturen. Weiterhin führen stark differenziert Preise dazu, dass man nicht vom „schlechtesten“ oder vom „besten“ Tarif sprechen kann. Im Prinzip gibt es nur den „besten“ Tarif für ein bestimmtes Nutzungsverhalten. Außer Sprachkommunikation wurden in der Arbeit auch andere Kommunikationsarten vorgestellt. Dabei wurde eine neue Art des Bepreisens angesprochen, nämlich das Bepreisen nach Dienstqualität. Die darauf basierenden Preisstrukturen werden zukünftig sicherlich eine große Rolle spielen, da sie sich insbesondere für Dienste eignen, die vom UMTS unterstütz werden.
Durch Messen der vollständigen Impulsvektoren beider Coulomb-explodierender, einfachgeladener Fragmente eines doppelionisierten, diatomaren, homonuklearen Moleküls (H2, N2, O2) können verschiedene Ionisationsprozesse identifiziert werden. Bei der sogenannten COLd Target Recoil Ion Momentum Spectroskopy (COLTRIMS) wird ein überschall Gasjet mit ultrakurzen, hochintensiven Laserpulsen penetriert. Aus den gemessenen Fragmentimpulsen kann die freigesetzte kinetische Energie, sowie die ursprüngliche Lage der Molekülachse im Laborsystem berechnet werden, woraus winkelabhängige Explosionswahrscheinlichkeiten abgeleitet werden können, die unter bestimmten Bedingungen die orbitale Symmetrie der Moleküle wiederspiegeln. Unter Benutzung verschiedener Pulslängen des Lasers (35 fs und 8 fs) und Variation der Polarisation (linear, zirkular) koennen Ionisationsmechanismen wie rescattering oder sequentielle Ionisation identifiziert werden.
Im Rahmen dieser Arbeit wurden Protonen an im Raum ausgerichteten D2-Molekülen gestreut. Ziel war es nach möglichen Interferenzstrukturen in der Streuwinkelverteilung der Projektile zu suchen. Solche Interferenzstrukturen sind durch die Theorie vorhergesagt. Sie sind in Analogie zur Beugung am Doppelspalt ein Ergebnis der kohärenten Streuung des Projektils an den beiden Kernen des D2-Moleküls. Für den Reaktionskanal des Elektroneneinfangs mit gleichzeitiger Dissoziation des Moleküls mit einer Energie zwischen 4 und 7eV zeigen die experimentellen Daten tatsächlich ein Minimum an etwa der vorhergesagten Stelle. Dieses Minimum variiert mit der Orientierung der Molekülachse allerdings nicht ganz, wie aufgrund der Analogie zum Doppelspalt zu erwarten ist. Für den gleichzeitig im Experiment beobachteten Kanal der Transferionisation, der zu einer Fragmentenergie von etwa 9eV führt, wurden im Experiment keine Modulation der Streuverteilung beobachtet. Der beobachtete Reaktionskanal der Dissoziation wirft weitere Fragen auf, die über das einfache Doppelspalt-Bild hinausgehen. So kann das dissoziierende D2-Ion sowohl in einem geraden als auch in einem ungeraden Zustand seiner elektronischen Wellenfunktion zurückbleiben. Diese Symmetrie der elektronischen Wellenfunktion beeinflusst ebenfalls die Phase der gestreuten Welle. Eine zuverlässige Vorhersage des zu erwartenden Kontrastes des Interferenzmusters hängt von der relativen Stärke der Anregung in den geraden und ungeraden Zustand ab. Dieser Effekt ist bisher nicht in den theoretischen Modellen berücksichtigt. Diese Frage kann aber auch durch weitere Experimente geklärt werden. Im Rahmen einer anderen Diplomarbeit [Wim04] wurde ein sehr ähnliches Experiment vermessen: Ein einfach geladenes Wasserstoffmolekülion wird beschleunigt, stößt mit einem nahezu ruhenden Atom und fängt dabei ein Elektron ein. Durch den Elektroneneinfang geht das Molekül u. a. in einen 1ssu-Zustand über, der zur Dissoziation führt. Genau wie in diesem Experiment auch, kann dadurch die Molekülachse festgehalten werden. Betrachtet man in der Auswertung die Bewegung beider Teilchen in inverser Kinematik, d.h. lässt man das neutrale Atom auf das Molekül zufliegen, so zeigen sich in der Impulsverteilung des Rückstoßions (Atomions) Minima und Maxima, deren Position sich mit der Drehung des Moleküls ändert. Dies bestätigt eigentlich die Existenz von Interferenzen. Nur wird hier, wie bereits gesagt, die inverse Kinematik betrachtet, zudem vermisst man eigentlich den umgekehrten Übergang vom 1ssg-Zustand des Molekülions in den 1ssu-Zustand des Moleküls. Um theoretische Berechnungen jedoch direkt zu bestätigen, ist es durchaus erstrebenswert, die Kinematik wie hier in dem hier vorgestellten Experiment zu vermessen. Aus diesem Grund werden in nächster Zeit noch weitere Messungen vorgenommen, in denen mit gleichem Aufbau, jedoch mit einer niedrigeren Projektilenergie (10 keV - 25 keV), die gleiche Reaktion untersucht wird. Mit der niedrigeren Energie des Projektils soll eine sehr viel bessere Streuwinkelauflösung erreicht werden, so dass sie die Beobachtung möglicher Interferenzen definitiv nicht mehr begrenzt. Dadurch können zum einen die Ergebnisse dieser Arbeit auf ihre Richtigkeit überprüft werden. Wenn tatsächlich Interferenzstrukturen zu beobachten sind, zeigen zum anderen eventuelle Veränderungen, ob eine Analogie zum Doppelspalt gerechtfertigt ist.
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.