Refine
Year of publication
Document Type
- Article (11)
- Doctoral Thesis (2)
- Conference Proceeding (1)
- Diploma Thesis (1)
- Magister's Thesis (1)
Language
- German (16)
Has Fulltext
- yes (16) (remove)
Is part of the Bibliography
- no (16) (remove)
Keywords
- Computer (16) (remove)
Institute
- Extern (10)
- Neuere Philologien (2)
- Psychologie (1)
- Wirtschaftswissenschaften (1)
Seit den 1980er Jahren fällt dem Computer sowohl in Beruf und Bildung als auch in der Freizeit eine wachsende Bedeutung zu (z.B. Rheinberg & Tramp, 2006). Häufig ist es für Computernutzer erforderlich, sich Computerkenntnisse selbstständig und ohne explizite Anleitung anzueignen (Richter, Naumann & Horz, 2010). Männer und Frauen erleben dabei den Umgang mit dem Computer unterschiedlich; diese Unterschiede können in Lern- und Leistungsdifferenzen resultieren (z.B. Baloğlu & Çevik, 2008). Zur Erklärung potenzieller Lern- und Leistungsunterschiede zwischen den Geschlechtern wurde in der Arbeit das kognitiv-motivationale Prozessmodell zugrunde gelegt. Das Modell erlaubt es, Leistungsunterschiede prozessnah über die aktuelle Motivation, das Flow-Erleben und die Strategiesystematik zu erklären. In Studie 1 (N = 18) wurde ein Beobachtungssystem zur Erfassung von optimalen und suboptimalen Explorationsstrategien am Computer entwickelt. In Studie 2 (N = 33) und 3 (N = 92) wurde im Rahmen eines quasiexperimentellen Designs getestet, ob sich weibliche und männliche Studierende der Wirtschaftswissenschaften in Strategiesystematik, Motivation und Leistung beim selbstregulierten Erlernen des Programms SPSS unterscheiden. Die Teilnehmer hatten nach einer kurzen Einführung in die Benutzeroberfläche von SPSS die Aufgabe, mehrere Statistikaufgaben mit SPSS zu lösen. Die Ergebnisse der Studien erbrachten zum Teil inkonsistente Befunde: Über die Studien hinweg zeigten sich keine statistisch signifikanten Unterschiede in der Motivation vor Beginn der Aufgabenbearbeitung. In Studie 2 ergaben sich jedoch Geschlechtsunterschiede in der aktuellen Motivation und der Strategiesystematik während des Bearbeitungsprozesses sowie in der Leistung. Frauen erreichten dabei niedrigere Werte bzw. weniger Punkte. In beiden Studien standen die aktuelle Motivation, das Flow-Erleben sowie die Strategiesystematik modellkonform in Beziehung mit der Leistung. Die Ergebnisse und die Methodik der Arbeit wurden abschließend kritisch diskutiert.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser Text geht über von der Hard- zur Software und betrachtet eines der populärsten Motive der Computerfilme.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser Text beschreibt Filme, in denen Computer einen Körper bekommen und als Roboter in die Gesellschaft gelangen.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser dritte Teil befasst sich mit Menschen, die in ihrem Computern verschwinden.
Geisterprozesse und Killerapplikationen : der Computer im Film Teil 2 ; der Geist in der Maschine
(2008)
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser zweite Teil befasst sich mit den Geistern, die in den Filmcomputern hausen.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser erste Teil befasst sich mit der Eroberung und Vernichtung der Privatsphäre durch die Computertechnologie.
Die vorliegende Arbeit beschreibt den ein Jahr lang andauernden Prozess der Entwicklung meiner eigenen Poesiemaschine. Buchrückentext: Wer ist der Hirsch? Und was hat er mit dem Buch zu tun? Der Band dokumentiert auf spielerische Weise den Entstehungsprozess einer außergewöhnlich leistungsfähigen Poesiemaschine. Den drei Versionen dieser Poesiemaschine werden die bildhaften Namen Wurm, Hähnchen und Hirsch gegeben. Inspiriert von Hans Magnus Enzensbergers Einladung zu einem Poesieautomaten wagt sich der Autor «in das Labyrinth» hinein. Nach dem Vorbild der französischen Literaturgruppe Oulipo werden zunächst die Anforderungen an eine Poesiemaschine in formelle, akustische, syntaktische, semantische und kreative Einschränkungen unterteilt. Die Modellierung der syntaktischen und kreativen Aspekte orientiert sich insbesondere an der Installation Poetry Machine des renommierten Medienkünstlers David Link. Neuartig beim Hirsch ist die Verwirklichung phonetischer Algorithmen, die Gedichte mit komplexen Reimen und metrischer Regulierung ermöglichen. Abschließend wirft der Autor einen Blick in die Zukunft. Das Ergebnis stellt eine Goldgrube an Einsichten und Ideen dar für Poesiemaschinen-Entwickler der nächsten Generation. Inhalt: Aus dem Inhalt: «Jenseits der Berechenbarkeit» - Was muss ein Poesie-Erzeuger können? - Gedichtgerüstbau anhand der GGT-Grammatik - Überraschungseffekt - Poesiemaschine Poetry Machine - Carnegie Mellons phonetisches Wörterbuch - WordNet - eine lexikalische Datenbank - POS-Tagger - Syntaktische Formeln mit dem manuellen Tagger - Blocking - Balancing - Phonetischer Beweis - Jenseits des Hirsches (Zukunft der Computerpoesie) - Computing with Words - Stephen Thalers Creativity Machine.
Die Überzeugung, dass der Computer nicht als Werkzeug, sondern als Medium zu denken sei, hat in den zurückliegenden Jahren die Debatte zu einer Medientheorie des Computers wesentlich geprägt. Damit war insbesondere eine bestimmte Auffassung des Technischen verbunden. Die Effekte der technischen Medien lassen sich, so der Gedanke, nicht über die Aktivierung anthropologischer Schemata begreifen, vielmehr müssen die Medien in ihrer Technizität ernst genommen werden. Dies heißt aber nichts anderes, als dass der Technik ein Eigenwert zuzugestehen sei, der sich gerade nicht vom Menschen her konturieren lässt. Hierüber diskreditiere sich dann letztlich eine Rede von den Medien als werkzeughaften Extensionen des Menschen. Demgegenüber soll in dieser Arbeit der Vorschlag unterbreitet werden, den Computer eben doch wieder vom Werkzeug her zu denken. Damit soll jedoch keinesfalls über den erreichten Stand medientheoretischer Positionen hinweggesehen werden. Mit dem Medienbegriff umzugehen bedeutet nicht zuletzt, den epistemischen Status mitzureflektieren, den die Medien inne haben. Sie geben den Rahmen vor, in dem sich die Subjekte äußern können. Die Medien strukturieren diese Äußerungen bereits vorab bzw. ermöglichen überhaupt erst bestimmte Äußerungsformen. Sich hierüber Rechenschaft abzulegen bedeutet aber nicht notwendig, die Metapher einer werkzeughaften Nutzung des hoch technischen neuen Mediums als trügerisch verwerfen zu müssen. Gerade diese Nutzungsweise unterscheidet den Computer vom vorherrschenden Medienparadigma des 20. Jahrhunderts, von Film und Fernsehen und dem daraus abzuleitenden Status des Rezipienten als Rezipienten. Die vorliegende Arbeit betreibt also Werbung für einen produktiven Gebrauch des neuen Mediums, wobei es jedoch nicht darum geht, den Computer als eine Art Befreiung von den "Zwängen" der anderen technischen Medien zu positionieren. Sofern Medien überhaupt -- im strengen Sinne – Zwänge ausüben, so wäre doch nicht einzusehen, warum dies beim Computer anders sein sollte. Dennoch: Dass es so etwas wie eine "Creative Commons" gibt, dass es immer selbstverständlicher wird, wenn Nutzer ihre kreativen Produkte nicht nur mit anderen Nutzern teilen, sondern sie es darüber hinaus ermöglichen, dass auf Basis ihrer Produkte weitergearbeitet werden kann, nährt die Vermutung eines sich ändernden Verhältnisses zwischen den Nutzern und den Medien. Zentrales Ziel dieser Arbeit ist daher zunächst, die sich in der Medienwissenschaft bereits etablierte Perspektive auf den Computer als eines Textmediums zu kritisieren, da hierüber allzu leichtfertig eine bestimmte Nutzungsweise des Computers verabsolutiert werden kann: Einzig der programmierende Zugriff gilt als emanzipativ. Daran anschließend möchte ich nach einer kurzen Diskussion des Medienbegriffes das in der Softwareentwicklung lange Zeit bestimmende Gestaltungskonzept der Werkzeugnutzung für eine neuerliche Verwendung in der Medienwissenschaft vorschlagen. Vorteil ist, dass hiermit auch Nutzerpraxen adäquat einbezogen werden können, die sich auf den "Oberflächen" der Software abspielen. Betrachtet man Medien nicht als bloße Übertragungskanäle und versucht man, die produktive Seite von Medientechnologien in den Blick zu nehmen, dann weist die "Botschaft" des neuen Mediums in die Richtung eines Wechsels vom Rezipienten zum Produzenten. In dieser Perspektive erscheinen die Nutzer nicht mehr nur als Anhängsel der Technik. Sie sind nicht von ihr aus zu bestimmen, ebenso wenig wie die Medientechnik rein vom Menschen her zu bestimmen wäre. Um die These einer werkzeughaften Verwendbarkeit des Computers auszuführen, konzentriert sich die vorliegende Arbeit auf bestimmte Texte, die genauer diskutiert und in die Argumentation integriert werden. Dies erscheint mir fruchtbarer als der Versuch, das gesamte Spektrum der neueren Diskussion um den Computer als Medium aufgreifen und synthetisieren zu wollen. Die Gliederung verläuft dementsprechend weitgehend entlang dieser (theoretischen) Referenzen.
"Wissen als Schauspiel" – nach den Möglichkeiten theatraler Formen von Wissensrepräsentation fragt Peter Matussek. Er beobachtet eine Wende vom "pictorial turn" zum "performative turn" und gibt uns einen historischen Abriss der wiederauflebenden Gedächtnistheater. Kann die theatrale Form der Wissensrepräsentation die Aufmerksamkeitsstörungen der Informationsgesellschaft kurieren, oder ist sie selbst das Symptom, das sie zu kurieren vorgibt? Matussek betont, welchen bisher weitgehend übersehenen Einfluss "The Art of Memory" von Frances Yates auf Wissensingenieure, Interface-Designer und Computerkünstler ausgeübt hat. Dabei gehe es nicht nur um die Anordnung, sondern auch um die Erfindung von Wissen und neuen Werkzeugen zur Systematisierung, Kontextualisierung, Visualisierung und Inszenierung von Information.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.