Refine
Year of publication
Document Type
- Article (11)
- Doctoral Thesis (2)
- Part of a Book (1)
- Conference Proceeding (1)
- Diploma Thesis (1)
- Magister's Thesis (1)
Language
- German (17)
Has Fulltext
- yes (17)
Keywords
- Computer (17) (remove)
Institute
- Extern (10)
- Neuere Philologien (2)
- Psychologie (1)
- Wirtschaftswissenschaften (1)
Was allzu bereitwillig schöntut, kann – ehe man sich versieht – den Kopf verdrehen und am Ende den Geist rauben. Die Qualität einer Textverarbeitung bemißt sich nicht nur am Outfit des Outputs, sondern vor allem daran, ob sie der Inspiration beim Input dient. Peter Matussek befaßt sich seit längerem mit den theoretischen und praktischen Konsequenzen des Schreibens am Computer. Für PAGE hat er eine skeptische Trendeinschätzung formuliert.
Was ist Computerphilologie?
(1999)
Im Zuge seiner weltweiten Verbreitung konnte sich der PC gegen anfängliche Bedenken und Widerstände auch in der Literaturwissenschaft als Werkzeug der täglichen Arbeit etablieren. Anfangs waren es vor allem die Vorteile der Textverarbeitung und deren Entlastung vom mechanischen Aspekt des Schreibens und Wiederschreibens, die den Rechnern den Weg auf die Schreibtische ebneten. Ist aber die Maschine einmal vorhanden, man sich mit geringem Aufwand Zugang zum Internet verschaffen. E-Mail und das World Wide Web eröffnen einfachere Kommunikationswege, dazu kommen die Vorteile des Intranets, also eines universitätseigenen Netzes mit Zugriff auf elektronische Bibliographien und die Bibliothekskataloge einschließlich der Bestellmöglichkeiten vor Ort. Nicht wenige Literaturwissenschaftler haben sich inzwischen auch mit den neueren elektronischen Texten angefreundet, deren einfachen Benutzeroberflächen althergebrachte philologische Tätigkeiten sehr beschleunigen, zum Beispiel die Klärung von Wortbedeutungen mittels der Suche nach Parallelstellen beim selben Autor oder in derselben Epoche.
Es war die Zeit, als in den Feuilletons noch kritische Köpfe über Computer aufklärten, die nie einen aus der Nähe gesehen hatten, und Grundkenntnisse in BASIC ausreichten, um als "Medienexperte" angesehen zu werden. An fundamentalistischer Konsequenz konnte ich mich mit Jabloner durchaus vergleichen, wenn es um die Abwehr der falschen Gehirne ging. Mit gerechtem Zorn verhinderte ich eine Seminardiskussion über "Computer-Lyrik". Denn diese Attacke der Geschmacklosigkeit auf die zarteste Weise, in der menschlicher Geist sich mitzuteilen vermag, auch nur mit einem Worte zu würdigen, sei - so argumentierte ich - der erste Schritt in die Totalverblödung. ...
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser Text beschreibt Filme, in denen Computer einen Körper bekommen und als Roboter in die Gesellschaft gelangen.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser erste Teil befasst sich mit der Eroberung und Vernichtung der Privatsphäre durch die Computertechnologie.
Seit den 1980er Jahren fällt dem Computer sowohl in Beruf und Bildung als auch in der Freizeit eine wachsende Bedeutung zu (z.B. Rheinberg & Tramp, 2006). Häufig ist es für Computernutzer erforderlich, sich Computerkenntnisse selbstständig und ohne explizite Anleitung anzueignen (Richter, Naumann & Horz, 2010). Männer und Frauen erleben dabei den Umgang mit dem Computer unterschiedlich; diese Unterschiede können in Lern- und Leistungsdifferenzen resultieren (z.B. Baloğlu & Çevik, 2008). Zur Erklärung potenzieller Lern- und Leistungsunterschiede zwischen den Geschlechtern wurde in der Arbeit das kognitiv-motivationale Prozessmodell zugrunde gelegt. Das Modell erlaubt es, Leistungsunterschiede prozessnah über die aktuelle Motivation, das Flow-Erleben und die Strategiesystematik zu erklären. In Studie 1 (N = 18) wurde ein Beobachtungssystem zur Erfassung von optimalen und suboptimalen Explorationsstrategien am Computer entwickelt. In Studie 2 (N = 33) und 3 (N = 92) wurde im Rahmen eines quasiexperimentellen Designs getestet, ob sich weibliche und männliche Studierende der Wirtschaftswissenschaften in Strategiesystematik, Motivation und Leistung beim selbstregulierten Erlernen des Programms SPSS unterscheiden. Die Teilnehmer hatten nach einer kurzen Einführung in die Benutzeroberfläche von SPSS die Aufgabe, mehrere Statistikaufgaben mit SPSS zu lösen. Die Ergebnisse der Studien erbrachten zum Teil inkonsistente Befunde: Über die Studien hinweg zeigten sich keine statistisch signifikanten Unterschiede in der Motivation vor Beginn der Aufgabenbearbeitung. In Studie 2 ergaben sich jedoch Geschlechtsunterschiede in der aktuellen Motivation und der Strategiesystematik während des Bearbeitungsprozesses sowie in der Leistung. Frauen erreichten dabei niedrigere Werte bzw. weniger Punkte. In beiden Studien standen die aktuelle Motivation, das Flow-Erleben sowie die Strategiesystematik modellkonform in Beziehung mit der Leistung. Die Ergebnisse und die Methodik der Arbeit wurden abschließend kritisch diskutiert.
Geisterprozesse und Killerapplikationen : der Computer im Film Teil 2 ; der Geist in der Maschine
(2008)
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser zweite Teil befasst sich mit den Geistern, die in den Filmcomputern hausen.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser dritte Teil befasst sich mit Menschen, die in ihrem Computern verschwinden.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
Die vorliegende Arbeit beschreibt den ein Jahr lang andauernden Prozess der Entwicklung meiner eigenen Poesiemaschine. Buchrückentext: Wer ist der Hirsch? Und was hat er mit dem Buch zu tun? Der Band dokumentiert auf spielerische Weise den Entstehungsprozess einer außergewöhnlich leistungsfähigen Poesiemaschine. Den drei Versionen dieser Poesiemaschine werden die bildhaften Namen Wurm, Hähnchen und Hirsch gegeben. Inspiriert von Hans Magnus Enzensbergers Einladung zu einem Poesieautomaten wagt sich der Autor «in das Labyrinth» hinein. Nach dem Vorbild der französischen Literaturgruppe Oulipo werden zunächst die Anforderungen an eine Poesiemaschine in formelle, akustische, syntaktische, semantische und kreative Einschränkungen unterteilt. Die Modellierung der syntaktischen und kreativen Aspekte orientiert sich insbesondere an der Installation Poetry Machine des renommierten Medienkünstlers David Link. Neuartig beim Hirsch ist die Verwirklichung phonetischer Algorithmen, die Gedichte mit komplexen Reimen und metrischer Regulierung ermöglichen. Abschließend wirft der Autor einen Blick in die Zukunft. Das Ergebnis stellt eine Goldgrube an Einsichten und Ideen dar für Poesiemaschinen-Entwickler der nächsten Generation. Inhalt: Aus dem Inhalt: «Jenseits der Berechenbarkeit» - Was muss ein Poesie-Erzeuger können? - Gedichtgerüstbau anhand der GGT-Grammatik - Überraschungseffekt - Poesiemaschine Poetry Machine - Carnegie Mellons phonetisches Wörterbuch - WordNet - eine lexikalische Datenbank - POS-Tagger - Syntaktische Formeln mit dem manuellen Tagger - Blocking - Balancing - Phonetischer Beweis - Jenseits des Hirsches (Zukunft der Computerpoesie) - Computing with Words - Stephen Thalers Creativity Machine.