Refine
Year of publication
Document Type
- Article (11)
- Doctoral Thesis (2)
- Part of a Book (1)
- Conference Proceeding (1)
- Diploma Thesis (1)
- Magister's Thesis (1)
Language
- German (17)
Has Fulltext
- yes (17)
Keywords
- Computer (17) (remove)
Institute
- Extern (10)
- Neuere Philologien (2)
- Psychologie (1)
- Wirtschaftswissenschaften (1)
Die telefonische Revolution des Bildes : Effekte einer Kommunikationsobsession des 21. Jahrhunderts
(2010)
Um was für ein Objekt handelt es sich eigentlich beim gegenwärtigen Mobiltelefon? Im Folgenden sollen kurz drei Elemente skizziert werden, die für die historische Entwicklung und das gegenwärtige Design des Mobiltelefons von zentraler Bedeutung sind: Das Mobiltelefon ist (1) ein höchst hybrides Medium, das eine ganze Reihe von Medientechniken verbindet und dabei auch diese eigentümliche Verbindung von Telefon und digitalem Bild herstellt; es ist (2) eine mobile Operationseinheit, die sich von einem physischen oder architektonischen Ort löst und dessen Mobilisierung (3) die Minimierung der Interfaces forciert. All dies erzeugt die neuen Bedingungen für eine Revolution des digitalen Bildes im Zeichen des Telefons.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
Was allzu bereitwillig schöntut, kann – ehe man sich versieht – den Kopf verdrehen und am Ende den Geist rauben. Die Qualität einer Textverarbeitung bemißt sich nicht nur am Outfit des Outputs, sondern vor allem daran, ob sie der Inspiration beim Input dient. Peter Matussek befaßt sich seit längerem mit den theoretischen und praktischen Konsequenzen des Schreibens am Computer. Für PAGE hat er eine skeptische Trendeinschätzung formuliert.
Es war die Zeit, als in den Feuilletons noch kritische Köpfe über Computer aufklärten, die nie einen aus der Nähe gesehen hatten, und Grundkenntnisse in BASIC ausreichten, um als "Medienexperte" angesehen zu werden. An fundamentalistischer Konsequenz konnte ich mich mit Jabloner durchaus vergleichen, wenn es um die Abwehr der falschen Gehirne ging. Mit gerechtem Zorn verhinderte ich eine Seminardiskussion über "Computer-Lyrik". Denn diese Attacke der Geschmacklosigkeit auf die zarteste Weise, in der menschlicher Geist sich mitzuteilen vermag, auch nur mit einem Worte zu würdigen, sei - so argumentierte ich - der erste Schritt in die Totalverblödung. ...
"Die Wissenschaft im großen besteht ... aus dem Produkt der Gedächtniswissenschaften, oder der gegebenen Kenntnisse und der Vernunftwissenschaften oder der gemachten (erworbenen) Kenntnisse. Die letztern sind das (bloße)Werk des Menschen. DieWissenschaft im großen ist also überhaupt die Totalfunktion der Daten und Fakten – die n-Potenz des Reihenbinoms der Daten und Fakten. Hier wird die kombinatorische Analysis Bedürfnis."
In merkwürdig aktueller Notation formuliert Novalis den wohl letzten Entwurf einer ambitionierten Enzyklopädistik im Geiste d'Alemberts und Diderots. Deren Scheitern an der "binomischen" Forderung der enkyklios paideia, umfassend und essentiell zugleich zu sein, ließ nachfolgende Projekte entweder in Stoff- oder Sinnhuberei resignieren. Offenbar nur eine grandiose Selbstüberschätzung gestattet Novalis noch den Glauben an die Realisierbarkeit einer vollständigen Kombination der "gegebenen" und "gemachten Kenntnisse", einer "Totalfunktion der Daten und Fakten". ...
Anfangs mochte es ja noch als ein Zeichen für standesbewußtes Literatentum gelten, die gute alte Adler einem dieser Ataris vorzuziehen. Inzwischen signalisiert es nur mehr larmoyante Gestrigkeit. Die Elektrifizierung des Schreibens ist salonfähig geworden und damit auch ZEIT-gemäß. Dieter E. Zimmer - viele sind berufen, aber wenige sind auserwählt - verkündet am 8. Juli 1988 vom heiligen Berg des deutschen Feuilletons sein Kleines Vorwort zur Ära des Schreibcomputers. Es bringt auf den Punkt, was wie ein Ruck durch die Zunft geht: Der Siegeszug des Textcomputers wäre nur noch aufzuhalten, wenn der ganzen zivilisierten Menscheit ein für allemal der Strom abgestellt wird.
"Wissen als Schauspiel" – nach den Möglichkeiten theatraler Formen von Wissensrepräsentation fragt Peter Matussek. Er beobachtet eine Wende vom "pictorial turn" zum "performative turn" und gibt uns einen historischen Abriss der wiederauflebenden Gedächtnistheater. Kann die theatrale Form der Wissensrepräsentation die Aufmerksamkeitsstörungen der Informationsgesellschaft kurieren, oder ist sie selbst das Symptom, das sie zu kurieren vorgibt? Matussek betont, welchen bisher weitgehend übersehenen Einfluss "The Art of Memory" von Frances Yates auf Wissensingenieure, Interface-Designer und Computerkünstler ausgeübt hat. Dabei gehe es nicht nur um die Anordnung, sondern auch um die Erfindung von Wissen und neuen Werkzeugen zur Systematisierung, Kontextualisierung, Visualisierung und Inszenierung von Information.
Was ist Computerphilologie?
(1999)
Im Zuge seiner weltweiten Verbreitung konnte sich der PC gegen anfängliche Bedenken und Widerstände auch in der Literaturwissenschaft als Werkzeug der täglichen Arbeit etablieren. Anfangs waren es vor allem die Vorteile der Textverarbeitung und deren Entlastung vom mechanischen Aspekt des Schreibens und Wiederschreibens, die den Rechnern den Weg auf die Schreibtische ebneten. Ist aber die Maschine einmal vorhanden, man sich mit geringem Aufwand Zugang zum Internet verschaffen. E-Mail und das World Wide Web eröffnen einfachere Kommunikationswege, dazu kommen die Vorteile des Intranets, also eines universitätseigenen Netzes mit Zugriff auf elektronische Bibliographien und die Bibliothekskataloge einschließlich der Bestellmöglichkeiten vor Ort. Nicht wenige Literaturwissenschaftler haben sich inzwischen auch mit den neueren elektronischen Texten angefreundet, deren einfachen Benutzeroberflächen althergebrachte philologische Tätigkeiten sehr beschleunigen, zum Beispiel die Klärung von Wortbedeutungen mittels der Suche nach Parallelstellen beim selben Autor oder in derselben Epoche.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser dritte Teil befasst sich mit Menschen, die in ihrem Computern verschwinden.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser Text geht über von der Hard- zur Software und betrachtet eines der populärsten Motive der Computerfilme.