Refine
Year of publication
Document Type
- Article (15)
- Report (12)
- Working Paper (10)
- Part of a Book (6)
- Conference Proceeding (4)
- Doctoral Thesis (4)
- Book (1)
- diplomthesis (1)
Has Fulltext
- yes (53)
Is part of the Bibliography
- no (53)
Keywords
- Internet (53) (remove)
Institute
Das Internet ist allgegenwärtig - so allgegenwärtig, dass es inzwischen in gewissen Kreisen en vogue ist, sich ab und an komplett vom Internet abzukapseln. Passend zur vorösterlichen Zeit könnte man von Internetfasten sprechen. Aber was passiert, wenn das Internet einfach komplett abgestellt wird, für alle? Was für uns primär eine akademische Fragestellung ist, ist in Kamerun, Indien, Pakistan und vielen anderen Ländern Realität. Diese Beispiele verdeutlichen nicht nur wie Internetabschaltung ein Instrument sozialer und politischer Kontrolle sind, sie zeigen auch ihre dramatischen Auswirkungen. Das Thema sollte uns auch hier interessieren...
Webschau April 2011
(2011)
Das alljährliche Großereignis in der deutschen Internet-Welt ist die re:publica. Wir berichten unten über das Echo auf die Berliner Konferenz. Zu den für #pb21 interessanten Inhalten wird es eine Extra-Ausgabe der Webschau geben.
Eine der wohl wichtigsten Nachrichten von der diesjährigen re:publica ist, dass eine Bürgerrechtsorganisation für das Netz gegründet wurde. Der "Spiegel" findet, dass es höchste Zeit dafür ist: Mehrere spiegelonline-Autoren formulieren Forderungen an die Initiative "Digitale Gesellschaft". Doch es gibt auch deutliche Kritik. Mehr dazu am Ende dieser Webschau.
Worum geht es in dieser Arbeit? Dies ist eine Arbeit über Websites. Darüber, wie sie gelesen und geschrieben werden und wie man das lernen kann. Da es in dieser Arbeit um Lesen, Schreiben und Lernen geht, fließen in sie sowohl Aspekte der Sprachwissenschaft als auch der Sprachdidaktik ein. Was will diese Arbeit? Diese Arbeit hat zwei Ziele, ein sprachwissenschaftliches und ein sprachdidaktisches. In sprachwissenschaftlicher Hinsicht sollen, auf der Grundlage einer gründlichen Analyse seiner Eigenschaften, die Besonderheiten des Lesens und Schreibens im World Wide Web herausgearbeitet werden. Aufbauend auf dieser Analyse sollen im sprachdidaktischen Teil der Arbeit die Kompetenzen ermittelt und in Beziehung zueinander gesetzt werden, die zur Erstellung von Websites notwendig sind. Das so entstehende Kompetenzmodell bildet die Basis für eine zielgerichtete, effektive und evaluierbare Umsetzung der Gestaltung von Websites in der Schule und die Grundlage für weiterführende empirische Arbeiten. Wie ist die Arbeit aufgebaut? Im ersten Kapitel der Arbeit wird die Entwicklung der technischen und strukturellen Formate geschildert, welche die Grundlage des Websiteformats bilden. Darauf aufbauend werden seine wichtigsten Eigenschaften beschrieben. Im zweiten Kapitel wird das Websiteformat von anderen kommunikativen Formaten abgegrenzt und mit Hilfe der besonderen Charakteristika, die es besitzt, sein überwältigender Erfolg erklärt. Im dritten Kapitel wird unter Rückgriff auf Ergebnisse der Leseforschung und empirische Untersuchungen zum Lesen im World Wide Web erarbeitet, welchen Einfluss das Websiteformat auf das Lesen von Texten hat und welche Unterschiede es zum Lesen von Texten in anderen kommunikativen Formaten gibt. Auf dieser Grundlage wird ein Bewertungs- und Analyseraster für die Lesbarkeit von Texten im Websiteformat entwickelt. Im vierten Kapitel wird auf der Grundlage verschiedener Modelle des Schreibprozesses dargestellt, was das Schreiben für das Websiteformat vom Schreiben für andere Formate unterscheidet, was dabei besonders beachtet werden muss und welche Entwicklungen für die Zukunft zu erwarten sind. Dabei werden, unter Berücksichtigung des in Kapitel drei erarbeiteten Bewertungs- und Analyserasters, Hinweise für eine sinnvolle Vorgehensweise bei der Gestaltung von Websites gegeben. Im fünften Kapitel wird vor dem Hintergrund der aktuellen bildungspolitischen Diskussion ein Kompetenzmodell für die Gestaltung von Websites entwickelt, das als Basis für die Festlegung von Bildungsstandards und die Beschreibung der Rahmenbedingungen dient, unter denen diese in der Schule verwirklicht werden können. In einer abschließenden Diskussion werden die wichtigsten Ergebnisse nochmals herausgearbeitet und es wird auf Perspektiven für zukünftige sprachwissenschaftliche und sprachdidaktische Forschungsvorhaben hingewiesen.
Was ist Computerphilologie?
(1999)
Im Zuge seiner weltweiten Verbreitung konnte sich der PC gegen anfängliche Bedenken und Widerstände auch in der Literaturwissenschaft als Werkzeug der täglichen Arbeit etablieren. Anfangs waren es vor allem die Vorteile der Textverarbeitung und deren Entlastung vom mechanischen Aspekt des Schreibens und Wiederschreibens, die den Rechnern den Weg auf die Schreibtische ebneten. Ist aber die Maschine einmal vorhanden, man sich mit geringem Aufwand Zugang zum Internet verschaffen. E-Mail und das World Wide Web eröffnen einfachere Kommunikationswege, dazu kommen die Vorteile des Intranets, also eines universitätseigenen Netzes mit Zugriff auf elektronische Bibliographien und die Bibliothekskataloge einschließlich der Bestellmöglichkeiten vor Ort. Nicht wenige Literaturwissenschaftler haben sich inzwischen auch mit den neueren elektronischen Texten angefreundet, deren einfachen Benutzeroberflächen althergebrachte philologische Tätigkeiten sehr beschleunigen, zum Beispiel die Klärung von Wortbedeutungen mittels der Suche nach Parallelstellen beim selben Autor oder in derselben Epoche.
Volltextsuche
(2005)
[...] Und nun die Komparatistik? Sie mutiert zu einer Volltextwissenschaft. Die Weltliteratur, egal ob im summarischen oder qualitativen Sinn, ist noch nicht homogen digital erschlossen. Dadurch wird es noch lange bei der Bevorzugung großer Namen bleiben. Zugleich aber wird sich allmählich eine Nivellierung einstellen, die die Prioritäten der literaturwissenschaftlichen Suche synchronisiert mit denen der gängigen Suchmaschinen. Netzsuche und Volltextsuche auf begrenzten Datenträgern werden einander überlagern und den Resultaten eine egalitäre Struktur verleihen. Und dies wird auf längere Sicht zweierlei befördern: 1. Die Emanzipation der Trivialliteratur seit den 1960er Jahren, die Ausweitung des Textbegriffs und die kulturwissenschaftliche Orientierung werden in komparatistischen Arbeiten daran ablesbar sein, daß jegliches Kulturzeugnis, das beispielsweise einen bestimmten Mythos berührt, als potentiell zur Sache gehörig betrachtet wird. Alles kommt erst einmal in Frage. 2. Die Anonymität des weltweiten digitalen Korpus führt dazu, daß gerade die Volltextsuche die diskursanalytische These verwirklichen wird.
Paul Baran, 1926 in Polen geboren, als Zweijähriger in die USA gekommen, hatte nach Abschluss seines Studiums Ende der 1940er Jahre bereits Erfahrung in der Entwicklung des ersten kommerziellen Computers UNIVC gemacht. 1959 trat Baran in den Dienst der RAND Corporation und war mit der Beforschung von Konzepten der Dezentralisierung von Kommunikationsnetzwerken betraut. "On Distributed Communications Networks" stellte das erste Ergebnis seiner Arbeit dar und erschien in der Reihe der Arbeitspapiere des RAND. Obwohl 1962 Computer gerade erst zwanzig Jahre existierten, extrem teuer waren, raumfüllende Ausmaße hatten und ihre Vernetzung exotische Technologie darstellte, kulminiert Barans Konzept bereits in der visionären Frage: "Is it time now to start thinking about a new and possibly non-existant public utility, a common user digital data communication plant designed specifically for the transmission of digital data among a large set of subscribers?"
Mit der Fanfiction sieht sich die Mediävistik der Chance gegenüber, die Frage nach Entwicklung, Form und Dynamik einer Erzählliteratur, die mit der Unmittelbarkeit des direkten Austauschs veröffentlicht, rezipiert und bewertet wird, zu beantworten: Anders als im tatsächlich mündlichen face-to face-Austausch sind die Texte von Erzählung, Kommentar und Rückmeldung einer Geschichte im Internet zumindest einstweilen auf den Servern der Fanfiction-Webseiten gespeichert und stehen dort der wissenschaftlichen Analyse und Bewertung zur Verfügung. Es ist der Blick auf eine neue Form der Literaturentwicklung und -vermittlung, aber im Vergleich zugleich der Blick auf eine sehr alte Form des Erzählens, die nach jahrhundertelangem Pausieren wieder aktuell ist – zusammen mit dem Postulat ihrer adäquaten Erforschung: Für die Erforschung von Fanfiction als neuem Mediomythos scheint das mediävistische Verständnis von Erzählen und Wiedererzählen hochgradig relevant und die Mediävistik kann umgekehrt möglicherweise im Studium dieses postmodernen Phänomens in aller gebotenen Vorsicht Szenarien mittelalterlicher Erzählkultur modellieren.
Technologies carry politics since they embed values. It is therefore surprising that mainstream political and legal theory have taken the issue so lightly. Compared to what has been going on over the past few decades in the other branches of practical thought, namely ethics, economics and the law, political theory lags behind. Yet the current emphasis on Internet politics that polarizes the apologists holding the web to overcome the one-to-many architecture of opinion-building in traditional representative democracy, and the critics that warn cyber-optimism entails authoritarian technocracy has acted as a wake up call. This paper sets the problem – “What is it about ICTs, as opposed to previous technical devices, that impact on politics and determine uncertainty about democratic matters?” – into the broad context of practical philosophy, by offering a conceptual map of clusters of micro-problems and concrete examples relating to “e-democracy”. The point is to highlight when and why the hyphen of e-democracy has a conjunctive or a disjunctive function, in respect to stocktaking from past experiences and settled democratic theories. My claim is that there is considerable scope to analyse how and why online politics fails or succeeds. The field needs both further empirical and theoretical work.
This article documents and classifies instances of transnational intellectual property (IP) enforcement and licensing on the Internet with a particular focus on the territorial reach of the respective regimes. Regarding IP enforcement, I show that the bulk of transnational or even global measures is adopted in the context of “voluntary” self-regulation by various intermediaries, namely domain name registrars, access and host providers, search engines, and advertising and payment services. Global IP licensing is, in contrast, less prevalent than one might expect. It is practically limited to freely accessible Open Content, whereas markets for fee-based services remain territorially fragmented. Overall, three layers of IP governance on the Internet can be distinguished. Based on global licenses, Open Content is freely accessible everywhere. Plain IP infringements are equally combatted on a worldwide scale. Territorial fragmentation persists, instead, in the market segment of fee-based services and in hard cases of conflicts of IP laws/rights. All three universal norms (global accessibility, global illegality, global fragmentation) are supported by a quite solid, “rough” global consensus.
Europe is a key normative power. Its legitimacy as a force for ensuring the reign of rule of law in international relations is unparalleled. It also packs an economic punch. In data protection and the fight against cybercrime, European norms have been successfully globalized. The time is right to take the next step: Europe must now become the international normative leader for developing a new deal on internet governance. To ensure this, European powers should commit to rules that work in security, economic development and human rights on the internet and implement them in a reinvigorated IGF.