Refine
Year of publication
Document Type
- Part of a Book (4)
- Article (3)
- Magister's Thesis (1)
- Part of Periodical (1)
- Working Paper (1)
Has Fulltext
- yes (10)
Is part of the Bibliography
- no (10) (remove)
Keywords
- Künstliche Intelligenz (10) (remove)
Institute
"Die Wissenschaft im großen besteht ... aus dem Produkt der Gedächtniswissenschaften, oder der gegebenen Kenntnisse und der Vernunftwissenschaften oder der gemachten (erworbenen) Kenntnisse. Die letztern sind das (bloße)Werk des Menschen. DieWissenschaft im großen ist also überhaupt die Totalfunktion der Daten und Fakten – die n-Potenz des Reihenbinoms der Daten und Fakten. Hier wird die kombinatorische Analysis Bedürfnis."
In merkwürdig aktueller Notation formuliert Novalis den wohl letzten Entwurf einer ambitionierten Enzyklopädistik im Geiste d'Alemberts und Diderots. Deren Scheitern an der "binomischen" Forderung der enkyklios paideia, umfassend und essentiell zugleich zu sein, ließ nachfolgende Projekte entweder in Stoff- oder Sinnhuberei resignieren. Offenbar nur eine grandiose Selbstüberschätzung gestattet Novalis noch den Glauben an die Realisierbarkeit einer vollständigen Kombination der "gegebenen" und "gemachten Kenntnisse", einer "Totalfunktion der Daten und Fakten". ...
I shall take a look at a cluster of problems: the relation between fictional and actual worlds, between fictionality and narration, between action and rationality, between action and agent or subject, and between world, enunciation and subject in light of two important theoretical works, both from 1991. My choice of references is not entirely arbitrary: their basic approach shows certain similarities that underline the shortcomings of both in dealing with literature, in spite of the stimulating arguments they unfold. But they also show marked differences that allow us to develop their argument further. The books are Paisley Livingston's 'Literature and Rationality' and Marie-Laure Ryan's 'Possible Worlds, Artificial Intelligence, and Narrative Theory'.
Die vorliegende Arbeit beschreibt den ein Jahr lang andauernden Prozess der Entwicklung meiner eigenen Poesiemaschine. Buchrückentext: Wer ist der Hirsch? Und was hat er mit dem Buch zu tun? Der Band dokumentiert auf spielerische Weise den Entstehungsprozess einer außergewöhnlich leistungsfähigen Poesiemaschine. Den drei Versionen dieser Poesiemaschine werden die bildhaften Namen Wurm, Hähnchen und Hirsch gegeben. Inspiriert von Hans Magnus Enzensbergers Einladung zu einem Poesieautomaten wagt sich der Autor «in das Labyrinth» hinein. Nach dem Vorbild der französischen Literaturgruppe Oulipo werden zunächst die Anforderungen an eine Poesiemaschine in formelle, akustische, syntaktische, semantische und kreative Einschränkungen unterteilt. Die Modellierung der syntaktischen und kreativen Aspekte orientiert sich insbesondere an der Installation Poetry Machine des renommierten Medienkünstlers David Link. Neuartig beim Hirsch ist die Verwirklichung phonetischer Algorithmen, die Gedichte mit komplexen Reimen und metrischer Regulierung ermöglichen. Abschließend wirft der Autor einen Blick in die Zukunft. Das Ergebnis stellt eine Goldgrube an Einsichten und Ideen dar für Poesiemaschinen-Entwickler der nächsten Generation. Inhalt: Aus dem Inhalt: «Jenseits der Berechenbarkeit» - Was muss ein Poesie-Erzeuger können? - Gedichtgerüstbau anhand der GGT-Grammatik - Überraschungseffekt - Poesiemaschine Poetry Machine - Carnegie Mellons phonetisches Wörterbuch - WordNet - eine lexikalische Datenbank - POS-Tagger - Syntaktische Formeln mit dem manuellen Tagger - Blocking - Balancing - Phonetischer Beweis - Jenseits des Hirsches (Zukunft der Computerpoesie) - Computing with Words - Stephen Thalers Creativity Machine.
In seiner programmatischen Schrift 'Cybernetics: Or Control and Communication in the Animal and the Machine' von 1948 äußerte Norbert Wiener die Überzeugung, dass sich organische Systeme in kybernetisch-technische Prinzipien übertragen ließen. Biologie sei letztlich Code und Information, der Mensch ein Informationssystem. Vor dem Hintergrund dieser Grundannahme der Kybernetik, der Theorie und Modellierung von Regelungs- und Steuerungsvorgängen komplexer Systeme, wurden in der Folge auch verschiedene Wege zur Unsterblichkeit thematisiert und in trans- und posthumanistischen Unsterblichkeitsutopien zugespitzt, die sich im Wesentlichen zwei Teilbereichen der Biokybernetik zuordnen lassen: der medizinischen Kybernetik und der Neurokybernetik.
Künstliche Intelligenz als Ende des Strafrechts? Zur algorithmischen Transformation der Gesellschaft
(2019)
Does Artificial Intelligence (AI) imply the end of criminal law and justice as we know it? This article submits that AI is a transformative technology that seemingly assumes and optimizes the rationalities of criminal law (the effective prevention of crime; the objective, neutral and coherent application of the law etc.), namely by replacing the counterfactual guarantees of the law with the factual guarantees of technology. As a consequence, AI must not be trivialized by criminal law theory. Likewise, it is not enough to subversively criticize the current weaknesses of AI (e.g. vis-à-vis the “bias in, bias out” problem). Rather, criminal law theory should draw on the highflying promises of AI to reflect upon the foundational premises of criminal law. For a criminal law that is mostly a governance tool in the administrative and/or welfare state, AI applications promise the culmination of the law’s very objectives (like the effective inhibition and prevention of crime, e.g. by means of predictive policing; or the political determination of fuzzy sentencing rationales in sentencing algorithms that ensure equal sentences for comparable crimes). For a criminal law, however, that protects liberal freedoms and rests on inter-personal trust, AI may well lead to the passing of the law’s very ideals (e.g. of the presumption of innocence, which can no longer be upheld once everyone, ordinary citizens and judges alike, is deemed a possible risk). The question about “AI as the end of criminal law?” thus eventually raises the two-pronged question “Which criminal law for which society?”. Indeed, what is the status of freedom (esp. in a surveillance society needed to power Big Data driven algorithms), trust (esp. under the zero trust paradigm that underlies many risk assessment algorithms) and future (esp. when algorithms make predictions based on past data) once AI enters into the administration of criminal justice? These are the questions, or so I respectfully submit, that criminal law theory needs to address today in order to come up with a criminal law that is both (for pragmatic reasons) open to technology as well as (for humane reasons) sensible. In all of this, we must take to heart Joachim Hruschka’s great legacy and remain intellectually honest.
Das längst avisierte Zukunftsprojekt Industrie 4.0 wirkt sich auf viele Bereiche der menschlichen Produktion, wie u. a. des literarischen Schaffens aus. 2018 ist das Buch Bot. Gespräch ohne Autor des österreichischen Schriftstellers Clemens J. Setz erschienen, das eine Alternative zu einem von der "natürlichen" Person geschaffenen literarischen Werk darstellt. Analog zu der Industrie wird jetzt der Vorgang des literarischen Schaffens digitalisiert, d. h. eine künstliche Intelligenz schreibt ein Buch oder wirkt an ihm mit. Das Werk wird gedruckt, verkauft und gelesen und steht in Bücherregalen neben Büchern von "natürlichen" Autoren. Wie beeinflusst die Einbeziehung der künstlichen Intelligenz die Kanonbildung? Wer wären dann die Leser/innen solcher literarischen Werke? Werden in diesen Werken auch einige früher kanonisierte Werke berücksichtigt? Ist es überhaupt möglich, dass künstliche Intelligenz ein ästhetisch wertvolles literarisches Werk hervorbringt? Mit solchen und weiteren Fragen über die literarischen Begegnungen der künstlichen und menschlichen Intelligenz in der 4.0-Ära befasst sich der vorliegende Artikel.
Der in seinen mannigfachen Referenzen nahezu opake Film "Contra-Internet: Jubilee 2033" von Zach Blas (2018) steht im Zentrum der Frage, welches Internet wir uns aus einer queer-theoretischen und queer-ästhetischen Perspektive vorstellen können. Was ist eine queere Vision des Internets? Wie lässt sich eine Zukunft des Internets prophezeien, die den von Technologieunternehmen herbeigeführten Nexus von Mystik und Mathematik hintertreibt? Am Beispiel der im Film verhandelten Symbole, Objekte und Materialien beschäftigt sich dieser Beitrag mit der queeren Ästhetik des Algorithmischen.
Gestalt
(2022)
Das Bedeutungsspektrum von 'Gestalt', diesem Inbegriff eines Abgeschlossenen, in sich Gegliederten, aber nur als Ganzes Wahrnehmbaren, ist um 1800 noch erstaunlich breit.[...] Auch den 1890 vom Gestalttheoretiker Christian von Ehrenfels fixierten "Gestaltqualitäten", zu denen vor allem gehört, dass eine Gestalt die Summe ihrer Teile übersteigt, kommt um 1800 noch keine privilegierte Stellung zu. Während das "Historische Wörterbuch der Philosophie" für jene Zeit zwar auch ein Dutzend Spezifikationen verzeichnet, 'Gestalt' aber exklusiv als ästhetischen und psychologischen Grundbegriff ausweist, hat Dagmar Buchwald in ihrem Eintrag für die "Ästhetischen Grundbegriffe" darauf hingewiesen, dass Gestalt in der mechanistischen Festkörperphysik der Zeit als Prädikat der 'res extensa' zu deren messbaren Attributen hinzutritt, ohne aber "in den Rang eines Standards" aufzusteigen. Die Differenz zwischen diesem und dem idealistisch überhöhten Gestaltbegriff "ist der Goethe-Zeit eingeschrieben", bezeichnet also ein Spannungsfeld, das erst später und besonders in der Zwischenkriegszeit den exklusiven Ganzheitsansprüchen der Gestalt weicht. [...]
Dagmar Buchwald zufolge "läßt sich die Geschichte des Begriffs Gestalt auch als Warnung vor einem 'Kult' um die Gestalt lesen." Das bedeutet im Umkehrschluss, dass ein Kult um die Gestalt einer begriffshistorischen - wie überhaupt einer begrifflichen - Reflexion der Gestalt abträglich bleibt. Für eine Konkurrenz zwischen Kult und Begriffsschärfe sind die wissenschaftlichen Überlegungen, die in den 1910er und 1920er Jahren im Umfeld Stefan Georges zum Phänomen der Gestalt angestellt wurden, aufschlussreich und symptomatisch in einem. 1911 von dem Historiker Friedrich Wolters im "Jahrbuch für die geistige Bewegung" programmatisch lanciert, treibt die Gestalt bald in den germanistischen Schriften Friedrich Gundolfs und später auch Max Kommerells ihre Blüten. [...]
"Das Ganze ist etwas anderes als die Summe seiner Teile" - dieser Satz, eine stark verkürzte Passage aus Aristoteles' "Metaphysik", wird wie wohl kaum ein zweiter mit der Gestaltpsychologie assoziiert. Ähnlich hartnäckig mit ihr in Verbindung gebracht werden allenfalls noch 'Kippfiguren', also visuelle Reize, die abwechselnd mindestens zwei einander ausschließende Gesamteindrücke provozieren. In dieser assoziativen Verkürzung mag Gestaltpsychologie wenig konturiert oder banal anmuten, weil darin ihre historische Entstehungssituation und damit ihr radikaler, epochemachender Perspektiv wechsel unterschlagen wird. [...]
Die Tradition des Gestaltbegriffs, von Goethe bis zur Gestaltpsychologie, lässt sich der breiteren philosophischen Grundausrichtung des Holismus zuordnen, dessen Widerpart ist der Atomismus. Diese Differenz wird im 20. und beginnenden 21. Jahrhundert dort problematisch, wo holistische Gegenstandsfelder in atomistisch operierende technische Systeme umgesetzt oder durch sie simuliert werden sollen. Nirgends zeigt sich der Zusammenstoß beider Paradigmen besser als in der fortdauernden Auseinandersetzung um die Begriffe und Vorgehensweisen zweier der jüngsten Disziplinen des letzten Jahrhunderts, der Informatik und der Kognitions- bzw. Neurowissenschaft. Dieses Spannungsverhältnis wird vor allem am Forschungsdiskurs um die Künstliche Intelligenz (KI) seit den 1940er Jahren deutlich, der hier nachgezeichnet werden soll.
"A.I. or Nuclear Weapons: Can You Tell These Quotes Apart?" - so fragte die New York Times ihre Leser:innen am 10. Juni dieses Jahres. In Form eines metadiskursiven Ratespiels rückte die Zeitung damit eine Analogie in den Blick, die in den jüngsten Debatten um Künstliche Intelligenz zu erheblicher Prominenz gelangt ist. Wenn derzeit die Risiken neuester (Sprach-)Technologien beschworen werden, lässt der Vergleich mit dem Vernichtungspotenzial von Atomwaffen nicht lange auf sich warten. Dies gilt für die in Print- und Onlinemedien ausgetragene Diskussion, ist aber auch innerhalb der wissenschaftlichen Community mit ihren Spezialöffentlichkeiten zu beobachten. Warnungen vor den unabsehbaren Folgen der KI-Entwicklung gleichen in ihrer Drastik und teils bis aufs Wort den Mahnrufen und Appellen, mit denen in der Nachkriegszeit auf die damals neue Gefahr eines drohenden globalen Nuklearkonflikts reagiert wurde. Ob sich die von der New York Times anonymisiert präsentierten Aussagen wie "If we go ahead on this, everyone will die" oder "We are drifting toward a catastrophe beyond comparison" auf unsere Gegenwart oder auf die historische Situation der 1950er und 1960er Jahre beziehen, ist daher tatsächlich nicht immer ohne Weiteres auszumachen. Und erst kürzlich berichtete die Zeitung von einem Mitarbeiter des von Google betriebenen DeepMind-Forschungslabors, der einen Vortrag zum maschinellen Lernen mit einem Zitat aus George Orwells Essay "You and the Atomic Bomb" (1945) eröffnet hatte - ein weiteres Beispiel dafür, wie sehr die zwischen Künstlicher Intelligenz und Nuklearwaffen gezogenen Parallelen zu einem anscheinend unverzichtbaren Topos in der Auseinandersetzung mit neuronalen Netzen und Large Language Models (LLMs) geworden sind.