000 Informatik, Informationswissenschaft, allgemeine Werke
Refine
Year of publication
Document Type
- Article (229)
- Part of Periodical (31)
- Book (12)
- Doctoral Thesis (10)
- Review (9)
- Part of a Book (2)
- Contribution to a Periodical (1)
- Other (1)
- Periodical (1)
Language
- German (296) (remove)
Is part of the Bibliography
- no (296)
Keywords
- Frankfurt <Main> / Universität (115)
- Frankfurt <Main> (60)
- Frankfurt (42)
- Forschung (30)
- Zeitschrift (29)
- Biographie (26)
- Preis <Auszeichnung> (10)
- Wissenschaft (10)
- Frankfurt / Universität (9)
- Adorno (7)
Institute
- Präsidium (37)
- Fachübergreifend (16)
- Informatik (7)
- Erziehungswissenschaften (2)
- Evangelische Theologie (2)
- Geschichtswissenschaften (2)
- Kulturwissenschaften (2)
- Neuere Philologien (2)
- SFB 268 (2)
- Universitätsbibliothek (2)
- keine Angabe Institut (2)
- Frobenius Institut (1)
- Geographie (1)
- Gesellschaftswissenschaften (1)
- Informatik und Mathematik (1)
- Mathematik (1)
- Medizin (1)
- Philosophie (1)
- Physik (1)
- Rechtswissenschaft (1)
- Sprachwissenschaften (1)
- Zentrum für Interdisziplinäre Afrikaforschung (ZIAF) (1)
Ausgehend von der grundlegenden narratologischen Bedeutung von Ereignissen in ihrer konstitutiven Funktion für Erzähltexte wurde im Projekt "Evaluating Events in Narrative Theory" (EvENT) ein Ansatz entwickelt, mit welchem Ereignisse auf der Textoberfläche und daher maschinenlesbar modelliert werden können. Dieser Beitrag skizziert bisherige Arbeitsschritte und ausgewählte Ergebnisse des Projekts, zu denen die Generierung von Narrativitätsgraphen zählt.
Eine Erkrankung zählt in der Europäischen Union zu den Seltenen Erkrankungen (SE), wenn diese nicht mehr als 5 von 10.000 Menschen betrifft. Derzeit existiert mit mehr als 6000 SE eine sowohl große als auch heterogene Menge an unterschiedlichen Krankheitsbilder, die in ihrer Symptomatik komplex, vielschichtig und damit im medizinischen Alltag schwierig einzuordnen sind. Dies erschwert Diagnosefindung und Behandlung sowie das Auffinden eines passenden Ansprechpartners, da es nur wenige Experten für jede einzelne SE gibt. Der medizinische Versorgungsatlas für Seltene Erkrankungen www.se-atlas.de ermöglicht anhand von Erkrankungsnamen die Suche nach Versorgungseinrichtungen und Selbsthilfeorganisationen zu bestimmten SE und stellt die Suchergebnisse geografisch dar. Ebenso gibt er einen Überblick über alle deutschen Zentren für SE, die eine Anlaufstelle für betroffene Personen mit unklarer Diagnose darstellen. Der se-atlas dient als Kompass durch die heterogene Menge an Informationen über Versorgungseinrichtungen für SE und stellt niederschwellig Informationen für eine breite Nutzergruppe von Betroffenen bis hin zu Mitgliedern des medizinischen Versorgungsteams bereit.
Wissenschaft
(2022)
Georg Toepfer wendet sich Ganzheitsidealen der Wissenschaft und ihrer Theorie von der Antike bis zur zeitgenössischen Wissensgeschichte zu. Ganzheit kann dabei auf unterschiedlichen Ebenen zum Tragen kommen. Die Wissenschaft beschäftigt sich mit ihrer inneren Einheit auf methodologischer Ebene, sie fragt nach der Ganzheit oder Ganzheitlichkeit ihrer Gegenstände (im Rahmen etwa einer Überwindung des Leib-Seele-Dualismus), sie kann eine Summe aller Wissenschaften als Ganzheit in Aussicht stellen oder den Versuch unternehmen, eine Einheit oder Ganzheit der gesamten Menschheit zu befördern. Insgesamt sei festzuhalten, dass Forderungen nach einer Einheit der Wissenschaft verstärkt zu Zeiten aufkämen, in denen sich epistemologisch wie praktisch das exakte Gegenteil beobachten lasse. Auch wirke die Ganzheitsrhetorik der Wissenschaft "mitnichten integrativ", sondern arbeite im Gegen teil oft "mit massiven Ausgrenzungen". Das Ganzheitsproblem habe die wissenschaftliche Selbstreflexion oft auch hinsichtlich ihrer eigenen Visualisierbarkeit beschäftigt. Dies findet seinen Niederschlag in frühneuzeitlichen Diagrammtypen wie dem Baum, dem Haus oder dem Bergwerk, in der zweidimensionalen Landkarte der 'Encyclopédie' oder in einer von Jean Piaget noch im 20. Jahrhundert bearbeiteten Kreisfigur. Solche Formen des Ganzen offenbarten die "Simplifikation" des wissenschaftstheoretischen Zugriffs und müssten oft ganze Wissensbereiche ausschließen; im Fall Piagets etwa die kompletten Geisteswissenschaften.
Die drei Gewinner des ersten Digital Publishing Creative Ideas-Wettbewerb wurden auf der Frankfurter Buchmesse 2013 bekanntgegeben. Der Wettbewerb wurde erstmals in einer Kooperation zwischen dem Goethe-Unibator (Existenzgründerzentrum der Goethe-Universität) und der Frankfurt Academy (als Teil der Buchmesse) ins Leben gerufen. Neben dem „Book of the Future“ von Gottfried Vossen und Florian Stahl konnten folgende Projekte reüssieren: Andreas Dollmayer (Stuttgart) setzte sich mit der Idee für einen interaktiven Reiseführer durch. Auf der Basis digitaler Karten- und Bilderdienste sowie Blogs und in Verbindung mit Social Media entstehen intelligente Reiseführer in verschiedensten Ausgabeformaten, an die sich Reiseanbieter andocken können. Hiroki Kamata (Tokio) wiederum behauptete sich mit einer Projektidee, bei der antike Bücher, die vor der Zeit Gutenbergs hergestellt wurden, auf der Basis einer digitalen Arbeitsumgebung wieder zum Leben erweckt werden.
[Es] zeichnen sich drei grundlegend unterscheidbare Richtungen ab, die als Aufgabenfeld einer Computerphilologie gesehen werden: die Entwicklung digitaler Editionen, die Erforschung PC-basierter Literatur und die Ausbildung PC-basierter Methoden einschließlich der Entwicklung und Programmierung entsprechender Anwendungen. Diese Definition bietet Anlass zur Reflexion über die Frage nach Methodologie und Disziplinarität der Computerphilologie. Die Aufzählung […] kann jedoch nur den Ausgangspunkt markieren, da sie lediglich den Einsatzbereich des PCs absteckt. Aber darauf aufbauend lassen sich drei Thesen zur näheren Bestimmung computerphilologischer Arbeit formulieren, die nachfolgend zur Diskussion gestellt werden.
Die in den letzten Jahrzehnten erfolgten Entwicklungen im Bereich der Informations- und Kommunikationstechnologien (IKT) haben beinahe alle Teilbereiche der Gesellschaft erreicht (OECD, 2000) und so können Alltag, Beruf, aber auch soziale Interaktionen benannt werden (Autor, Levy, & Murnane, 2003). Das technologiebasierte Problemlösen stellt ein relevantes Kompetenzkonstrukt dar, wobei die empirische Validierung der Testwertinterpretation noch aussteht. „Technologiebasiertes Problemlösen ist die Kompetenz, digitale Technologien, Kommunikationshilfen und Netzwerke erfolgreich für die Suche, Vermittlung und Interpretation von Informationen zu nutzen.“(OECD, 2009; zitiert nach Rammstedt, 2013). Ziel einer Konstruktvalidierung ist es theoretische Annahmen – sowie nomologische Netze – mit empirischen Belegen zu prüfen und somit Aussagen über die Gültigkeit der Testwertinterpretationen treffen zu können (vgl. Messick, 1995). Zu diesem Zweck wurden die folgenden fünf Leithypothesen aufgestellt:
1. Im technologiebasierten Problemlösen können Teilsequenzen durch Routinen im Umgang mit IKT bewältigt werden.
Mit dem Ziel der Analyse von Lösungsprozessen wurden Prozessdaten aus dem Feldtest der PIAAC-Studie genutzt und automatisierbare Teilschritte (beispielsweise Schließen eines Popups) analysiert. Eine schnelle Bearbeitung dieser Teilschritte wurde auch mit einer höheren Lösungswahrscheinlichkeit des Problems assoziiert. Die Testwerte des technologiebasierten Problemlösens spiegeln die bildungsbiographischen Lernerfolge wider, die zu einem routinierten Umgang mit IKT führen.
2. Durch die Entstehungsgeschichte von IKT begründet, bestehen Differenzen im technologiebasierten Problemlösen.
Entstehung moderner IKT legt eine Differenzierung von drei Kohorten nahe (orientiert an lernintensiven Phasen der Kindheit und Jugend):
- Erlebten die Entstehung und Verbreitung von Hardware (geboren 1946-1966)
- Begleiteten die Verbreitung von Computersoftware und dessen Nutzung (geboren 1966-1981)
- Nutzung und Gestaltung digitaler Inhalte des Internets (geboren 1981-1995)
Erwartungsgemäß unterscheiden sich die Kohorten im technologiebasierten Problemlösen – genauer in der Nutzung von Routinen im Lösungsprozess und im erreichten Kompetenzniveau. Ältere Kohorten benötigten im Mittel mehr Zeit für Teilschritte, die durch Routinen bearbeitet werden können und sie erreichten im Mittel niedrigere Kompetenzniveaus. Obwohl Lesekompetenzen eine wesentliche Bedeutung im technologiebasierten Lösen von Problemen haben, können sie die Kohortenunterschiede nicht umfassend aufklären. Weil ältere Personenkohorten während ihrer formellen Ausbildungsphasen IKT – wie sie heute verwendet werden – nicht nutzen konnten, haben informelle Lerngelegenheiten eine wesentliche Bedeutung. So profitieren ältere Personen von einem regelmäßigen, beruflichen oder privaten Umgang mit diesen Technologien. Die Testwerte des technologiebasierten Problemlösens spiegeln entstehungsgeschichtlich begründete Kohortenunterschiede wider, welche durch lebenslange, formelle und informelle Lerngelegenheiten minimiert werden können.
3. Der Umgang mit IKT ist – begründet durch deren Entstehungsgeschichte – eher weniger Teil der formellen und schulischen Bildung.
Technologiebasiertes Problemlösen wird weniger in formellen und schulischen Lerngelegenheiten erworben, als andere Kompetenzen wie beispielsweise mathematische und Lesekompetenzen. Folglich wurden für das technologiebasierte Problemlösen kleinere Differenzen zwischen hohen, mittleren oder niedrigen Bildungsabschlüssen erwartet und konnten empirisch anhand der PIAAC-Daten belegt werden. Vorteile von Personen mit einem hohen Bildungsabschluss konnten durch höhere Lesekompetenzen erklärt werden. Die Testwerte des technologiebasierten Problemlösens bilden entstehungsgeschichtlich begründete Unabhängigkeiten des Kompetenzkonstruktes ab, das zumeist nicht schulisch erworben wurde.
4. Technologiebasiertes Problemlösen ist ein eigenständiges Kompetenzkonstrukt, das Parallelen zu mathematischen und Lesekompetenzen aufweist.
Mathematische und Lesekompetenzen stehen in einem Zusammenhang mit dem Umgang mit IKT und somit auch mit dem technologiebasierten Problemlösen. Die Leseanteile am technologiebasierten Problemlösen werden als größer eingeschätzt, als die der mathematischen Kompetenz und stärkere Effekte durch Lesekompetenz konnten empirisch
nachgewiesen werden. Die Annahme der Eigenständigkeit des technologiebasierten Problemlösens wird im Weiteren dadurch gestützt, dass der alltägliche Umgang mit mathematischen und Leseinhalten weniger stark mit ihm assoziiert ist, als der Umgang mit IKT. Nomologische Netze zwischen technologiebasiertem Problemlösen und mathematischen sowie Lesekompetenzen konnten empirisch gestützt werden und die Annahme der Eigenständigkeit des Kompetenzkonstruktes bestärkt.
5. Die Nutzung von IKT – als Lerngelegenheit verstanden – und andere Lerngelegenheiten sowie Indikatoren erfolgreichen Lernens können zum technologiebasierten Problemlösen beitragen.
Lebenslanges Lernen ist ein Teil der menschlichen Natur und in diesem Rahmen dienen verschiedenste formelle und informelle Lerngelegenheiten dem Erwerb von Wissen und Kompetenzen (Dohmen, 2001). So erreichen Personen im technologiebasierten Problemlösen ein höheres Kompetenzniveau, wenn sie regelmäßig privaten oder beruflichen Umgang mit IKT hatten. Neben diesen informellen Lerngelegenheiten steht auch die Teilnahme an Weiterbildungen in einem positiven Zusammenhang mit der technologiebasierten Bewältigung von Problemen. Des Weiteren hat eine positive Einstellung gegenüber dem Lernen neuer Inhalte einen Einfluss auf die technologiebasierte Problemlösekompetenz. Die Testwerte des technologiebasierten Problemlösens spiegeln die Lernerfolge durch das lebenslange Lernen wider, die durch verschiedene bildungsbiographische Merkmale – insbesondere formelle und informelle Lerngelegenheiten – befördert werden.
Das technologiebasierte Problemlösen in der Operationalisierung der PIAAC-Studie lässt eine konstruktrepräsentative Testwertinterpretation zu und ermöglicht somit eine differenzierte Beschreibung von Kompetenzen im Umgang mit IKT.
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
In dieser Arbeit werden Verfahren vorgestellt, mit dem sich hochaufgelöste wissenschaftliche Illustrationen in einem interaktiven Vorgang erstellen lassen. Die Basis dafür bildet die neu eingeführte GPU-basierte Illustrations-Pipeline, in der auf Grundlage eines 3D-Modells Bildebenen frei angelegt und miteinander kombiniert werden können. In einer Ebene wird ein bestimmter Aspekt der Illustration mit einer auswählbaren Technik gezeigt. Die Parameter der Technik sind interaktiv editierbar. Um Effizienz zu gewährleisten ist das gesamte Verfahren so konzipiert, dass es soweit wie möglich die Berechnungen auf der GPU durchführt. So ist es möglich, dass die Illustrationen mit interaktiven Frameraten gerendert werden.
Im World Wide Web werden diverse Dinge kostenlos angeboten. So auch die so genannte Open-Source-Software. Dass viele Akteure freie und kostenlos zugängliche Software entwickeln, ohne in geregelter Weise dafür entlohnt zu werden, wirft die Frage nach der grundsätzlichen Vereinbarkeit dieses Phänomens mit dem herrschenden kapitalistischen Wirtschaftssystem auf. Ökonomisches Verhalten scheint außer Kraft gesetzt. Statt von „Ökonomie“ könnte man in diesem Fall von „Geschenkökonomie“ bzw. „Gift Economy“ reden. Es stellt sich die Frage, welche Rolle Gaben/Geschenke im Rahmen des Open-Source-Phänomens spielen und inwiefern dieses Phänomen durch die vorhandenen Theorien zur Gift Economy erklärt werden kann. Um die Forschungsfragen zufrieden stellend zu beantworten, bedarf es einerseits einer Präzisierung auf theoretischer Ebene, die neben den bestehenden Theorien zur Gift Economy das Phänomen Open-Source im Besonderen berücksichtigt. Darüber hinaus soll das Phänomen Open Source in Form einer qualitativen empirischen Studie, welche die je spezifischen Motive des ,Zusammenhandelns’ der Open-Source-Programmierer zum Gegenstand hat, daraufhin untersucht werden, welche Rolle Gabe/Geschenke in Bezug auf dieses spielen. Ziel ist es hierbei, eine Typologie des Open-Source-Programmierers zu entwickeln. Anhand dieser Typologie soll deutlich werden, welche unterschiedlichen thematischen Kontexte für das Phänomen Open-Source rele¬vant sind. Auf Basis der Forschungsergebnisse ist es dann zudem möglich, in einer Schlussfolgerung die Theorie der Gift Economy auf der sicheren Basis em¬pirischer Daten gegebenenfalls weitergehend zu differenzieren.
Ein Ansatz für semantisches Selbstmanagement von verteilten Anwendungen im privaten Lebensumfeld
(2014)
Die Anreicherung des privaten Lebensumfelds mit intelligenten technischen Assistenzsystemen wird in den nächsten Jahrzehnten stark zunehmen. Als Teil dieser Entwicklung wird die Nutzung von externen und hauseigenen IT-Diensten steigen, wodurch sich auch die Komplexität der entstehenden Gesamtsysteme erhöht. Hier sind Ansätze gefordert, diese Systeme auch für technisch nicht versierte Benutzer produktiv nutzbar und beherrschbar zu gestalten, um eine Überforderung zu vermeiden. Im Umfeld häuslicher Dienstplattformen, die eine zentrale Rolle in solchen Systemen übernehmen, nimmt seit ein paar Jahren die Bedeutung der semantischen Modellierung von Diensten stark zu. Diese dient zum einen der formalen Repräsentation von zugehörigen Kontextinformationen, die durch Interaktion mit Sensoren und Aktoren entstehen, und zum anderen der Verbesserung der Interoperabilität zwischen Systemen unterschiedlicher Hersteller. Bisherige Ansätze beschränken sich jedoch auf den Einsatz eines zentralen Rechenknotens zur Ausführung der Dienstplattform und nutzen Semantik – wenn überhaupt – nur zur Verarbeitung von Kontextinformationen. Ein technisches Management des Gesamtsystems findet i.d.R. nicht statt.
Vor diesem Hintergrund ist das Ziel dieser Arbeit die Entwicklung eines Ansatzes für semantisches Selbstmanagement von verteilten dienstbasierten Anwendungen speziell im Umfeld häuslicher Dienstplattformen.
Die vorliegende Arbeit definiert zunächst formale Ontologien für Dienste, Dienstgütemanagement, Selbstmanagement und zugehörige Managementregeln, die zur Laufzeit mit konkreten Diensten und deren erfassten Leistungskenngrößen integriert werden. Durch einen modellgetriebenen Architekturansatz (Model Driven Architecture, MDA) wird ein technologieunabhängiges Management auf abstrakter Ebene ermöglicht, das die Wiederverwendbarkeit von Managementregeln in anderen Szenarien erlaubt.
Dieser Ansatz wird zunächst in eine Architektur für einen hochverfügbaren autonomen Manager überführt, der die Überwachung und Steuerung von Diensten und zugehörigen Dienstplattformen übernehmen kann und auf der aus dem Autonomic Computing bekannten MAPE-K-Kontrollschleife (Monitor, Analyze, Plan, Execute, Knowledge) basiert.
Den Abschluss der Arbeit bildet eine qualitative und quantitative Evaluation (mittels einer OSGi-basierten prototypischen Umsetzung) der erreichten Ergebnisse, die einen Einsatz über die Grenzen des privaten Lebensumfelds hinaus nahelegen.