004 Datenverarbeitung; Informatik
Refine
Year of publication
Document Type
- Part of a Book (42) (remove)
Has Fulltext
- yes (42)
Is part of the Bibliography
- no (42)
Keywords
- Inklusion (12)
- Barrierefreiheit (10)
- Digitalisierung (7)
- E-Learning (4)
- Hochschullehre (4)
- Hochschuldidaktik (3)
- Hochschule (3)
- Informatik (3)
- Kollaboration <Informatik> (3)
- Lehre (3)
Institute
- studiumdigitale (23)
- Informatik (11)
- Frankfurt Institute for Advanced Studies (FIAS) (2)
- Physik (2)
- Erziehungswissenschaften (1)
- Extern (1)
- Präsidium (1)
- Wirtschaftswissenschaften (1)
Das Ziel dieser Forschungsarbeit war es, herauszufinden, welche Kriterien der Barrierefreiheit für digitale Bildungsmedien relevant sind und diese Kriterien in einer Matrix abzubilden. Zur Erreichung dieses Ziels wurden qualitative Interviews mit Lehrkräften und Expert*innen der digitalen Barrierefreiheit durchgeführt.
Die qualitativen Interviews haben gezeigt, dass eine individuelle Klassifizierung der Barrierefreiheits-Kriterien für digitale Bildungsmedien notwendig ist.
Bereits vorhandenen Konzepten fehlt es vor allem an Praxisnähe und konkreten Anweisungen. Zudem wurde deutlich, dass der Barrierefreiheit und Inklusion nach wie vor zu wenig Aufmerksamkeit in Deutschland zukommen.
The encoding of images by semantic entities is still an unresolved task. This paper proposes the encoding of images by only a few important components or image primitives. Classically, this can be done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the signal processing and neural network community. Using this as pattern primitives we aim for source patterns with the highest occurrence probability or highest information. For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that the Independent Principal Components (IPC) in contrast to the Principal Independent Components (PIC) implement the classical demand of Shannon’s rate distortion theory.
Barrierefreiheit wird in der (Online-)Hochschullehre immer wichtiger. In diesem Beitrag wird aufgezeigt, welche barrierefreien Instrumentarien für Lehrkräfte möglich sind (1), wie sie einfach umzusetzen sind (2), welche Handlungsempfehlungen sich daraus ableiten lassen (3) und warum die Anwendung digitaler Barrierefreiheit als Schlüsselkompetenz für Lehrkräfte von großer Bedeutung ist (4). Dabei fließen die Erfahrungen der Autorin aus über 20 Jahren Online-Lehre mit ein.
One of the most interesting domains of feedforward networks is the processing of sensor signals. There do exist some networks which extract most of the information by implementing the maximum entropy principle for Gaussian sources. This is done by transforming input patterns to the base of eigenvectors of the input autocorrelation matrix with the biggest eigenvalues. The basic building block of these networks is the linear neuron, learning with the Oja learning rule. Nevertheless, some researchers in pattern recognition theory claim that for pattern recognition and classification clustering transformations are needed which reduce the intra-class entropy. This leads to stable, reliable features and is implemented for Gaussian sources by a linear transformation using the eigenvectors with the smallest eigenvalues. In another paper (Brause 1992) it is shown that the basic building block for such a transformation can be implemented by a linear neuron using an Anti-Hebb rule and restricted weights. This paper shows the analog VLSI design for such a building block, using standard modules of multiplication and addition. The most tedious problem in this VLSI-application is the design of an analog vector normalization circuitry. It can be shown that the standard approaches of weight summation will not give the convergence to the eigenvectors for a proper feature transformation. To avoid this problem, our design differs significantly from the standard approaches by computing the real Euclidean norm. Keywords: minimum entropy, principal component analysis, VLSI, neural networks, surface approximation, cluster transformation, weight normalization circuit.
In intensive care units physicians are aware of a high lethality rate of septic shock patients. In this contribution we present typical problems and results of a retrospective, data driven analysis based on two neural network methods applied on the data of two clinical studies. Our approach includes necessary steps of data mining, i.e. building up a data base, cleaning and preprocessing the data and finally choosing an adequate analysis for the medical patient data. We chose two architectures based on supervised neural networks. The patient data is classified into two classes (survived and deceased) by a diagnosis based either on the black-box approach of a growing RBF network and otherwise on a second network which can be used to explain its diagnosis by human-understandable diagnostic rules. The advantages and drawbacks of these classification methods for an early warning system are discussed.
The Internet as the biggest human library ever assembled keeps on growing. Although all kinds of information carriers (e.g. audio/video/hybrid file formats) are available, text based documents dominate. It is estimated that about 80% of all information worldwide stored electronically exists in (or can be converted into) text form. More and more, all kinds of documents are generated by means of a text processing system and are therefore available electronically. Nowadays, many printed journals are also published online and may even discontinue to appear in print form tomorrow. This development has many convincing advantages: the documents are both available faster (cf. prepress services) and cheaper, they can be searched more easily, the physical storage only needs a fraction of the space previously necessary and the medium will not age. For most people, fast and easy access is the most interesting feature of the new age; computer-aided search for specific documents or Web pages becomes the basic tool for information-oriented work. But this tool has problems. The current keyword based search machines available on the Internet are not really appropriate for such a task; either there are (way) too many documents matching the specified keywords are presented or none at all. The problem lies in the fact that it is often very difficult to choose appropriate terms describing the desired topic in the first place. This contribution discusses the current state-of-the-art techniques in content-based searching (along with common visualization/browsing approaches) and proposes a particular adaptive solution for intuitive Internet document navigation, which not only enables the user to provide full texts instead of manually selected keywords (if available), but also allows him/her to explore the whole database.
In diesem Beitrag wird aufgezeigt, wie das Thema „Diversität“ im sächsischen Verbundprojekt „Digitale Hochschulbildung in Sachsen“ als Querschnittsthema verstanden und wie Barrierefreiheit als ein zentraler Aspekt diversitätssensibler Hochschullehre thematisiert und umgesetzt werden kann. Als Grundlage dient hierfür das gemeinsam formulierte Selbstverständnis von Diversität, welches von der projektinternen A G Diversität in konkrete Maßnahmen überführt und regelmäßig von allen Projektmitarbeitenden reflektiert werden soll. Zudem verdeutlichen Ergebnisse einer anonymen Befragung aller Mitarbeitenden sowie Teilnehmenden eines Digital Workspace Erfahrungen und Einschätzungen zum Thema „Barrierefreiheit im Hochschulkontext“, welche Implikationen für die weitere Arbeit im Projekt aufzeigen.
Digitale Kompetenzen von Hochschullehrenden messen : Validierungsstudie eines Kompetenzrasters
(2018)
Der Beitrag beschreibt die Entwicklung eines Kompetenzrasters zur Erfassung digitaler Kompetenzen von Hochschullehrenden und stellt Ergebnisse der Validierung des Rasters vor. Dazu werden die Ergebnisse eines Pre-Tests (N=90) unter Teilnehmenden eines E-LearningQualifizierungsangebots inferenzstatistisch ausgewertet. Zusätzlich werden zur äußeren Validierung des Kompetenzrasters Ergebnisse mit Aussagen der Befragungsteilnehmer*innen verglichen, die mit Hilfe qualitativer Methoden aus E-Portfolios gewonnen wurden. Die skalenanalytischen Befunde erbrachten für sechs der acht Subdimensionen digitaler Kompetenz eindeutige, einfaktorielle Lösungen mit guten Varianzaufklärungen. Die Subskalen verfügen über hohe interne Konsistenzen. Zwei Dimensionen trennen sich faktorenanalytisch in weitere Subtests auf, die sich im Test ebenfalls als reliabel erweisen. Zur Validität des Kompetenzrasters konnten durch Zusammenhänge mit Aussagen aus E-Portfolios positive Belege gesammelt werden.
Eine inklusive digitale Hochschullehre gelingt nur, wenn Lehrende und andere Hochschulangehörige über die notwendigen Kompetenzen verfügen. Aber welche Fertigkeiten, Fähigkeiten und Einstellungen benötigen Beteiligte an Hochschulen für eine inklusive (digitale) Hochschullehre? Der Diskurs im deutschsprachigen Raum ignoriert einerseits die Notwendigkeit von spezifischen Maßnahmen, andererseits beschränken sich Empfehlungen für die Lehrpraxis oft auf die barrierefreie Gestaltung von Textmaterialien und Präsentationen. Daten und Informationen zu Weiterbildungsangeboten rund um das Thema „digitale Barrierefreiheit“ sind zudem rar. Bislang wurde weder systematisch untersucht, für wen in welchem Umfang entsprechende Weiterbildungen angeboten werden, noch wie das Thema „digitale Barrierefreiheit“ kommuniziert und welche Inhalte konkret vermittelt werden. Die wenigen vorliegenden Studien zeigen deutlich, dass die Inhalte häufig auf technische Aspekte reduziert werden. So wird aber ein falscher Eindruck von den Herausforderungen vermittelt. Wenn lediglich die technische Umsetzung gezeigt wird, bleibt der Eindruck, dass diese Maßnahmen nur für unmittelbar Betroffene ergriffen werden. Deshalb schließt der Beitrag mit dem Vorschlag, digitale Barrierefreiheit als sozio-technische Herausforderung zu begreifen. Die Entwicklung einer pädagogischen Kultur der Vermittlung von Barrierefreiheit kann dazu beitragen, die Qualifizierung von Lehrenden und anderen Beteiligte an Hochschulen in den Fokus der Diskussion um eine inklusive digitale Hochschullehre zu rücken.
Flächendeckende Realisierbarkeit von barrierefreien Videos mithilfe automatisierter Untertitel
(2023)
Untertitel manuell zu erstellen, erfordert zum jetzigen Zeitpunkt viel Zeit und personelle Ressourcen. Für Einzelne ist es mühsam ein geeignetes Tool zu finden und einen guten Workflow zu erarbeiten, geschweige denn die schnell steigende Anzahl an Videos zu bearbeiten. Bedingt durch die Corona-Pandemie und das damit einhergehende Arbeiten im digitalen Lehrbetrieb ist die Anzahl der Videos noch einmal immens gestiegen. Zu untertiteln sind nicht nur aufgenommene Vorlesungen, sondern beispielsweise auch Informationsvideos auf einer Homepage, Erklärfilme, aber auch digitale Live-Veranstaltungen. Dies sprengt die begrenzten Ressourcen, die den Hochschulen zur Verfügung stehen. Im Beitrag wird untersucht, inwieweit automatische Untertitel die Lösung dieses Problems sein können. Dafür werden vier Tools auf ihre funktionellen Unterschiede und die Qualität ihrer Ergebnisse untersucht. Anschließend wird erarbeitet, welche dieser Kriterien für Hochschulen relevant sind, um eine flächendeckende Untertitelung in allen Videos gewährleisten zu können. Die Erkenntnisse basieren auf den praktischen Erfahrungen von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität Frankfurt am Main, mit dem Einsatz verschiedener Tools in Projekten sowie aus dem Erfahrungsaustausch mit anderen Hochschulmitarbeiter*innen im Rahmen des Verbundprojekts HessenHub. Das Ziel dabei ist, einen schlanken Workflow im Sinne einer Lean Media Production, d.h. eine innovative Herangehensweise, die möglichst ressourcenschonend und perspektivisch nachhaltig ist, zu erarbeiten.