Anlass für die Konversion hebräischschriftlicher Zeugnisse in ein anderes Schriftsystem ist im Falle von Bibliotheken der bibliographische Nachweis von Materialien in einem zentralen Katalog, der in einer dominanten Schrift geführt wird. Für Bibliotheken im europäischen und anglo-amerikanischen Sprachraum ist das die lateinische. Weltweit gelten und galten im Bibliotheksbereich unterschiedliche Standards für die Umschrift des Hebräischen. Die Verschiedenartigkeit der Transliterationssysteme und mangelnde Information der Nutzer durch die Bibliotheken über den jeweils verwendeten Standard führen zu großer Unsicherheit bei der Formulierung der Suchanfrage im Rahmen einer OPAC-Recherche. In der vorliegenden Arbeit werden vor diesem Hintergrund Internetauftritte und Online-Kataloge mehrerer europäischer und amerikanischer Bibliotheken betrachtet, die bedeutende Hebraica-Bestände halten. Die Untersuchung konzentriert sich einerseits auf die Frage nach der Vermittlung des für ein zuverlässiges Retrieval notwendigen Wissens. Weiterhin werden einheitliche Suchanfragen an die verschiedenen Online-Kataloge gerichtet und die Rechercheergebnisse analysiert. Ein Exkurs beschreibt die Konsequenzen der Bearbeitung hebräischsprachiger Medien für den Geschäftsgang in Bibliotheken. Diese Veröffentlichung ist die überarbeitete Fassung einer Masterarbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
Investigators in the cognitive neurosciences have turned to Big Data to address persistent replication and reliability issues by increasing sample sizes, statistical power, and representativeness of data. While there is tremendous potential to advance science through open data sharing, these efforts unveil a host of new questions about how to integrate data arising from distinct sources and instruments. We focus on the most frequently assessed area of cognition - memory testing - and demonstrate a process for reliable data harmonization across three common measures. We aggregated raw data from 53 studies from around the world which measured at least one of three distinct verbal learning tasks, totaling N = 10,505 healthy and brain-injured individuals. A mega analysis was conducted using empirical bayes harmonization to isolate and remove site effects, followed by linear models which adjusted for common covariates. After corrections, a continuous item response theory (IRT) model estimated each individual subject’s latent verbal learning ability while accounting for item difficulties. Harmonization significantly reduced inter-site variance by 37% while preserving covariate effects. The effects of age, sex, and education on scores were found to be highly consistent across memory tests. IRT methods for equating scores across AVLTs agreed with held-out data of dually-administered tests, and these tools are made available for free online. This work demonstrates that large-scale data sharing and harmonization initiatives can offer opportunities to address reproducibility and integration challenges across the behavioral sciences.