Motivation

Die Forderung nach Transparenz über den Ursprung und die Verwendung von Drittmitteln hat seit den 1990er Jahren Einzug in Debatten um Hochschulautonomie und -governance in vielen europäischen Ländern gehalten und ist eng verwoben mit Initiativen zur verstärkten Dokumentation und Evaluation öffentlich geförderter Forschungsaktivitäten universitärer und außeruniversitärer Forschungseinrichtungen. Der Wunsch nach einer möglichst aussagekräftigen Leistungsmessung und Mittelallokation von Forschungseinrichtungen hat die Anforderungen an das Berichtswesen in der Funktion eines Steuerungs- und Kontrollinstruments für das Qualitätsmanagement von Hochschulen und außeruniversitären Forschungseinrichtungen immer weiter ansteigen lassen. Die Nutzung hochverdichteter quantitativer Indikatoren für die Bewertung komplexer sozialer Zusammenhänge wird jedoch seit einigen Jahren kritisch bewertet.

Benötigt wird daher eine in sich konsistente, qualitätsgesicherte und vollständige Datenbasis, die auch den unterschiedlichen Berichtszwecken und -empfängern und Berichtszyklen  gerecht werden kann. Der vom Wissenschaftsrat initiierte Prozess zur Entwicklung eines Kerndatensatzes Forschung (KDSF) stellt einen wichtigen Schritt in der Standardisierung der Forschungsberichterstattung dar; die Umsetzung der Empfehlungen zum KDSF stellt die betroffenen Einrichtungen jedoch vor die Herausforderung, ihre bisherige Berichterstattung transparenter zu gestalten und effizienter zu organisieren. Die erforderlichen Daten müssen dazu in hoher Qualität gesammelt, konsolidiert und für die spezifischen Berichtsanforderungen aufbereitet werden.

Persistente Identifikatoren

Die Automatisierung der Datenaufbereitung bringt einige Herausforderungen mit sich, da die zur Verfügung stehenden organisationsinternen und öffentlich zugänglichen Datenquellen die für die Forschungsberichterstattung erforderlichen Daten oftmals nicht in ausreichender Qualität und Präzision zur Verfügung stellen. Ein großes Problem stellt hier die Disambiguierung der Entitätstypen Person und Organisation dar.

Ein Lösungsansatz zur Bewältigung dieser Herausforderung ist die Verwendung persistenter Identifikatoren zur Repräsentation der verschiedenen Entitäten Person, Organisation und Publikation. Idealerweise ist jeder Entität nur ein persistenter Identifikator zugeordnet, der mit anderen Entitäten über in Ontologien beschriebenen Beziehungen verknüpft ist.

Um die angestrebte Lösung für eine möglichst breite Anwenderschicht nachnutzbar zu gestalten, soll an dieser Stelle explizit auf proprietäre Datenquellen verzichtet und stattdessen die Schnittstellen zu Datenbeständen von Initiativen aus dem Kontext der Open-Science-Bewegung genutzt werden, wie z.B.:

  • ORCID (ORCID ID zur Autorenidentifikation),
  • Datacite,
  • CrossRef (DOI zur Identifikation von Publikationen),
  • ROR (ROR ID zur Organisationsidentifikation) oder
  • Aggregatoren wie Freya, OpenAIRE und Datacite Commons

(Teil-)Automatisiertes Reporting

Eine weitere Herausforderung ist die (teil-)automatische Erstellung von Standardberichten, für deren technische Übermittlung sich bisher kein technischer Standard etabliert hat. Auf Basis etablierter Open-Source-Software soll daher im Rahmen dieses Vorhabens eine Reporting-Komponente für das freie und linked-data-basierte Forschungsinformationssystem VIVO entwickelt werden, mit der die Ausgabe vordefinierter Standardberichte in verschiedenen Zielformaten ermöglicht wird.

Ein starker Fokus soll dabei auf der Verwendung der Definitionen des Kerndatensatzes Forschung sowie Berichtsanforderungen wie die Niedersächsischen Leitlinien zur Transparenz in der Forschung. Ermöglicht werden soll die Ausgabe als KDSF-XML oder über als Reports in konfigurierbaren Word-Templates.

ORCID coverage in research institutions — Readiness for partially automated research reporting
Schnieders, Kathrin; Mierz, Sandra; Boccalini, Sabine;…


Das im TAPIR-Projekt entwickelte Tool ermöglicht die Abfrage von PID-referenzierten Daten aus ausgewählten externen Datenquellen und den…


Zu Beginn des zweiten Jahres unseres Projekts haben wir einen Blogeintrag verfasst, der unsere Fortschritte zusammenfasst.


8 neue Einträge für das Registry of Scientometric Data Sources (ROSI)


Bleiben sie auf dem Laufenden über die aktuellsten Entwicklungen in Projekt TAPIR


Projekt TAPIR wird gleich 3 mal auf der VIVO Konferenz vertreten sein.


Um einen Einblick in unsere aktuelle Forschungs- und Entwicklungsarbeit zu gewähren, haben wir das Tool generate2vivo und eine verbundene VIVO-Instanz…


Das Import-Tool datacitecommons2vivo, welches Daten von Datacite Commons und ROR auf die VIVO Ontologie abbildet und in VIVO importiert, war unser…


In der Lightning-Talk-Session des KIM-Workshops werden wir die Nachnutzung von Metadaten aus Datacite Commons thematisieren.


Auf dem diesjährigen VIVO-Workshop wird auch das Projekt TAPIR mit einem Vortrag vertreten sein. Darin möchten wir einen Überblick über das…