5. Text+ Plenary 2026

Europe/Berlin
Aula (Mannheim, Schloss)

Aula

Mannheim, Schloss

Schloss 68161 Mannheim
Description

Text+ ist ein Konsortium der Nationalen Forschungsdateninfrastruktur (NFDI) und hat zum Ziel, sprach- und textbasierte Forschungsdaten langfristig zu erhalten und ihre Nutzung in der Wissenschaft zu ermöglichen.

Am 15. und 16. Juni 2026 trifft sich das Text+ Konsortium zu einer Konferenz mit allen Mitarbeitenden und Interessierten, darunter auch Delegierte aus Fachverbänden und -verbünden, um sich über den Projektfortschritt und die aktuellen Entwicklungen auszutauschen. Die diesjährige Konferenz zum Thema „Abschlussworkshop der ersten Projektphase“ findet in den Räumen des Schlosses in Mannheim statt.

Angegliedert an diese Konferenz finden auch Treffen der Mitarbeitenden des Konsortiums zu Arbeitsgruppensitzungen statt.

 

Registration
Text+ Plenary
    • 09:00 12:00
      Internes Strategiemeeting Management (nur auf Einladung) 3h Dozentenzimmer (O 126) (Schloss, Mannheim)

      Dozentenzimmer (O 126)

      Schloss, Mannheim

    • 12:00 13:30
      Anmeldung & Lunch 1h 30m Foyer vor Aula & Katakomben

      Foyer vor Aula & Katakomben

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 13:30 14:00
      Begrüßung, Eröffnung und Einführung in das Programm Aula

      Aula

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 14:00 15:30
      Ergebnisse aus Task Area: Infrastructure & Operations Aula

      Aula

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 15:30 16:00
      Kaffeepause 30m Katakomben

      Katakomben

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 16:00 17:30
      Ergebnisse aus Task Area: Editions Aula

      Aula

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 17:30 18:00
      Posterslam 30m Aula

      Aula

      Mannheim, Schloss

      Schloss 68161 Mannheim
    • 18:00 19:00
      Postersession Fuchs-Petrolub-Saal (O 138)

      Fuchs-Petrolub-Saal (O 138)

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
      • 18:00
        A Unifying CMDI-based Metadata Schema for Lexical Resources in Text+ 1h

        Text+ in an NFDI infrastructure project that engages 30+ German institutions. Each institution hosts a rich set of research data, which are described by institution-specific metadata formats. A central aim of the Text+ infrastructure is to support users to easily discover and access language-related research data via a central portal, the Text+ registry, where users can perform a combination of faceted and full-text search. Given the multi-discipline background of Text+ partners, which is reflected by the task areas Collections, Editions, and Lexical Resources, a single registry interface, which makes use of a single metadata scheme that underlies all data, cannot be devised; the nature of the data differs across resource types. To implement facet-based search, metadata from the 30+ data providers must be mapped to the registry's facets, which until now, was mostly done by the registry team using its domain modelling environment and individual negotiations with the data providers. It shows that the mapping process is not trivial. While this one-to-one negotiation has been effective but labour-intensive, it misses to capture and better understand the commonalities that exist across the metadata of all providers. In this poster, we report on a single, common metadata scheme for Lexical Resources, which is now being used by all data providers of lexical resources so that the registry's mapping process becomes trivial for this resource type. Moreover, the common metadata scheme for Lexical Resources is built upon the component-based metadata infrastructure. In this CMDI scheme, only a single component is used to describe lexical resources in detail; the other components were designed to be re-usable as they capture bibliographic, administrative, or technical metadata that is shared across resource types. The new scheme serves as a blueprint to the metadata providers of the other TA, further easing the mapping strain from the registry team.

        Speakers: Louis Cotgrove (IDS), Felix Helfer (SAW), Uwe Kretschmer (Sächsische Akademie der Wissenschaften zu Leipzig), Georg Oberdorfer, Felix Rau (GNOI), Thorsten Trippel (Eberhard Karls Universität Tübingen), Frank Wiegand (BBAW), Claus Zinn
      • 18:00
        AG Dissemination on tour 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Das Poster zeigt überblickshaft die von der Collections-AG Dissemination/Community Activities in der ersten Förderphase von Text+ veranstalteten Workshops und deren Themenspektren.

        Speaker: Lukas Weimer (SUB Göttingen)
      • 18:00
        Bring Your Own Topic: Entwicklungen der offenen Text+ Veranstaltungsreihe „Show and Tell“ 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Auf unserem Poster stellen wir die Entwicklungen unserer offenen Text+ Veranstaltungsreihe “Show and Tell: Tools, Dienste, Projekte” vor. Die Event-Reihe wurde im Januar 2025 ins Leben gerufen, um in lockerer Atmosphäre spannende Projekte, Tools, Standards, Technologien und Services kennenzulernen. Personen mit NFDI-Bezug und darüber hinaus sind eingeladen, ihre Themen in einem Format ihrer Wahl vorzustellen und darüber mit den Zuhörenden in Austausch zu kommen. Alle zwei bis drei Wochen wird in einem 60-minütigen Slot ein Thema vorgestellt und diskutiert. Das Format kann dabei von den Speaker:innen frei gewählt werden, bisher haben sich insbesondere Live-Demos und Input mit Folien bewährt.

        Bisher haben wir über 20 Veranstaltungen mit wechselnden Gästen durchgeführt. Die Zahl der Teilnehmenden liegt in der Regel zwischen 10 und 30 Personen – eine angenehme Gruppengröße sowohl für Präsentationen als auch konstruktive Diskussionen.

        Wir wollen mit dem Poster zeigen, dass sich unser kontinuierliches Angebot zum Austausch großer Beliebtheit erfreut. Der zwanglose Charakter ermöglicht Interessierten, spontan in einen Termin zu kommen. Bei uns sind Themen jedweder Komplexität willkommen; ebenso ermutigen wir Kolleg:innen dazu, diesen Raum für Austausch zu eigenen Arbeitsthemen zu nutzen, etwa das Text+ Archiv, TextGrid oder auch Juypter4NFDI. Das Poster möchten wir außerdem gern dazu nutzen, mit Anderen über die Veranstaltungsreihe selbst zu sprechen. Was können wir mit Blick auf eine zweite Förderphase noch besser machen und welche Angebote fehlen bisher in der Themenvielfalt? Wir freuen uns auf einen produktiven Austausch.

        Speakers: George Dogaru (GWDG), Melina Jander (SUB Göttingen)
      • 18:00
        Brücken zwischen Business-, Wirtschafts- und Textdaten: Zusammenarbeit von BERD und Text+ in der NFDI 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Die NFDI-Konsortien BERD und Text+ adressieren unterschiedliche, aber komplementäre Forschungsdaten: Während BERD Strukturen für den Zugang zu sowie die Erschließung von unstrukturierten Betriebs-, Wirtschafts- und Verwaltungsdaten entwickelt und sich auf Datenschutz sowie sichere und qualitätsgesicherte Datennutzung fokussiert, entwickelt Text+ Infrastrukturen für text- und sprachbasierte Daten sowie zugehörige Standards und Werkzeuge. Die zunehmende interdisziplinäre Forschung eröffnet darüber hinaus integrierte Ansätze zur Verknüpfung heterogener Datenbestände.

        Das Poster zeigt zentrale Schnittstellen zwischen beiden Konsortien. Gemeinsame Herausforderungen liegen insbesondere in der Interoperabilität von Datenmodellen, rechtlichen Rahmenbedingungen, FAIRer Nachnutzung und nachhaltiger Archivierung. Anhand gemeinsamer Austauschformate wie Workshops und Use-Case-Diskussionen wird die praktische Zusammenarbeit illustriert. Ziel ist es, Synergien zwischen disziplinären Infrastrukturen zu nutzen, interoperable Lösungen zu fördern und neue Forschungsperspektiven durch die Kombination unterschiedlicher Datentypen zu eröffnen. Die Kooperation stärkt damit die NFDI als integrierte Forschungsdateninfrastruktur und wird in zukünftigen gemeinsamen Use Cases und abgestimmten Standards weiter vertieft.

        Speakers: Regina Jutz (Universität Mannheim), Ulrich Krieger (Universität Mannheim), Veronica Haas (Universität Mannheim), Thorsten Trippel (Eberhard Karls Universität Tübingen)
      • 18:00
        CarMa Bot: Evaluation von RAG-Ansätzen für die Inhaltsexploration in Editionen von Musiker-Briefen 1h Fuchs-Petrolub-Saal (O 138)

        Fuchs-Petrolub-Saal (O 138)

        Mannheim, Schloss

        Bismarckstraße, 68161 Mannheim

        RAG-Systeme gelten als Chance, die Exploration größerer Textsammlungen zu erleichtern. Sie sollen es NutzerInnen ermöglichen, sich einen Überblick über deren Inhalte zu verschaffen. Anhand der Briefedition der Carl-Maria-von-Weber-Gesamtausgabe (WeGA) evaluieren wir den Einfluss von domänenspezifischen Anpassungen auf die Qualität gegebener Antworten in einem praxisnahen Szenario. In dem Bestreben nachhaltige und lokal umsetzbare Lösungen zu schaffen, verwenden wir ausschließlich durch die Universität Paderborn bereitgestellte Modelle.

        Die WeGA hat zum Ziel, sämtliche Kompositionen, Briefe, Tagebücher und Schriften Carl Maria von Webers in einer wissenschaftlich-kritischen Gesamtausgabe vorzulegen. Seit 2011 macht der Web-Auftritt die Edition der Schriften nach Richtlinien der TEI P5 öffentlich zugänglich. Derzeit umfasst die Edition 10.567 Briefe. Hiervon sind 7.546 bereits vollständig erschlossen; die Erschließung von 3.021 Briefen ist noch nicht abgeschlossen.

        Auf der Basis des Releases 4.13.1 (Dezember 2025) evaluieren wir verschiedene RAG-Systeme aus der Perspektive der NutzerInnen. Es soll erprobt werden, welcher Grad an domänenspezifischer Anpassung an die Textgrundlage nötig ist, um befriedigende Ergebnisse zu erzielen. Hierzu vergleichen wir ein Baseline RAG, ein Out-of-the-Box GraphRAG und einen GraphRAG mit Prompt-Engineering, sowie einen GraphRAG-Ansatz mit TEI-Preprocessing.

        Zur Untersuchung praxisnaher Nutzungsszenarien, verwenden wir speziell für die Briefe der WeGA entwickelte Fragen. Diese unterscheiden sich hinsichtlich ihrer Komplexität: Einige zielen nur auf die Inhalte einer einzelnen Textquelle ab, andere auf mehrere Quellen; wieder andere können auf mehrere Quellen abzielen. Darüber hinaus stellen wir Fragen, die offene Antworten erwarten, unvollständig sind, d.h. zu unspezifisch, um direkt beantwortet werden zu können, sowie Trickfragen, die aus den Inhalten der Briefe nicht beantwortet werden können.

        Um die Qualität der Antworten zu evaluieren, kombinieren wir einen LLM-as-a-jugde-Ansatz mit menschlichem Feedback.

        Speakers: Adrian Nachtwey (Universität Paderborn), Anna Plaksin (Universität Paderborn), Hizkiel Mitiku Alemayehu (Universität Paderborn), Peter Stadler (Universität Paderborn), Tobias Bachmann (Universität Paderborn)
      • 18:00
        Community Outreach through Scientific Blogging: the Text+ Blog 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Das Text+ Blog (ISSN 2941 2250) auf Hypotheses.org ist eine offene, niedrigschwellige Plattform für wissenschaftlichen Austausch und Citizen Science im Bereich text- und sprachbasierter Forschungsdaten. Seit 2022 verbindet er die europäische DARIAH Community und behandelt Themen von digitalen Editionen bis zu KI. Es dient der Informationsverbreitung, Vorstellung von Projekten und Services, Vernetzung mit der Community sowie der Einladung zu Feedback im Sinne von Participatory Design. 2025 verzeichnete das Blog 3.908 Besucher, überwiegend aus Deutschland. Technisch bietet Hypotheses.org DOI Vergabe, langfristige Archivierung und einfache Integration in eine Multichannel Strategie.

        Speaker: Annika Wienert (MWS)
      • 18:00
        Eine Forschungsumgebung für lexikalische Daten. Arbeitsergebnisse der Task Area Lexical Resources im NFDI-Projekt Text+ 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Die Task Area Lexical Resources ist eine der drei Datensäulen im NFDI-Projekt Text+. Das Poster stellt überblicksartig die zentralen Arbeitsergebnisse der Task Area vor und setzt diese in Beziehung zum Gesamtprojekt, insbesondere zu den anderen Task Areas. Dazu gehören besonders die Arbeiten an der föderierten Inhaltssuche (FCS), die durch eine lexikalisch orientierte Variante (LexFCS) eine substantielle Erweiterung erfahren hat sowie Task-Area-übergreifend erarbeitete Vorschläge für ein harmonisiertes Metadatenschema.

        Zweitens werden die verfügbar gemachten Ressourcen selbst in den Blick genommen, die das inhaltliche Herzstück der Forschungsdateninfrastruktur bilden. Das Poster gibt einen Überblick über kuratierte und integrierte Ressourcen sowohl projektinterner als auch vielfältiger externer Partnerinstitutionen und skizziert die mit diesen Ressourcen verbundenen Aufbereitungsschritte.

        Ein dritter Schwerpunkt liegt schließlich in der Darstellung von technischen und organisatorischen Kooperationen mit Projekten und Initiativen außerhalb des Projektkontextes, beispielsweise mit CLARIN-EU im Rahmen der Entwicklung der LexFCS (https://www.clarin.eu/fcs) und mit der DARIAH-EU-Initiative TEI Lex-0 (https://lex-0.org/) zur Entwicklung einer harmonisierten TEI-basierten Auszeichnung für lexikalische Daten.

        Die Darstellung zielt primär auf die inhaltliche Vollständigkeit der Arbeiten ab und bietet dadurch einen breiten Überblick. Ausgewählte Einzelthemen werden in deutlich größerer Detailtiefe in separaten Postereinreichungen behandelt (bspw. harmonisiertes Metadatenschema, Usability-Workshops zur Weiterentwicklung der FCS).

        Speakers: Axel Herold (BBAW), Uwe Kretschmer (Sächsische Akademie der Wissenschaften zu Leipzig)
      • 18:00
        From Interdisciplinary Metadata Alignment to Practice in Text+: Results and Implications of the 2nd NFDI Metadata Workshop 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        The German National Research Data Infrastructure (NFDI) brings together research communities across all scientific domains with the shared goal of enabling FAIR and interoperable research data management. While disciplinary diversity remains a defining strength, it also poses challenges for cross-consortial metadata alignment. Addressing these challenges is the mission of the NFDI Taskforce Metadata within the Section (Meta)data, Terminologies and Provenance.

        This presentation reports on the outcomes of the 2nd Interdisciplinary NFDI Metadata Workshop, held in June 2025 at the TIB Leibniz Information Centre for Science and Technology, and discusses their relevance for implementation within Text+ and other NFDI consortia. Building on the first workshop in January 2025, the second workshop shifted the focus from identifying suitable generic metadata schemas to their practical application across disciplines. Sixty-one participants from 25 NFDI consortia collaboratively assessed existing standards and developed community-driven recommendations, documented in the workshop report (DOI: 10.5281/zenodo.19709639).

        A central result is the definition of an NFDI Core Metadata Profile: a schema-agnostic set of mandatory and recommended elements that enables cross-domain interoperability while preserving disciplinary specificity. The workshop reaffirmed the suitability of three established generic metadata standards - DataCite, DCAT-AP and schema.org - as interoperable discovery layers. Rather than prescribing a single schema, the recommendations encourage consortia to adopt at least one of these standards and to align them with their domain-specific metadata models through documented mappings.

        For Text+, these results provide a concrete framework for harmonising metadata practices across heterogeneous text- and language-related data types. The recommendations offer best practices for improving interoperability within the consortium and across NFDI as a whole, without imposing mandatory technical requirements. The presentation outlines how Text+ partners can operationalise the Core Metadata Profile, integrate it with existing standards such as ISO 24622, and contribute to a shared, sustainable metadata landscape for the NFDI.

        References

        1. Henzen, C., Neidiger, C., Söding, E., & Trippel, T. (2025). Report on the first NFDI Metadata Workshop. Zenodo.DOI: 10.5281/zenodo.15227236
        2. Castro, L., Fliegl, H., Henzen, C., Loebe, M., Koepler, O., Neidiger, C., Söding, E., Trippel, T., Stervbo, U., Wiljes, C. (2026). Empfehlung an die Konsortien und Mitglieder des Vereins Nationale Forschungsdateninfrastruktur (NFDI) e.V. zum Nachweis von NFDI-Datenrepositorien in re3data.
          DOI: 10.5281/zenodo.19565419
        3. Fliegl, H., Henzen, C., Koepler, O., Stervbo, U., Söding, E., Trippel, T. (2026). Report on the 2nd Metadata NFDI Workshop, DOI: 10.5281/zenodo.19709639
        Speakers: Andreas Czerniak (Universität Bielefeld), Christin Henzen (TU Dresden), Cord Wiljes (Nationale Forschungsdateninfrastruktur (NFDI) e.V.), Emanuel Söding (GEOMAR Helmholtz-Zentrum für Ozeanforschung), Heike Fliegl (FIZ-Karlsruhe – Leibniz Institute for Information Infastructure), Josh Moore (German BioImaging – Gesellschaft für Mikroskopie und Bildanalyse e.V.), Leyla Jael Castro (ZB MED – Information Centre for Life Sciences), Oliver Koepler (TIB - Leibniz Informationszentrum Technik und Naturwissenschaften), Thorsten Trippel (Eberhard Karls Universität Tübingen), Ulrik Stervbo (Ruhr University Bochum)
      • 18:00
        Humanities@NFDI 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Das Poster gibt einen Überblick über die Kooperation Humanities@NFDI der NFDI-Konsortien NFDI4Culture, NFDI4Memory, NFDI4Objects und Text+

        Speaker: Lukas Weimer (SUB Göttingen)
      • 18:00
        Integration of Basic Services in Text+ 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Das Poster stellt alle sich derzeit in Förderung befindlichen Basisdienstkandidaten von Text+ vor. Es nimmt dabei besonders Bezug auf Inkubatorprojekte, die im Rahmen von Text+ durchgeführt wurden.

        Speaker: Lukas Weimer (SUB Göttingen)
      • 18:00
        Let’s talk to the users. Usability-Workshops zur nutzerorientierten Weiterentwicklung der FCS 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Die Task Area Lexical Resources stellt mit der lexikalischen föderierten
        Suche (LexFCS) ein spezialisiertes Werkzeug bereit, das die simultane
        Abfrage von verteilten lexikalischen Ressourcen ermöglicht. Die LexFCS
        ist eine konzeptionelle und technische Erweiterung der föderierten
        Inhaltssuche (FCS) in Textdaten im NFDI-Projekt Text+. Die zentrale
        FCS-Weboberfläche (https://text-plus.org/fcs) enthält ein eigenständiges
        Modul als Frontend für die LexFCS, das von der Task Area Lexical
        Resources entwickelt wird.

        Lexikalische Daten sind in der Regel hochgradig komplex strukturiert.
        Sowohl ihre Abfrage als auch die visuelle Präsentation von
        Suchergebnissen stellen hohe Anforderungen an die LexFCS. Trotz der
        Komplexität der Abfragesprache und der lexikalischen Daten soll die
        Weboberfläche für die LexFCS möglichst intuitiv und niedrigschwellig
        bedienbar bleiben, die konzeptionellen Möglichkeiten der LexFCS aber
        dabei nicht beschneiden. Um dieser Anforderung gerecht zu werden, hat
        die Task Area eine Reihe von Workshops mit externen Domainexpertinnen
        und -experten veranstaltet. Ziel der Veranstaltungsreihe ist es,
        typische Nutzerbedürfnisse und konkrete Arbeitsabläufe zu ermitteln, die
        anschließend Eingang in die technische Entwicklung der LexFCS und
        darüber hinaus in die Task-Area-übergreifende Entwicklung der FCS und
        der FCS-Nutzeroberfläche gefunden haben.

        Das Poster stellt zentrale Erkenntnisse und Arbeitsergebnisse dieser
        Usability-Workshops vor.

        Speakers: Axel Herold (BBAW), Hanna Fischer (Universität Marburg), Thomas Eckart (SAW Leipzig), Uwe Kretschmer (Sächsische Akademie der Wissenschaften zu Leipzig)
      • 18:00
        Metadata Desiderata for Literary Corpora: A survey for starting a conversation between literary studies, libraries and research data repositories 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        The poster presents the highlights of the results of a survey on the categories that literary scholars find most important when composing literary corpora or collections. The survey was carried out by the German NFDI consortium Text+, the DFG priority program (SPP 2207) Computational Literary Studies and the European project CLS Infra. All projects are strongly linked to both, literary studies and research infrastructures.

        Speaker: José Calvo Tello (SUB Göttingen)
      • 18:00
        MONAPipe: Modular Natural Language Processing Pipeline for Digital Humanities 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Dieses Poster wurde auf dem Text+-Plenary (27.-29. September 2023) in Göttingen vorgestellt und ist der Task Area "Collections" und "Infrastructure Operations" zugeordnet. Die Natural Language Processing Pipeline MONAPipe wird gemeinschaftlich von den beteiligten Partnern in Text+ für die Anwendung im Bereich der digitalen Geisteswissenschaften entwickelt. MONAPipe basiert auf spaCy und nutzt dessen System der "Custom Components" zur Integration eigener Entwicklungen. Zudem verfügt MONAPipe über ein eigenes auf Universal Dependencies basierendes Sprachmodell für das Deutsche. Im vorliegenden Poster werden eigene Komponenten und Implementierungen (blau) gegenüber den in spaCy integrierten (rot) vorgestellt.

        Speaker: Florian Barth (Göttingen State and University Library (SUB))
      • 18:00
        Nah an der Forschung: Text+ als föderierte Infrastruktur für RDM-Beratung und Helpdesk-Support 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Text+ bietet ein umfassendes FDM Beratungs- und Serviceangebot für text- und sprachbasierte Forschungsdaten basierend auf einem erweiterten Verständnis von Consulting: Über die klassische Helpdesk-Funktion hinaus unterstützt ein interdisziplinäres Team von Agent:innen Forschende entlang des gesamten Datenlebenszyklus, von der Projektidee über Antragsberatung und Forschungsdatenmanagement bis hin zu spezialisierten Fragen zu Tools, Technologien und Standards.

        Ziel dieser Beratungsleistungen ist es, die Qualität und Nachnutzbarkeit von Forschungsdaten nachhaltig zu verbessern. Dabei orientiert sich Text+ konsequent an den FAIR-Prinzipien und fördert die Etablierung standardisierter, interoperabler und langfristig tragfähiger Praktiken im Umgang mit textuellen und sprachlichen Daten. Consulting wird dadurch zu einem integralen Bestandteil guter wissenschaftlicher Praxis.

        Ein zentraler Einstiegspunkt ist der Text+ Helpdesk auf Basis des Ticket-Systems GOTRS bereitgestellt durch die GWDG. Im Sinne von „OneNFDI“ sind die Beratungsprozesse konsortienübergreifend vernetzt: Anfragen werden koordiniert weitergeleitet, Expertise gebündelt und auch komplexe, domänenübergreifende Fälle gemeinsam bearbeitet. Text+ kooperiert hierbei eng mit Partnern wie NFDI4Culture, NFDI4Memory und NFDI4Objects. Darüber hinaus übernimmt Text+ eine koordinierende Rolle in der NFDI Sektion Education and Training Working Group Helpdesk Network, die den konsortienübergreifenden Austausch, die Abstimmung von Prozessen sowie die Weiterentwicklung gemeinsamer Beratungsstrukturen vorantreibt.

        Ein weiteres Instrument zur Strukturierung von Forschungsdatenmanagement ist der Text+ Fragenkatalog im Research Data Management Organiser (RDMO), bereitgestellt über eine Instanz der Göttingen Research Online (GRO). Der Katalog basiert auf etablierten Standards und wurde um domänenspezifische Beispiele ergänzt. Er dient der Erstellung von Datenmanagementplänen sowie der Reflexion zentraler Fragestellungen im Forschungsprozess.

        Ergänzt wird das Angebot durch das „Research Rendezvous“, die offene Sprechstunde von Text+, in der Anliegen niedrigschwellig und ohne Anmeldung direkt besprochen werden können. Zusätzlich findet einmal im Monat eine gemeinsame Sprechstunde der geisteswissenschaftlichen NFDI-Konsortien (Humanities@NFDI) statt, die den Austausch über Konsortiengrenzen hinweg stärkt.

        Darüber hinaus entstehen zahlreiche Beratungsimpulse im Kontext von Workshops, Konferenzen und weiteren Fachveranstaltungen. Text+ versteht sich dabei als aktive Infrastruktur, die nah an den Bedarfen der Forschenden operiert und diese kontinuierlich in die Weiterentwicklung ihrer Services integriert.

        Speakers: Kilian Erasmus Hensen (Cologne Center for eHumanities, Universität zu Köln), Martin Sievers (Akademie der Wissenschaften und der Literatur | Mainz)
      • 18:00
        New Features in the TextGrid Repository: Facilitating Long-Term Open Access to TEI files 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        The poster presents the open TextGrid Repository for TEI documents with its basic features and some new developments. In particular, we describe the new and more user-friendly import workflow, which has already been used to publish new corpora, and invite other projects to join us.

        Speaker: José Calvo Tello (SUB Göttingen)
      • 18:00
        Restaurierungsdokumente als Forschungsdaten – Annotation, Wissensmodellierung und interkonsortiale Perspektiven an der Schnittstelle von NFDI4Objects und Text+ 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Forschungsdaten in den objektbezogenen Wissenschaften liegen in heterogenen Formen vor. Neben Mess- und Bilddaten bilden Textdokumente einen erheblichen Teil des institutionellen Wissensspeichers. Im Bereich der Konservierung-Restaurierung dokumentieren Berichte und Protokolle über Jahrzehnte akkumuliertes Fachwissen, welches bislang jedoch meist weder semantisch erschlossen noch strukturiert zugänglich ist (Fischer/ Witt 2025). Das Leibniz-Zentrum für Archäologie (LEIZA) verfügt über einen solchen Bestand, der bis ins Jahr 1936 zurückreicht und damit nicht nur einen umfangreichen Quellenkorpus restauratorischen Wissens darstellt, sondern zugleich einen erheblichen Teil der insgesamt über 170-jährigen Restaurierungsgeschichte am LEIZA dokumentiert (Schwab et. al. 2024). Ein Großteil dieser Materialien lag zunächst ausschließlich in analoger Form vor und wurde ab 2021 systematisch digitalisiert. Insgesamt wurden seither rund 18.000 - 19.000 Datensätze bearbeitet.

        Im Rahmen eines Use Cases innerhalb der Task Area 4 von NFDI4Objects soll dieser Textbestand in eine Wissensgraph-Repräsentation überführt werden. Voraussetzung dafür sind manuell von einer Fachwissenschaftlerin annotierte, ausgewählte Datensätze als Goldstandard, die aktuell mit der Annotationsplattform INCEpTION innerhalb der CLARIN-Infrastruktur erstellt werden. Der Workfl ow umfasst Named Entity Recognition, Relationsextraktion sowie die Verlinkung von Entitäten mit dem SKOS-modellierten LEIZA Konservierungs- und Restaurierungsfachthesaurus für archäologische Kulturgüter. In einem nächsten Schritt soll evaluiert werden, inwieweit Large Language Models in der Lage sind, dieselben Textdateien in vergleichbarer Qualität zu annotieren.

        Der direkte Vergleich KI-generierter und fachwissenschaftlich erstellter Annotation liefert Rückschlüsse, inwieweit solche Modelle zur Reduzierung des manuellen Aufwands bei der Erschließung größerer Bestände sinnvoll eingesetzt werden kann.
        Dieser Beitrag stellt den Use Case vor und diskutiert, wie sowohl die Rohtextdaten als auch die annotierten Datensätze langfristig gesichert und nachnutzbar gemacht werden können. Objektbezogene Forschung erzeugt Textdaten, die wiederum von textzentrierter Infrastruktur profi tieren. Der Beitrag versteht sich daher als Einladung zur Diskussion über Synergien an der Schnittstelle von NFDI4Objects und Text+.

        Bibliography

        1. Roland Schwab, Katja Broschat, Rüdiger Lehnert, Ingrid Stelzner, Jörg Stelzner, Über 170 Jahre Expertise. Das Leibniz-Zentrum für Archäologie, in: Archäologie in Deutschland, 2024, Heft 5, S. 26-29.
        2. Kristina Fischer, Nathaly Witt. (2025). Zusammenfassung des Status Quo im Forschungsdatenmanagement für den Bereich der Konservierung-Restaurierung (Version v1). NFDI4Objects-Community, Zenodo. https://doi.org/10.5281/zenodo.17475354
        Speakers: Kristina Fischer (Leibniz-Zentrum für Archäologie), Lasse Mempel-Länger (Leibniz-Zentrum für Archäologie), Leslie Pluntke (Leibniz-Zentrum für Archäologie)
      • 18:00
        Synergies between Base4NFDI services and Text+ 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Base4NFDI and Text+ operate at different but closely connected levels within the NFDI landscape. While Text+ develops and connects a distributed infrastructure for language and text-based research data, including collections, editions, and lexical resources, Base4NFDI supports the development of cross-domain services that enable interoperability and reuse across consortia.

        This contribution explores how these perspectives come together in practice. Selected areas such as persistent identifiers, metadata, terminology, and data management planning provide concrete points where shared services and domain-specific requirements intersect. In the case of Text+, the diversity and complexity of language and text data underscore the need for flexible solutions that integrate heterogeneous resources while aligning with broader infrastructure developments.

        Our poster presents an initial, exploratory mapping of activities in Text+, cross-consortium work in NFDI sections, and ongoing developments in Base4NFDI. These connections are not understood as fixed integrations, but as starting points to identify shared challenges and opportunities for collaboration. A key element is the ongoing exchange between community needs and service development. Text+ contributes domain-specific expertise and use cases, while Base4NFDI provides a framework for developing and coordinating reusable services. This interaction supports the integration, preservation, and reuse of research data across contexts. By making these connections visible, the poster highlights how synergies between Text+ and Base4NFDI can strengthen interoperability in a practical and sustainable way.

        Speakers: Jana Tatscheck (Leibniz Institute for Psychology (ZPID), Trier), Neelam Vishen (University of Mannheim)
      • 18:00
        The Text+ Registry: A Unifi ed Gateway to Textual Resources 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        The Text+ Registry is a unified cataloguing system, designed to enhance cross-domain discoverability of scientific resources. It addresses a core challenge in the humanities: resources developed across different projects and institutions adhere to divergent metadata standards, lack common access points, and exhibit limited interoperability. The Registry tackles these issues by promoting FAIR data practices across three resource domains — collections, lexical resources, and editions.

        The system is grounded on the architectural principles A) metamodeling, B) model-driven design, and C) information layering:
        A. Metamodeling enables the concurrent governance of multiple data models without requiring system-wide redesign upon the integration of new resource types.
        B. Model-driven design derives application components from formal models, ensuring technology independence and scalability.
        C. The layering approach preserves full provenance while producing enriched resource descriptions: metadata ingested from heterogeneous sources such as data centers, research information systems, domain-specific catalogues and databases are stacked as transparent, clearly attributed layers.

        Manual curation by domain experts complements automated aggregation without compromising source integrity. Integration with authority files (e.g. GND), the use of controlled vocabularies, an instance of the Research Software Directory (RSD) and SSHOMP create a semantic network connecting textual resources with software tools and institutional actors. A Search API exposes harmonised metadata to external services via standardised interfaces, while DataCite mappings further extend cross-domain discoverability.

        The poster showcases the technical implementation addressing harmonisation challenges, practical ingestion workflows, and the transformation of heterogeneous information into rich resource descriptions — positioning the Registry as a component of an interconnected research infrastructure within the NFDI and beyond.

        Speakers: Daniela Schulz (Herzog August Bibliothek Wolfenbüttel), Kilian Erasmus Hensen (Cologne Center for eHumanities, Universität zu Köln), Leon Fruth, Martin Sievers (Akademie der Wissenschaften und der Literatur | Mainz), Nils Geißler (Cologne Center for eHumanities, Universität zu Köln), Tobias Gradl (Universität Bamberg / Text+)
      • 18:00
        Transcription+ ISO 24624:2016 - Transcription of spoken language: Ressourcen, Dokumentation und multilinguales Demokorpus 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Der ISO-Standard 24624:2016 „Language resource management—Transcription of spoken language” wurde 2016 als ein Vorschlag zu einer Standardisierung von Transkriptionen gesprochener Sprache veröffentlicht. Basierend auf den Richtlinien der Text Encoding Initiative (TEI) spezifiziert er eine XML-Repräsentation von Transkripten audiovisueller Sprachaufnahmen, die kompatibel mit den TEI-Richtlinien, interoperabel mit den gängigsten Toolformaten (ELAN, EXMARaLDA, FOLKER, Transcriber, etc.) und KI-Diensten (wie OpenAI Whisper) und konform mit weit verbreiteten Transkriptionskon-ventionen ist (Schmidt 2011, Schmidt et al. 2009). In CLARIN hat sich der Standard als Austausch-format für Transkriptionen gesprochener Sprache etabliert (Hedeland/Schmidt 2022).

        Das Projekt Transcription+ (vollständiger Titel: „ISO 24624:2016 - Transcription of spoken language: Ressourcen, Dokumentation und multilinguales Demokorpus“), das als Kooperationsprojekt von Text+ gefördert wird, hat sich zum Ziel gesetzt, Dokumentation und Tool-Support für diesen Standard zu verbessern. Dazu werden:
        (a) bestehende, verteilt vorliegende Dokumentationen gesammelt und aufbereitet;
        (b) bestehender, verteilt vorliegender Code und XSLT-Stylesheets zur Verarbeitung von Doku-menten im ISO-Standard gesammelt und aufbereitet;
        (c) eine aktualisierte und erweiterte Version der TEILicht-Webservices (Fisseni & Schmidt 2020) über einen Server am Text+-Zentrum der AdWHH entwickelt und bereitgestellt;
        (d) eine überarbeitete Version des mehrsprachigen EXMARaLDA-Demokorpus mit ISO-konformen Transkripten erstellt und über das Repositorium des Zentrums für nachhaltiges Forschungsdatenzentrums der Universität Hamburg in Text+ integriert;
        (e) das EXMARaLDA-Demokorpus über eine bei der AdWHH aufgesetzte Instanz der Korpus-Plattform ZuMult (Schmidt et al. 2026) bereitgestellt, die das Protokoll der Federated Con-tent Search (FCS) bedient.

        Alle Projektergebnisse werden auf einer zentralen Website, die von der AdWHH gehostet wird, zur Verfügung gestellt. Das Poster stellt das Projekt und den aktuellen Stand der Arbeiten vor.

        Referenzen:

        1. Fisseni, Bernhard/Schmidt, Thomas (2020): CLARIN Web Services for TEI-annotated Transcripts of Spoken Lan-guage. In: Simov, Kiril/Eskevich, Maria (Hrsg.): Selected Papers from the CLARIN Annual Conference 2019. Leipzig, 30 September - 2 October 2019. (= Linköping Electronic Conference Proceedings 172). Linköping: Linköping University Electronic Press, 2020. S. 12-22.
        2. Hedeland, Hanna/Schmidt, Thomas (2022): The TEI-based ISO Standard ‘Transcription of spoken language’ as an Exchange Format within CLARIN and beyond. In: Monachini, Monica/Eskevich, Maria (Hrsg.): Select-ed Papers from the CLARIN Annual Conference 2021. Virtual Event, 2021, 27–29 September. (= Linkö-ping Electronic Conference Proceedings 189). Linköping: Linköping University Electronic Press, 2022. S. 34-45.
        3. Schmidt, Thomas/Duncan, Susan/Ehmer, Oliver/Hoyt, Jeffrey/Kipp, Michael/Loehr, Dan/Magnusson, Mag-nus/Rose, Travis/Sloetjes, Han (2009): An exchange format for multimodal annotations. In: Kipp, Mi-chael/Martin, Jean-Claude/Paggio, Patrizia/Heylen, Dirk (eds.): Multimodal corpora: from models of natural interaction to systems and applications. Berlin/Heidelberg: Springer, 2009. S. 207-221.
        4. Schmidt, T. (2011): A TEI-based approach to standardising spoken language transcription. In: Journal of the Text Encoding Initiative 1. 2011. https://doi.org/10.4000/jtei.142
        5. Schmidt, T. / Ferger, A. / Frick, E. (2026): Putting things on top of other things: The ZuMult platform for multi-modal corpora and its ecosystem. To appear in: Grisot, C. et al.: Selected Papers of the CLARIN Annual Conference 2025 [Preprint at https://tinyurl.com/preprintcac]
        Speakers: Kai Wörner (Universität Hamburg), Thomas Schmidt (Universität Duisburg Essen), Timm Lehmberg (Akademie der Wissenschaften in Hamburg)
      • 18:00
        Unzugängliche Forschungsdaten wieder FAIR-fügbar machen - Kooperationsprojekt AWV 2.0 1h O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        O 138 (Fuchs-Petrolub-Saal), Mannheim, Schloss

        Das Projekt „Altägyptische Wörterbücher im Verbund“, verortet an der Universität Leipzig, sammelte zwischen 2013 und 2015 Referenzdaten aus Werken der Pionierphase der ägyptischen Lexikographie (1822–1868). In der Projektlaufzeit wurden 12 historische Wörterbücher in eine Datenbank eingepflegt, mit umfangreichen Annotationen versehen und zudem mit der damaligen Standardwortliste der Version 1.0 des Thesaurus Linguae Aegyptiae (TLA) von 2004 verknüpft.

        Das Projekt präsentierte seine Daten mithilfe einer inzwischen veralteten Webanwendung, die Lemmata mit präzisen Ausschnitten aus den Bilddateien der passenden Wörterbuchseiten verlinkte. Diese Zusammenführung unterschiedlicher historischer Quellen hat insbesondere für die Grundlagen- und wissenschaftsgeschichtliche Forschung eine hohe Relevanz und stellt für die altägyptischen Lexikographiegeschichte eine einmalige Ressource dar. Da jedoch die veraltete Webanwendung nicht mehr öffentlich verfügbar gemacht werden konnte und die Daten selbst ausschließlich in einer relationalen Datenbank für projektinterne Nutzung vorlagen, hat das Kooperationsprojekt "AWV 2.0" diese Projektdaten nun gesichtet, aufbereitet, verknüpft, standardisiert, in ein Langzeitarchiv eingepflegt und über die Text+ Infrastruktur bereitgestellt. Genau diese Arbeitsschritte und deren Facetten stellt unser Poster vor.

        Unter anderem wird die Umwandlung der Daten in das Standardformat TEI
        Lex-0 genauer beleuchtet, die Übertragung der Bildkoordinaten der vorigen Bildquellen auf extern verfügbare, öffentliche IIIF-Schnittstellen, die Vorgehensweise bei der Integration in die Text+ Federated Content Search (FCS), sowie die noch engere Verknüpfung mit dem TLA, welches ebenfalls bereits in der Text+ FCS vorliegt.

        Das Poster des Kooperationsprojekt AWV 2.0 zeigt damit, wie nicht mehr verfügbare Forschungsressourcen nicht nur wiederhergestellt, sondern deren FAIRe Nutzbarkeit sogar noch verbessert werden kann - und welche Herausforderungen ein solches Vorhaben mit sich bringt.

        Speaker: Felix Helfer (SAW)
      • 18:00
        Verwendung großer Sprachmodelle zur Generierung von Beispielsätzen für GermaNet 1h Fuchs-Petrolub-Saal (O 138)

        Fuchs-Petrolub-Saal (O 138)

        Mannheim, Schloss

        Bismarckstraße, 68161 Mannheim

        Dieses Poster beschreibt den Einsatz großer Sprachmodelle in der Lexikografie zur Generierung von Beispielsätzen für GermaNet (Hamp&Feldweg1997; Henrich&Hinrichs2010b). Wir beschreiben ein Experiment, in dem wir Sätze für eine repräsentative Teilmenge von Substantiven aus GermaNet von drei bekannten Sprachmodellen (LLMs) generieren ließen: ChatGPT (Brown et al. 2020), Deepseek (DeepSeek-AIetal.2024) und Claude (Enis&Hopkins2024). Die daraus resultierenden 3600 Sätze wurden von erfahrenen Lexikographen anhand etablierter Kriterien zur Erstellung von Beispielsätzen in Wörterbuchqualität bewertet (Atkins&Rundell 2008).

        Die LLMs lösten die Generierungsaufgabe für monosemische Lemmata am besten. Hier enthielt der Eingabeprompt das Lemma zusammen mit dessen Hypernym. Die Häufigkeiten des Lemmas und seines Hypernyms beeinflussen beide die Satzqualität. Die Art und Weise, wie die beiden Häufigkeiten zusammenwirken, hängt jedoch vom zugrundeliegenden LLM ab. Bei polysemischen Lemmata enthielt der Eingabeprompt das Lemma und seine verschiedenen Hypernyme. Hier steigt die Satzqualität mit der Häufigkeit des Hypernyms, verschlechtert sich jedoch mit dem Grad der Polysemie des Lemmas.

        LLMs können Lexikographen unterstützen, sie jedoch nicht ersetzen. Obwohl sie auf riesigen Textdatenmengen trainiert wurden, fehlt es LLMs an der sprachlichen Kompetenz und dem Allgemeinwissen ausgebildeter Fachleute. Daher müssen Lexikographen von LLMs generierte Beispielsätze überprüfen, bevor sie in hochwertige Ressourcen wie GermaNet aufgenommen werden können. Unsere Ergebnisse zeigen, dass die beiden leistungsstärksten LLMs Sätze generieren, die unsere Qualitätskriterien häufig erfüllen. Die Leistung ist besonders gut bei monosemischen Lemmata, die den Großteil der Substantive in GermaNet ausmachen. Bei diesen Lemmata wird den Aufwand im Vergleich zur manuellen Erstellung von Beispielen deutlich reduziert. Bei polysemischen Substantiven sind die Ergebnisse weniger überzeugend; die Generierung mehrerer Kandidaten ermöglicht es Lexikographen jedoch, geeignete Beispiele auszuwählen und nachzubearbeiten. Insgesamt sind zwei Drittel der generierten Sätze für polysemische Substantive zur Aufnahme geeignet, wodurch sich in diesen Fällen der manuelle Überprüfungsaufwand verringert.

        Diese Nutzung von LLMs wird in GernEdit (Henrich/Hinrichs2010a), GermaNet‘s Arbeitsumgebung für Lexikographen, verfügbar sein.

        Bibliografie:

        1. Hamp, B. and Feldweg, H. (1997). GermaNet - a Lexical-Semantic Net for German. In Proceedings of the ACL workshop Automatic Information Extraction and Building of Lexical Semantic Resources for NLP Applications. Madrid, Spain.
        2. Henrich, V. and Hinrichs, E. (2010)a. GernEdiT: A graphical tool for GermaNet development. In Proceedings of the ACL 2010 System Demonstrations, pp. 19–24, Uppsala, Sweden. Association for Computational Linguistics.
        3. Henrich, V. and Hinrichs, E. W. (2010)b. GernEdiT - The GermaNet Editing Tool. In Calzolari, N., Choukri, K., Maegaard, B., Mariani, J., Odijk, J., Piperidis, S., Rosner, M., and Tapias, D., editors, Proceedings of the International Conference on Language Resources and Evaluation, LREC 2010, 17-23 May 2010, Valletta, Malta. European Language Resources Association.
        4. Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., Hesse, C., Chen, M., Sigler, E., Litwin, M., Gray, S., Chess, B., Clark, J., Berner, C., McCandlish, S., Radford, A., Sutskever, I., and Amodei, D. (2020). Language models are few-shot learners. CoRR, abs/2005.14165.
        5. DeepSeek-AI, Liu, A., Feng, B., ..., and Pan, Z. (2024). Deepseek-V3 Technical Report. arXiv preprint arXiv:2412.19437.
        6. Enis, M. and Hopkins, M. (2024). From LLM to NMT: Advancing low-resource machine translation with claude. arXiv preprint arXiv:2404.13813.
        7. Atkins, B. T. S. and Rundell, M. (2008). The Oxford Guide to Practical Lexicography. Oxford University Press.
        Speakers: Claus Zinn (Eberhard Karls Universität Tübingen), Erhard Hinrichs (Eberhard Karls Universität Tübingen), Marie Hinrichs (Eberhard Karls Universität Tübingen), Reinhild Barkey (Eberhard Karls Universität Tübingen)
    • 19:00 22:00
      Abendempfang 3h Rektoratshof

      Rektoratshof

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 09:00 10:30
      Ergebnisse aus Task Area: Lexical Resources Aula

      Aula

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 10:30 11:00
      Kaffeepause 30m Katakomben

      Katakomben

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 11:00 12:30
      Ergebnisse aus Task Area: Collections Aula

      Aula

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 12:30 13:00
      Abschluss und Ausblick auf die zweite Phase Aula

      Aula

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 13:00 14:00
      Lunch 1h Katakomben

      Katakomben

      Mannheim, Schloss

      Bismarckstraße, 68161 Mannheim
    • 14:00 15:30
      Gemeinsames Treffen des Scientific Coordination Committees Lexical Resources und der Task Area Lexical Resources (intern, nur für SCC- und TA-Mitglieder) 1h 30m Aula

      Aula

      Mannheim, Schloss

      Schloss 68161 Mannheim
    • 14:00 15:30
      Treffen des Scientific Coordination Committees Collections (intern, nur für SCC-Mitglieder) 1h 30m Dozentenzimmer (O 126)

      Dozentenzimmer (O 126)

      Mannheim, Schloss