Sprachgeschichte und Editionsphilologie: Vom digitalen Umgang mit historischen Texten

Europe/Berlin
Digital

Digital

Johanne Peemöller (Christian-Albrechts-Universität zu Kiel), Philipp Hegel (Technische Universität Darmstadt)
Beschreibung

In diesem digitalen Workshop wollen wir neue Perspektiven auf die germanistische und romanistische Sprachgeschichte und Editionsphilologie eröffnen. Handschriftlich überlieferte mittelalterliche, erste gedruckte Editionen und jüngste digitale Publikationsformen stellen unseren Gegenstandsbereich dar und sollen zusammengeführt und präsentiert werden. Auf dieser Grundlage werden methodische Konzepte aus der Editionsphilolgie hinterfragt und an die neuen technischen Bedingungen adaptiert sowie innovative Analysemöglichkeiten und Anbindungen an verfügbare Schnittstellen untersucht. Der Workshop besteht aus einzelnen Modulen von jeweils etwa drei beziehungsweise sechs Stunden, die auch einzeln besucht werden können: 

Modul 1: Digitale Editionen und Korpora sprachhistorischer Zeugnisse – Überblick, Herausforderungen und Zugänge (19. September, 15:30 bis 18:30 Uhr)
Modul 2: Von der mittelalterlichen Handschrift zur digitalen Edition – Texterkennung und Transmedialisierung (20. September, 9 bis 12 Uhr)
Modul 3: Digitale Verfahren in der Textkritik (20. September, 14 bis 17 Uhr)
Modul 4: Erschließung und Vernetzung digitaler Ressourcen (21. September, 9 bis 17 Uhr)

Die Veranstaltung wird geplant und umgesetzt vom Projekt Historische Sprache(n) neu gesehen und vom Konsortium Text+ in der Nationalen Forschungsdateninfrastruktur.

    • 15:30 16:30
      Das sprachliche Denkmal und seine neuen Kleider - Historische Sprache(n) neu gesehen. 1 h

      Sprachgeschichte und Editionsphilologie sind eng verwobene Bereiche, denn in den meisten Fällen erfolgt unser Sicht auf historische Texte nicht direkt über die Handschriften sondern über die gedruckten Editionen dieser Texte. In den neusprachlichen Philologien, wie Romanistik oder Germanistik, sind viele mittelalterliche Texte erstmalig im 19. Jahrhundert ediert worden, so z.B. auch das französische Rolandslied. Aus heutiger Sicht stellen wir die Frage, nach welchen Kriterien Editionen im 19. Jahrhundert gestaltet worden sind und wie neue digitale Formate die Überlieferung dieser sprachlichen Denkmäler historisch angemessen und perspektivisch nachhaltig sichern können.

      Sprecher: Dr. Johanne Peemöller (Christian-Albrechts-Universität zu Kiel)
    • 16:30 17:30
      PaLaFra – ein digitales Korpus zum Übergang vom Lateinischen zum Romanischen in Nordfrankreich 1 h
      Sprecher: Prof. Rembert Eufe (Universität Tübingen)
    • 17:30 18:30
      Metadaten in und zu digitalen Editionen 1 h

      Die standardisierte Beschreibung von Handschriften, Drucken und deren Digitalisate ist eine wesentliche Voraussetzung für deren wissenschaftliche Einordnung und Auffindbarkeit. In dem Vortrag wird die digitale Handschriften- und Druckbeschreibung als Erstellung von Metadaten in Editionen angesprochen und anhand der Überarbeitung von Katalogdaten und Datensätze aus dem Projekt Historische Sprache(n) neu gesehen erläutert.

      Sprecher: Selina Bernhardt (Christian-Albrechts-Universität zu Kiel), Dr. Philipp Hegel (Technische Universität Darmstadt)
    • 09:00 10:30
      OCR und Edition: Tools und Potenziale 1 h 30m

      Durch Optical Character Recognition (OCR) können im Editionsprozess automatisch erstellte Vorlagen entstehen, die die manuelle Transkription erheblich erleichtern. Gleichzeitig erfordert die Erstellung von Ground-Truth-Daten (GT) editorische Entscheidungen, die das Ergebnis beeinflussen. Im Vortrag wird ein Überblick gegeben über Tools für OCR und Nachkorrektur und Nachtraining bis zur Erstellung von GT für (semi-)automatische Texte, die im Ergebnis (nahezu) fehlerfrei sein müssen.

      Sprecher: Florian Langhanki (Julius-Maximilians-Universität Würzburg), Matthias Boenig (Berlin-Brandenburgische Akademie der Wissenschaften)
    • 10:30 12:00
      Von der Handschrift zur digitalen Edition. Einblicke in die Arbeit mit Transkribus am Beispiel der Exzerpthefte Winckelmanns 1 h 30m

      Im BMBF-geförderten Projekt Exzerpte. Zur digitalen Erschließung und Edition einer besonderen Text-Bild-Konstellation am Beispiel Johann Joachim Winckelmanns werden rund 5.000 Exzerptseiten des Autors, die für dessen Werk Gedancken über die Nachahmung der Griechischen Wercke in der Mahlerey und Bildhauer-Kunst bedeutsam sind, in eine digitale Edition überführt. Ausgangspunkt des Projekts bildet die Entwicklung einer digitalen Methodik zur Aufbereitung der Materialien, die das Auffinden von semantischen Querverbindungen zwischen Exzerpten, verwendeten Quellen und dem daraus entstandenen Werk ermöglicht. Ziel ist die Schaffung eines Portals, das als Repositorium der transkribierten Exzerptbestände, der Quellen und des annotierten Werkes fungiert und Möglichkeiten der inhaltlichen Recherche und hermeneutischen Auswertung der Dokumente anbietet.

      Im Fokus des Vortrags steht die konkrete praktische Arbeit mit den Exzerpten anhand des digitalen Werkzeugs Transkribus. Es sollen folgende, für die Edition der Exzerpte wesentlichen Erschließungsschritte nachgezeichnet und anhand der genutzten digitalen Tools dargestellt werden:

      • Aufbereitung der Bilddateien der Exzerptseiten
      • Erkennung und Bearbeitung von Textregionen und Zeilenbereichen (Layoutanalyse)
      • Erstellung und Optimierung von Texterkennungsmodellen (AI-Modeller)
      • Automatische Transkription der Handschriften (HTR-Engine)
      • Manuelle Revision der Transkripte
      • Bibliographische, formale und inhaltliche Annotation der Volltexte
      • Versionierung, Dokumenten-Management, Archivierung

      Abschließend sollen diverse Herausforderungen skizziert werden, die sich in Transkribus bei der Bearbeitung mehrsprachiger Korpora, wechselnder Schreibschriften, heterogener Schriftbilder bzw. Textausrichtungen und unterschiedlicher Qualitäten der Digitalisate ergeben.

      Sprecher: Marcel Frey-Endres (Technische Universität Darmstadt)
    • 14:00 15:30
      Digitale Modelle der Textkritik und Stemmatologie 1 h 30m

      Transkription und Textkritik können in der Editorik nach verschiedenen Prinzipien umgesetzt werden. Im Fall digitaler Editionen entspricht diesen unterschiedlichen Datenmodellen, mit denen textliche und textkritische Phänomene erfasst werden. Diese werden in dem Vortrag vorgestellt. Außerdem wird ein Ausblick auf Methoden der automatischen Kollationen und auf Verfahren der digitalen Stemmatologie gegeben.

      Sprecher: Dr. Philipp Hegel (Technische Universität Darmstadt)
    • 15:30 17:00
      Kollation und uneinheitliche Rechtschreibung 1 h 30m

      Das Capitularia-Projekt bietet eine neue kritische Edition zur Geschichte der fränkischen Herrschererlasse. Vorgestellt wird die Web-Oberfläche, die zur Kollationierung einzelner Gesetzestexte verwendet wird. Gezeigt wird, wie das Problem der uneinheitlichen Rechtschreibung gelöst wurde. Das Kollationstool ist für jeden zugänglich:

      https://capitularia.uni-koeln.de/tools/collation/

      Sprecher: Marcello Perathoner (Universität zu Köln)
    • 09:00 10:30
      Jean Pauls Briefe an der Schnittstelle zwischen Edition, Sammlung und Wörterbuch in Text+ 1 h 30m

      Digitale Editionen, Textsammlungen und lexikalische Ressourcen haben – bei aller Gemeinsamkeit in Methoden und Praktiken der Erschließung, Modellierung und Analyse – ihre je eigene Tradition in den (digitalen) Geisteswissenschaften. Ein Datensatz kann sich allerdings in verschiedenen Ressourcen medialisieren und so die Grenzen zwischen den Datendomänen (Task Areas) im NFDI-Konstortium Text+, das heißt zwischen Collections, Lexikalischen Ressourcen und Editionen, teilweise aufheben. Der Vortrag veranschaulicht die Zusammenhänge zwischen den drei Datendomänen anhand der digitalen Edition der Briefe Jean Pauls, deren Forschungsdaten in Task-Area-übergreifender Zusammenarbeit an der Berlin-Brandenburgischen Akademie der Wissenschaften in Text+ als Textsammlung und lexikalische Ressource integriert wurden.

      Sprecher: Frank Wiegand (Berlin-Brandenburgische Akademie der Wissenschaften), Marius Hug (BBAW)
    • 10:30 12:00
      Developing Indexes in the "Digital Edition of Fernando Pessoa" 1 h 30m

      The Digital Edition of Fernando Pessoa has developed over the last years complete indexes of the names, titles and periodicals mentioned throughout the works published in the website. This presentation will show the methods and criteria used by the team in this process, including our work in progress and the next steps, along with resources enabled by these indexes, such as the names’ network

      Sprecher: Inês Rebelo do Carmo (Universidade Nova de Lisboa)
    • 14:00 15:30
      Vom frühneuzeitlichen Druck zum Korpus. Qualitative und quantitative Methoden in der historischen Linguistik. 1 h 30m

      Der Vortrag behandelt die unterschiedlichen Herangehensweise an die Untersuchung frühneuzeitlicher Drucke durch die Kombination von philologischer Bearbeitung und quantitativer Annotation. In einer Zeit, in der der digitale Zugang zu historischen Dokumenten stetig zunimmt, stellt diese interdisziplinäre Methode einen vielversprechenden Ansatz dar, um tiefgreifende Einblicke in den frühneuzeitlichen Sprachgebrauch sowie in den Kontext der Entstehung zu erhalten.
      Die philologische Bearbeitung von frühneuzeitlichen Drucken zielt darauf ab, individuellen Sprachgebrauch zu erfassen und Einzelwerkanalysen durchzuführen. Durch die Analyse von Werken in ihrer originalen Form können Veränderungen im Laufe der Zeit identifiziert werden, die Einblicke in kulturelle, soziale und sprachliche Entwicklungen ermöglichen.
      Parallel dazu beinhaltet die quantifizierbare Annotation die Anwendung von technologischen Werkzeugen zur automatisierten Identifizierung und Markierung bestimmter Merkmale in den Texten. Hierdurch können wiederkehrende Muster, Wortverwendung, Satzstrukturen und andere linguistische Elemente erfasst werden. Diese quantitativen Daten bieten die Grundlage für statistische Analysen und ermöglichen somit allgemeine Schlussfolgerungen über den frühneuzeitlichen Sprachgebrauch.
      Zudem wird auf die Herausforderungen und Grenzen dieses Ansatzes eingegangen, wie beispielsweise Textvarianz, Genauigkeit der automatisierten Annotation und Interpretation der quantitativen Daten.
      Insgesamt trägt dieser interdisziplinäre Ansatz dazu bei, unser Verständnis von frühneuzeitlichen Drucken zu vertiefen, indem er traditionelle philologische Methoden mit modernen technologischen Werkzeugen verknüpft.

      Sprecher: Dr. Julia Hübner (Universität Hamburg)
    • 15:30 16:15
      Suchen, finden und gefunden werden - Impulse aus dem FID Romanistik 45m

      Der Fachinformationsdienst Romanistik (FID) versorgt Romanistinnen und Romanisten in ganz Deutschland mit Spezialliteratur und forschungsrelevanten Informationen und unterstützt zu den Themen Forschungsdaten und Open Access. Der Vortrag präsentiert Beispiele aus den Angeboten des FID, die WissenschaftlerInnen bei der fachspezifischen Recherche und bei der Sichtbarmachung eigener Forschung helfen können.

      Sprecher: Johannes von Vacano (Universität Bonn)
    • 16:15 17:00
      Verwendung von Normdaten in der Romanistik? Argumente und Herausforderung 45m

      Normdaten sind in den letzten Jahren zu einem wichtigen Aspekt verschiedener Datentypen wie Katalogdaten, Forschungsdaten, Editionen und Korpora geworden. Allerdings werden Normdaten oft von nationalen Einrichtungen gepflegt, die einen besonderen Fokus auf Entitäten (Autor*innen, Werke, Orte u.a.) legen, die zu dem Land gehören. Für die Romanistik als überregionales und internationales Fach stellen sich eine Reihe von Fragen: Ist die Verwendung von Normdaten für romanistische Ressourcen sinnvoll? Was wären akzeptable Lösungen? Was bringt diese zusätzliche Arbeit den Forschenden? Und was können Infrastrukturprojekte wie das TextGrid Repository damit gestalten?

      Sprecher: José Calvo Tello (SUB Göttingen)