Edition ist mehr als die korrekte Anwendung von Regeln in Transkription, Textkritik und Kommentierung. Der Beitrag nimmt seinen Ausgangspunkt in einer Skizze, wie sich (digitales) Edieren schon immer zwischen Standards, regelgeleiteter Verallgemeinerung, Forschungsfragen, editorischen Problemene und editorischer Praxis positieren mußte. Durch die Entwicklungen maschinellen Lernens gerät digitales Edieren nun in ein Stadium, in dem das Erreichte der Standardisierung (TEI, IIIF, LOD), mit der Invididualität der editorischen Praxis neu verschränken wird.
Aufbauend auf der Beobachtung, daß generische Modelle zwar einen großen Ausschnitt editorischer Aufgaben erfüllen können, sie die Spezialisten bestimmter Hände, inhaltlicher Zusammenhänge oder literarischer Bezüge aber nicht ersetzen können, stellt sich die Frage, ob sich eher eine Arbeitsteilung zwischen dem "Normalen" und dem "Speziellen" ergibt oder eher neue Formen des Umgangs mit Unzuverlässigkeit erlernt werden müssen. Müssen wir uns künstliche Editionen (Stutzmann) gewöhnen und sie von digitalen kritischen Editionen zu unterscheiden lernen? Können wir die Lösungen unserer individuellen editorischen Problemstellungen von Maschinen erlernen lassen? Überlappt sich der etablierte Freiraum editorischer Praxis im Einzelfall mit den statistischen Unschärfe, die maschinell gelernten Modelle haben? Der Beitrag wird versuchen, ein Bild zu entwerfen, wie in absehbarer Zeit, auf Maschinenlernen aufbauende Werkzeuge und Editor:innen mit einander interagieren können.