From Sketch to Poster – Making an Unwieldy Doctoral Thesis Appealing to a Non-expert Audience

poster_sketch
First sketch ©Jennifer Bunselmeier

The challenge: Find one aspect of your thesis that people other than your examiners would be interested in and put it on an A0 poster using less than 300 words.

Never having designed a poster before I was grateful to get some valuable tips from experienced poster designers answering very basic questions such as:

  • Which font sizes are readable at a distance of 2 meters?
  • What is the suggested word count (min and max!)?
  • Where do I get free images?

Once I got these things sorted out I could turn to the more difficult question: What to put on the poster?

The first task was by far the most comfortable: get a cup of tea, sit on the couch and think. My aim was to try come up with one-sentence-answers to a few simple questions:

  • What is my thesis about?
  • Why is my research important?
  • Which aspect of my thesis is most likely to interest non-experts?
  • Which aspect can be linked to an image?
  • What is the main message that people should take away from my poster?

I assumed that people are interested in something they can relate to. And one reaction I almost always get when I talk about my thesis is: “Wait, they had to write down an entire dictionary? Those poor students!” So I decided a poster about the school situation and the process of dictation is more likely to draw attention than a description of how rich and fascinating the dictionary’s microstructure is.

Having come up with the poster’s main message the next task was to develop an outline of the general layout that would transport that message. My leading questions were:

  • What is the narrative of my poster?
  • Which aspects have to be visible in the images? (e.g. a teacher talking, at least two students writing, screenshots of the manuscripts, and an image of me working on the digital edition)

Only then did I put these thoughts on paper (see resulting sketch above). To work out the layout details I went online to get inspiration from other people’s posters. I thought about which ones I liked best (why?) and which ones I didn’t like (why?) and let these reflections guide me.

The most exciting task was to turn my sketch into a presentable poster. Not being an expert on graphic design I decided to stick to simple tools and features. My aim was to allow a non-expert audience to quickly identify the important information, so I used as little text as possible, chose self explanatory images, and already summarised the main facts in the headings. The fun facts, copyright information and smaller details I included for those who would then stop to take a closer look. All these reflections led to the final result below.

Working on this poster was not only a lot of fun, it was also a great exercise in how to communicate my research.

bunselmeier_poster-a1-page-001
Finished poster ©Jennifer Bunselmeier
Advertisements

“Man könnte dann später…” – Ein How-To für Projektmanagement

image20160123_112425449
Christ Church, Oxford University – Keinerlei Verbindung zu Projektmanagement, einfach ein wunderschöner Anblick (Photo: Jennifer Bunselmeier)

“Man könnte dann später…” – ein Satz, der regelmäßig in Projekttreffen fällt und der in jedem Projektmanager, jeder Projektmanagerin die Alarmglocken schrillen lassen sollte. Ich bin im Bereich der digitalen Editionen zu Hause, in denen Geisteswissenschaftler und IT-Fachleute zusammen an einer digitalen Publikation arbeiten und hier ist dieser Satz oft ein Indikator für einen Mangel an realistischer Einschätzung der zur Verfügung stehenden Ressourcen im Angesicht unendlich scheinender digitaler Möglichkeiten.

Aus meiner Praxiserfahrung heraus habe ich einige Lösungsstrategien zusammengestellt, mit denen typischen Situationen mit hohem Konflikt- oder Frustrationspotential vorgebeugt werden kann.

“Wer wir sind und was wir machen”-Treffen abhalten

Damit die Kooperation von konventioneller und digitaler Arbeitswelt funktioniert, sind auf beiden Seiten realistische und ehrliche Einschätzungen zum Arbeitsaufwand wichtig. Das bedeutet für die digitale Seite, Verständnis dafür zu wecken, dass hinter jeder “per Knopfdruck”-Funktionalität zunächst der Einsatz von Arbeitskraft, Zeit und Know-how steckt. Die häufig impulsiv als Reaktion auf eine Extra-Feature-Anfrage gegebene Antwort “Gar kein Problem” ist ausgesprochen kontraproduktiv. Zwar ist es tatsächlich kein unlösbares “Problem”, z. B. eine Suchfunktion zu implementieren, aber die Antwort “Gar kein Problem” weckt falsche Machbarkeitsvorstellungen und wertet die digitale Arbeit ab.

Umgekehrt bedarf es auf Editorenseite mitunter einiger Überzeugungskraft, um zu vermitteln, dass es durchaus nicht verschroben ist, wenn im Kritischen Apparat auf einer Unterscheidung von “omisit” und “deest” beharrt wird, oder andere, möglicherweise antiquiert erscheinende “Kleinigkeiten” diskutiert werden, wenn diese der gängigen editorischen Praxis entsprechen und wenn Änderungen oder experimentelle Modernisierungen beim anvisierten Nutzer Irritationen hervorrufen würden.

Ein “Wer wir sind und was wir machen”-Treffen hat sich gerade bei neu anlaufenden Projekten als äußerst hilfreich herausgestellt, um den jeweils anderen Fachbereich besser verstehen und kennenzulernen.

Ziele frühzeitig und einvernehmlich festlegen

Viele Konflikte und zeitraubende einseitige Nacharbeiten können vermieden werden, wenn die Ziele eines Projektes gleich zu Beginn klar und vor allem realistisch festgesetzt werden. Das gilt insbesondere für geisteswissenschaftlich interdisziplinär angelegte Projekte, da Theologen, Linguisten oder Historiker in ein und demselben Projekt mitunter ganz unterschiedliche Schwerpunkte setzen möchten. Alle Seiten müssen von Anfang an mit den Zielvereinbarungen einverstanden sein und sich mit ihren Ideen und Ansprüchen repräsentiert fühlen, andernfalls wird der Konflikt lediglich verschleppt und führt zu Eigenbröteleien und im Ergebnis zu Uneinheitlichkeiten und Unstimmigkeiten innerhalb der Dokumente.

“fertig”-Stadium definieren

Bei einer Printedition ist es einfach – “fertig” ist, was der Verlag zur Druckerei gibt. Im digitalen Raum ist das anders. Jede Veröffentlichung kann jederzeit geändert, aktualisiert oder gänzlich gelöscht werden. Das hat zur Konsequenz, dass jedes Projekt dezidiert ein eigenes “fertig”-Stadium für seine Dokumente definieren muss. Grundsätzlich zu klärende Fragen sind z. B.: Wann müssen Dokumente spätestens veröffentlicht sein (Stichwort Gutachter)? Soll es work in progress Veröffentlichungen geben (Stichwort Visibility)? Welche inhaltlichen und technischen Mindeststandards muss ein Dokument erfüllen, bevor es veröffentlicht wird? Wer führt nach Ablauf der Projektlaufzeit Änderungen durch und welche Änderungen sind dann noch erlaubt? Welche Funktionalitäten müssen wann umgesetzt sein?

Funktionalitäten beschränken auf wenige gute, nicht viele schlechte

Wenn angedachte Features nicht gründlich auf ihren Kosten-Nutzen-Faktor hin überprüft werden, kann es passieren, dass bei Projektende unfertige Funktionalitäten Fehlermeldungen produzieren, oder dass im Extremfall überhaupt keine Publikation zustande kommt, weil Kernfunktionalitäten nicht umgesetzt sind. Wenige solide umgesetzte Funktionen sind besser als viele nicht umgesetzte extravagante Gimmicks.

Arbeitsweise der Mitarbeiter beachten

Manche Mitarbeiter arbeiten lieber wie mit einer Reihe von immer feinmaschiger werdenden Sieben und erstellen erst eine vollständige Transkription, ohne irgendetwas nachzuschlagen, dann folgt ein Arbeitsschritt Worterläuterungen, dann der komplette Sachapparat, dann Personentagging usw. Andere wiederum arbeiten sich lieber von einer Textstelle zur nächsten vor und gehen erst weiter, wenn die Tiefenerschließung abgeschlossen ist. Auf diese unterschiedlichen Arbeitsweisen muss bei der Festlegung von Milestones und ToDo-Listen Rücksicht genommen werden, da diese sonst eher frustrieren als helfen.

Bereitschaft der Mitarbeiter zur Arbeit mit digitalen Werkzeugen prüfen

Eine für mich als “digital native” überraschende Erkenntnis war, dass nicht jeder, der an einem digitalen Projekt arbeitet, auch per definitionem von den neuen digitalen Methoden begeistert oder von ihrer Sinnhaftigkeit überzeugt ist. Aber warum arbeitet jemand, der selber nie oder nur in geringem Maße digitale Ressourcen nutzt und im Zweifelsfall immer zunächst zum altbekannten, vertrauten Buch greift, in einem digitalen Projekt? Der Grund ist so einfach wie ernüchternd: das Geld. Ohne irgendeinen digitalen Anteil ist es schlicht schwer, Fördermittel zu bekommen. In dem Fall ist vor allem viel Überzeugungsarbeit gefragt und auf extravagante, experimentelle neue Tools sollte besser verzichtet werden.

Überzeugungsarbeit leisten und Vorteile des Digitalen hervorheben, ohne dabei die Printedition abzuwerten

Von digitaler Seite werden die Printedition mitunter als veraltet und ihre Anhänger als Fossilien betrachtet. Wird diese Einstellung so auch nach Außen getragen, erzeugt das bei Editoren naturgemäß eher Widerstand als Bereitschaft, sich auf das Neue einzulassen. Man kann die Vorteile einer digitalen Edition auch hervorheben, ohne dabei die Printedition abzuwerten.

Arbeitsmittel und Ausgabe am Grad der digitalen Kompetenz ausrichten

Die Wahl der Arbeitsmittel (Oxygen oder Word?) und der Ausgabe(-formate) (interaktive Website oder schlichter HTML-Text?) hängt stark davon ab, wie hoch der Grad an digitaler Kompetenz bei den Mitarbeitern ist.

Gerade der Wechsel vom Arbeiten in Word zum Arbeiten mit XML verlangt von Editoren ein grundsätzliches strukturelles Umdenken, da nicht nur die Oberfläche, sondern auch die Herangehensweise eine völlig andere ist. In Word wird das Layout der Ausgabe gestaltet, in XML hingegen die Struktur festgehalten, die erst in einem zweiten Schritt in eine Ausgabe übersetzt wird. Etwas abstrakt zu kodieren, ohne sofort die gewohnte Ausgabe vor sich zu sehen, ist für viele Editoren ungewohnt und unangenehm.

Ich finde es nicht verwerflich, wenn in einem digitalen Projekt nicht in XML, sondern mit Word gearbeitet wird, besonders, wenn noch wenig digitale Kompetenz oder großer Zeitdruck (und somit wenig Zeit zum Einarbeiten) vorhanden sind. Es ist besser, von Word-Erfahrenen viele einheitlich durch Formatvorlagen gegliederte Worddokumente zu bekommen, die in einem zweiten Schritt in saubere, einheitliche XML-Dokumente umgewandelt werden, als in nur einem Schritt von XML-Neulingen viele uneinheitliche, fehlerhafte XML-Dokumente geliefert zu bekommen, die dann erst arbeits- und zeitintensiv bereinigt werden müssen.

Erlaubt sollte sein, was ein gutes Ergebnis liefert.

Notwendigkeit und Umsetzbarkeit von Schulungen prüfen

Sind Schulungen (in Word, Oxygen, XML, html) nötig? Sind sie zeitlich und finanziell machbar? Wie wahrscheinlich ist es, dass zwischendrin neue Mitarbeiter und Hilfskräfte geschult und eingearbeitet werden müssen?

Gerechte und realistische Schnittstelle zwischen Editoren und IT finden

Bei digital erfahrenen Mitarbeitern, die einen Großteil der Kodierungsarbeit selber übernehmen (korrekte Kodierung, Metadaten, Validierung), kann der Arbeitsanteil der digitalen Seite geringer ausfallen, bzw. es bleibt mehr Raum für das Erproben innovativer Methoden. Liegt der umgekehrte Fall vor, muss für die digitale Nacharbeit (Worddokument in XML-Dokument wandeln, unsaubere XML-Dokumente bereinigen, Validierung und Nachkodierung übernehmen etc.) mehr Zeit und Arbeitskraft eingerechnet werden (Stichwort halbe Stelle / ganze Stelle?)

Projektmanagement als eigenständigen Aufgabenbereich einplanen

Das Projektmanagement sollte von vornherein ein zentraler und eigenständiger Aufgabenbereich sein und nicht “nebenbei” betrieben werden. Ein gut organisiertes Projektmanagement kostet Zeit (und somit Geld), rechnet sich aber, denn es erspart den Projektmitarbeitern zeitraubende Eigenorganisation und enorm viel Sucharbeit und lässt ihnen so mehr Zeit für inhaltliche Arbeit. Ein gutes Projektmanagement muss die Frage: “Wo findet sich der aktuelle Stand der Projektdaten” schnell, eindeutig und ohne lange Erklärungen beantworten können (Stichworte Dokumentation und Masterdateien).

Verantwortlichkeiten und Ansprechpartner ausweisen

Es sollte immer für jeden ersichtlich sein, wer an welchen Dokumenten und Listen arbeitet und wer Ansprechpartner bzw. Verantwortlicher ist.

Infrastruktur festlegen

Für das Projektmanagement hat sich das Dariah Wiki bewährt, als Datenspeicher trotz aller Vorbehalte Dropbox, da die meisten Mitarbeiter mit dem System vertraut sind.

Praktikable Workflows festlegen

Eine große Gefahr bei Projekten mit mehreren Mitarbeitern und mehreren Dokumenten ist die, dass gleichzeitig an unterschiedlichen Dokumentversionen gearbeitet wird. Ein klarer Workflow beinhaltet daher idealerweise 1. die Reihenfolge, in der Mitarbeiter auf Dokumente zugreifen (Editor (Transkription) > Korrektor (Kommentar) > Editor (Nachbearbeitung) > IT (digit. Aufbereitung) >…) und “sperrt” die Dokumente für die jeweils anderen Gruppen, 2. die klare Festlegung, wo welches Dokument liegt (Ordnerstruktur, Masterdateien).

Masterdateien pflegen

Für jede Editionseinheit wird eine Masterdatei geführt, die per Definition als “aktueller Stand” gilt. Lokale Kopien, selbst wenn sie einen neueren Stand darstellen, sind zwar ein legitimes und praxisnahes Arbeitsmittel, gelten aber aus Projektsicht als non existent. Versionen mit typischen Endungen wie “_alt”, “_test”, “_(2)” oder “_kopie” haben im Masterordner nichts zu suchen.

Editorische Praxis schriftlich fixieren

Editionsrichtlinien, Terminologie im Kritischen Apparat etc. sollten frühzeitig verbindlich festgelegt und an prominenter, leicht zugänglicher Stelle schriftlich fixiert werden, um Wildwuchs zu vermeiden. Falls Editoren mit Ausdrucken dieser Richtlinien arbeiten, muss sichergestellt werden, dass sich die Regeln nicht permanent ändern.

Übersichtslisten führen

Bei einer großen Zahl von Editionsdateien ist eine Übersichtsliste (Nummer, Titel, Bearbeiter, Referenz-ID,…) sinnvoll, z. B. um ein einheitliches projektinternes Zitieren zu ermöglichen. Auch Kurztitel für zitierte Literatur oder Namensansetzungen entwickeln ohne Konvention schnell ein Eigenleben.

ToDo-Listen führen und pflegen

Achtung: bei öffentlich geführten ToDo-Listen droht Gefahr einer Überwachung der Mitarbeiter. Priorisierte Listen mit Dringlichkeitsstufen hoch, mittel und niedrig sowie einer Kommentarspalte für Anmerkungen oder Rückfragen haben sich bewährt.

Praktikable, kleinschrittige Milestones festsetzen und abhaken

Es bietet sich an, Milestones pro Dokument anzusetzen, z. B. “Transkription vollständig”, “Sachkommentar bereit zur Veröffentlichung”, “Korrekturdurchgang duch xy erfolgt”, “Korrekturen eingearbeitet”, “Rechtschreibung geprüft”, “an IT-Stelle weitergegeben”, “validiert gegen Schema xy”,…

Deadlines festlegen und einhalten

Eine gut geführte Übersicht über Deadlines ist nutzlos, wenn es niemanden gibt, der dafür sorgt – sorgen kann –, dass sie auch eingehalten werden. Eine gut gepflegte Milestones-Liste kann ein mögliches Instrument sein, um Mitarbeiter auch bei hierarchischem Schiefstand auf eventuelle Defizite hinzuweisen.

Externe Rahmenbedingungen (Projektmittel und Projektlaufzeit) im Auge behalten

Wenn nicht sichergestellt werden kann, dass die Umsetzung einer neuen Idee innerhalb der gegebenen Zeit und mit den vorhandenen finanziellen und personellen Mitteln umsetzbar ist, muss sie leider ein Desiderat bleiben. Je weiter fortgeschritten das Projekt ist, desto sorgfältiger müssen radikale Umwälzungen (z. B. Umkodierungen) durchdacht werden.

Dokumentation pflegen

Für alle Entscheidungen, Kodierungsrichtlinien, Infrastruktur etc. gilt: Was nicht schriftlich am dafür vorgesehenen Ort (Ordner für Protokolle, Kodierungsrichtlinien im Wiki,…) festgehalten wird, existiert nicht. Diskussionen per Mail haben die Tendenz, ergebnislos zu bleiben oder, wenn es eine Entscheidung gibt, verliert sie sich im Emailpostfach. Um diese Ergebnisse zu bewahren, müssen sie in die Dokumentation übertragen werden.

Backup und Versionskontrolle der Projektdaten sicherstellen

Wenn dem Backup-System nicht vertraut wird, beispielsweise weil im Ernstfall Daten erst nach Wochen wieder hergestellt werden, oder weil unbemerkt und ungewollt Überschreibungen passieren können, gibt es schnell eine große Anzahl an privaten Backups und ein begründetes Misstrauen gegenüber dem Masterdateien-System.

Generelle Gefahrenstellen

  • von Beginn an Uneinigkeit über Projektziele
  • fehlendes Wissen über (und daraus resultierend Verständnis für) die Arbeit der anderen
  • fehlende Projektleitung (keine Kontrolle über die Durchsetzung der Ziele und Einhaltung von Festlegungen)
  • mangelhaftes Projektmanagement (keinen Überblick über Deadlines, Aufgaben, Workflows)
  • fehlende Dokumentation (Aufgaben, Ziele, Workflows, Editionsrichtlinien, Zitierweisen,…)
  • fehlende Protokolle über Entscheidungen (in der Gruppe oder auch zwischen Einzelpersonen)
  • fehlende konsequente und praktikable Workflows
  • ungeklärte (oder nicht vertrauenswürdige) Versionierungs- und Backupworkflows
  • Versionswirrwarr (persönliche Kopien, Korrekturversionen, Testversionen)
  • unüberlegte Hauruckaktionen weil eine schnelle Lösung gewünscht wird

Und noch ein praktischer Tipp zum Schluss: wenn auf den eingangs angeführten Satz “Man könnte dann später…” reagiert wird mit: “Wer ist man und wann ist später?”, erledigen sich viele Dinge plötzlich ganz von selbst.

The Dangerous Digital Methods. A Conference Report.

leipzig
“Neues Rathaus” in Leipzig on a beautiful conference day.

As I had hoped the conference on words in Leipzig considered this fascinating object of study in all possible lights and from many different points of view. It facilitated debates on principles as well as provided practical suggestions that I will now be able to consider for my own project.

To me what was most noticeable was that even with the very diverse presentations and audience one major concern seemed to stand out, irrespective of specific fields of study, projects, diachronic or synchronic approaches. It was the general awareness that the new digital methods have a tendency to lead scholars and users to believe that digital projects could be forever up to date, that there is always more useful information to be added, a new layer to be put on, a new exciting web service to be hyperlinked, or another innovative display method to be used which will make access to the data easier. All of this is of course valid and true. However, consent was reached that constantly reworking a project to try and keep it up to date is both a dangerous and a futile attempt. Dangerous because as tempting as it is, a project’s resources don’t usually allow for unlimited fundamental changes, and constantly starting all over again carries the risk of never getting finished. And futile because even the most innovative project will sooner or later become outdated, if its content and methods are not constantly kept up to date, but projects are not usually laid out and equipped for this kind of long term maintenance.

Today, working digitally no longer requires justification. However, a wise, pragmatic, and sensible use of resources and digital methods is essential, and the lively discussions provided many good arguments for how, and when, and why to prioritise one aspect over the other.

Luckily, the presentations did not only raise problems and pose questions, they also provided answers. For example, Frank Michaelis and Dominik Brückner made some very interesting, field-tested suggestions for the implementation and user-friendly presentation of long lists of references in online dictionaries, and how to generally improve the layout and accessibility of dictionary entries by means of pop-ups, mouse-over functions, graphs, and visual aids.

This, however, raised another question that lexicographers in particular face: who is the target user? Is it a non-professional user or a fellow lexicography scholar? The answer to this question sets the boundaries regarding the extent to which new and possibly unusual digital aids should be used. Because the more the presentation differs from the usual layout and functions of a (printed) dictionary, the less intuitive the service is to use. Visual aids in particular carry an extended risk of being misinterpreted by the user. It was argued that with a reliable web service this is what the preface is for, and that all important information on the corpus and the methods can be found there. But do users without an in-depth lexicographic interest actually read the preface for every web service they use?

In addition to these debates and questions on principles the conference also provided some very helpful, concrete and relevant suggestions for my own project. For example, Lisa Dücker and Renata Szczepaniak advocated the theory that spontaneous scripturality and variation are correlated. But what exactly counts as spontaneous? Were the records of witch trials, that make up their corpus, spontaneous scripturality? Quoted arguments were the level of editing, formalisation, and planning, and evidence of pressure of time. How does this relate to a dictated dictionary? A question I will surely address in my thesis.

They also provided a very useful method to decide between compound and separate spelling of German words. The simple solution taken, I think, from Paul Sänger: in cases of doubt compound spelling is assumed if the letters touch. This seems like a good, objective, easily applicable criterion. On second glance, though, it turns out there are some letters which just cannot usually be written together, such as z and p. Nevertheless, I will take this method into consideration, and assess its uses for my edition.

And on a final note, as it tends to be, the conversations between presentations proved to be a most valuable source for exciting insights and a refreshing exchange of ideas. It also proved that asking simple questions can save a lot of time consuming research: A few days before the conference I came across the polysemous entry canis in Engelhus’ dictionary, with the polysemy being expressed in a mnemonic: “latrat in ede canis nat in equore fulget in astris” (the dog barks in the house, swims in the sea, sparkles in the stars). The first dog, of course, is the pet and the third is the constellation, but what about the second? A Hund (dog) that swims in the See (sea), could that be a Seehund (seal)? Knowing that both medieval descriptions of animals and literal translations can be tricky, I was wary. Could it really be that simple? After an inspiring talk with Robert Damme, the expert on Engelhus’ dictionary, I now know that yes, sometimes it can be that simple.

Conference: Wörter. Wortbildung, Lexikologie und Lexikographie, Etymologie. (22.-24.09.2016)

Conference on Words

screenshot-from-2016-09-12-143437

Wörter. Words. The things dictionary articles aim to explain. Indubitably a fitting title for a conference on lexicography, lexicology, etymology and word formation.

The conference with this meaningful, mysterious title will take place next week from the 22nd to the 24th of September in Leipzig.

The programme promises a wide range of presentations on topics close to my field of research as well as some very interesting questions circling in the periphery, both of which I am sure will broaden my perspective on the words in Engelhus’ dictionary.

Analysing an existing, more than 500 year old dictionary I am particularly looking forward to learning what questions, problems and solutions lexicographers come up with with nowadays, and how they compare to the ones Engelhus faced back then.

For more information on this exciting conference see the official website: Wörter. Wortbildung, Lexikologie und Lexikographie, Etymologie.

Vocabularius Theutonicus online

hage

Exciting news: a great, easy to use Middle Low German online dictionary is now available online – The Vocabularius Theutonicus online.

This online dictionary is based on an influential Middle Low German/Latin school dictionary from the late 14th century presumably composed by Johannes Egbert from Einbeck (Germany) known as the “Vocabularius Theutonicus”. The approx. 5,000 entries cover lemmata from the Middle Low German core vocabulary, and offer Latin equivalents and in most cases additional Middle Low German explanations, such as synonyms, paraphrases, or examples.

The convenient search function allows for both Latin and Middle Low German search queries, and the service is designed for access on mobile devices as well. A great complement to the long-established and much-valued Schiller-Lübben.

Project management: Dr. Robert Damme (Kommission für Mundart- und Namenforschung Westfalens, Münster)

Carnivorous Donkeys and “Binsenweisheiten”. A Conference Report.

The presentations and subsequent discussions at the 129th conference of the Verein für niederdeutsche Sprache (VndS) in Stendal presented a colourful and inspiring mix of perspectives on new methods in Low German studies.

kundert
Opening presentation: Ursula Kundert on “Poetik und Semantik des Layouts. Am Beispiel niederdeutscher Psalmen des 15. Jahrhundert”

The main topics in the presentations were corpora and tools, exemplified by a wide variety of projects which covered subjects ranging from history over theology to linguistics and palaeography (see the programme). Exciting and constantly growing Low German corpora and data bases were introduced, such as the “Referenzkorpus Mittelniederdeutsch/Niederrheinisch 1200-1650” (ReN), or the “Corpus of Historical Low German” (CHLG), as well as intriguing new digital methods for analysing, editing and using these accumulated amounts of data, such as the REDE SprachGis project, which provides a tool to generate individual maps based on either existing data bases or a project’s own data.

schulz
Matthias Schulz on regiolects and Binsenweisheiten: “Stadtsprachgeschichte(n) im Ostseeraum. Eine annotierte digitale Plattform für die Untersuchung der Stadtsprachgeschichte Greifswalds”

It was fascinating to see the many different ways in which new digital methods and features are used, and that, ultimately, all pursue the same goal: to facilitate research work.

Accordingly, the discussions revolved around the importance of balancing the efforts and the benefits when using these methods, so as not to loose oneself in the great but endless possibilities that the digital world offers. Indisputably, diverging disciplines approach corpora with different research questions, and the consensus was reached that the main consideration should always be: it is possible, but is it expedient?

Embedded in this context my presentation illustrated not only how the XML encoding supports me in answering my research questions regarding the dictation theory and provides me with evidence and statistics for lexicographical and philological analyses, but also, how digital methods facilitate an interdisciplinary dialogue via social media, and by generating XML-based interfaces between projects. This is, of course, of particular importance for smaller, highly specialised subjects such as Middle Low German lexicography.

jennifer vortrag
Jennifer Bunselmeier on Engelhus: “Neue digitale Methoden zur mittelniederdeutschen Lexikographie. Das Beispiel des Engelhus-Vokabulars”

Not the least important aspect of the annual “Pfingsttagung” is to explore a town historically linked to Low German. Stendal proved an inspired choice – an intact brick Gothic town, the most important of the Hanseatic places in the Altmark. We were welcomed warmly with tours of the city archive, the museum with important historic holdings and guided through the impressive Church of St Mary the Virgin. The public lecture on the literature of the Altmark by Volker Honemann invited our local hosts into the scholarly discussion and presented e.g. the print output of the Westphal print workshop from 15th century Stendal.

The conference venue was the medieval town hall with the largest wooden screen of the Renaissance in a secular building, featuring biblical subjects on good governance as well as fun animals from frog to a #notalion and something that, to me, looks like a donkey devouring a lizard.

NB: For more fun, medieval depictions of animals, including a sow wheelbarrowing her piglets, read Hanne Griessmann’s post on drolleries: “Von Phantasiewesen, pummeligen Schosshunden und einer fidelen Wildsau“.

The conference proved that Low German studies are a lively subject which is attractive to both distinguished experts and junior researchers and which is open to new ideas and methods and continues to reassess and redefine itself – and that the digital exchange is made more lively by the personal exchange. You can follow some of the discussions under the Hashtag #VndS2016.

Photos courtesy of Henrike Lähnemann and Jennifer Bunselmeier.

Low German Studies in the Digital Age – Conference

129. Jahrestagung des Vereins für niederdeutsche Sprachforschung
“Neue Methoden zur Erforschung des Niederdeutschen”
16. bis 19. Mai 2016 in Stendal
Programme

Exciting news: Next week I will present the Engelhus Vokabular at the 129. annual conference of the “Verein für Niederdeutsche Sprachforschung“ (VndS) in Stendal, Germany. The topic of this year’s conference is the exploration of new digital methods in Low German studies (“Neue Methoden zur Erforschung des Niederdeutschen“).

Major experts and authorities of Low German studies like Prof. Ingrid Schröder, Dr Robert Damme and Dr Friedel Roolfs will meet in the Hanseatic town and discuss the future of the subject in the digital age.

A great opportunity to illustrate how XML encoding helps me to answer my research questions, and to draw inspiration from other scholar’s works and discover exciting new research methods.

I’m looking forward to what I’m sure will be a very fruitful and inspiring conference.