Das CLARIN-Servicezentrum des Zentrums Sprache an der BBAW

Tagung: „Digitale Geschichtswissenschaft – neue Tools für neue Fragen?“



Markus Meumann, Olaf Simons:
„Die Binnendokumentation der Illuminaten
durchleuchten – Chancen und Schwierigkeiten einer Datenbank im
Geflecht der Interessen“

Die seit Anfang 2015 bestehende Gothaer Illuminaten-Enzyklopädie 
Online entwickelte sich (http://illuminaten-wiki.uni-erfurt.de/) aus
einer sehr übersichtlichen Problemlage heraus: Sie sollte Zugriff auf 
einen Textbestand von anvisierten 130 Dokumenten der 1780er Jahre
bieten, diese in die kommunikative Praxis des Illuminatenordens einbetten 
und helfen, sie diskursiv zu kontextualisieren. Unser Vortrag zeichnet
nach, wie die von uns verwendeten Softwarelösungen den
Problemhorizont veränderten und im weiteren Verlauf neue
Fragestellungen und damit auch neue Softwaredesiderate schufen.


Michael Piotrowski:
„Nachnutzbare digitale Korpora für die
historische Forschung – Potenziale, Probleme und Prozesse“

Aus der linguistischen Forschung sind Korpora nicht mehr wegzudenken.
Bereits ein kurzer Blick ins CLARIN Virtual Language Observatory etwa
zeigt das vielfältige Angebot an frei verfügbaren Korpora und anderen
Sprachressourcen, und ein Blick in aktuelle Publikationen
demonstriert, dass diese Ressourcen auch tatsächlich für eine
Vielzahl unterschiedlichster Fragestellungen genutzt werden. Auch in
der historischen Forschung wird hauptsächlich mit Textquellen
gearbeitet, aber nachnutzbare Korpora sind kaum verfügbar und
spielen keine große Rolle. Woran liegt das? Kann die Digitalisierung
das ändern? Ist eine stärkere Nutzung von Korpora in der
Geschichtswissenschaft überhaupt möglich und wünschenswert? Welche
methodischen Konsequenzen würden sich daraus ergeben?


Dino Mujadzevic:
Measuring Turkish influence in Bosnia? 
Corpus-driven history of media discourses on
Turkey in Bosnia and Herzegovina (2002-2014)

Die Frage des zeitgenössischen Aufstiegs des türkischen Einflusses in 
Bosnien und Herzegowina hat unter Politologen und andere Forscher 
ist ein umstrittenes Thema. Dieser Vortrag verwendet die Kritische
Diskursanalyse und die Kollokationsanalyse zur Untersuchung der
Hauptmerkmale der bosnischen Mediendiskurse über die Türkei
zwischen 2002 und 2014, um festzustellen, wie erfolgreich war der
türkische Versuch, bosnische Mediendiskurse während dieser Zeit zu
beeinflussen. Für diese Zwecke wurde das Korpus von rund 10 000
Artikeln, die sich mit der Türkei in bosnichen Medien aus einer
privaten Mediensammlung (Infobiro / Sarajevo) erstellt. Danach wurden
die Kollokationen des Konzeptes „Türkei“ mit Hilfe von AntConc
Software extrahiert und diskurs-kritisch analysiert.

Gregor Horstkemper:
Von der Massendigitalisierung zur Volltextverfügbarkeit:
Herausforderungen am Beispiel älterer Drucke

Die Durchführung von Massendigitalisierungsprojekten durch 
private und öffentliche Akteure hat in den letzten zehn Jahren 
zu einer enormen Menge an digitalen Reproduktionen älterer 
Drucke geführt, die keinen urheberrechtlichen Einschränkungen
unterliegen. An konkreten Beispielen wird aufgezeigt, welche 
Probleme sich bei der Aufbereitung dieser Digitalisate für die 
Auswertung mit Hilfe von Digital-Humanities-Methoden stellen.

Steffen Pappert:
„(Korpus-)linguistische Zugänge zur
DDR-Mediensprache“

Ausgangspunkt des Vortrages ist eine empirische Analyse von
DDR-Rundfunkinterviews aus den 1970er und 1980er Jahren. 
Die Untersuchung des begrenzten Gesprächskorpus berücksichtigt
sowohl DDR-typische Schlagwörter und häufig gebrauchte, erst in 
ihrem Kontext als ideologisch zu identifizierende Wortformen bzw.
Phrasen, als auch umfassendere Argumentationsmuster. Vor dem
Hintergrund der in der Studie erzielten Ergebnisse werden 
daraufhin Möglichkeiten und Grenzen korpuslinguistischer
Herangehensweisen ausgelotet und diskutiert. 

Gregor Wiedemann:
Text Mining zur Analyse großer Datenmengen in den Sozialwissenschaften:
Herausforderungen und Erfahrungen aus dem „ePol“-Projekt

Im Projekt „ePol – Postdemokratie und Neoliberalismus“ 
(www.epol-projekt.de) wurde zwischen 2012 und 2015 die 
Geeignetheit von Text Mining-Verfahren für politikwissenschaftliche
Fragestellungen auf sehr großen Datenmengen getestet. Die
Analysen basierten auf einem Korpus von 3,5 Millionen 
Zeitungsartikeln aus einem Zeitraum von mehr als 60 Jahren
bundesdeutscher Medienberichterstattung. Bearbeitet wurden Fragen
wie: Gibt es eine Zunahme von ökonomisierten Begründungsmustern von
Politik? Greifen politische Akteure vermehrt auf eine Rhetorik der
Alternativlosigkeit zurück? Der Vortrag geht auf Anforderungen für
die sozialwissenschaftliche Analyse großer Textmengen mit
computergestützten Verfahren ein und zeigt, wie durch die komplexe
Verkettung von Einzelverfahren qualitative und quantitative
Perspektiven miteinander verbunden werden können.

Peer Trilcke, Mathias Göbel, Dario Kampkaspar 
Digitale Netzwerkanalyse dramatischer Texte

Der Vortrag stellt das literaturwissenschaftliche Projekt dlina.
Digital Literary Network Analysis (https://dlina.github.io) vor,
in dem ein Workflow zur Extraktion, Analyse und Visualisierung
von Netzwerkdaten aus dramatischen Texten mit rudimentärer
TEI-Auszeichnung entwickelt wurde. Diskutiert werden dabei
neben grundlegenden Problemen der Korpusaufbereitung und
der automatisierten Analyse und Präsentation quantitativer
Daten auch allgemeine Fragen der Verbindung von qualitativer
und quantitativer Forschung in den Geisteswissenschaften. 

zum Programm...