Social Media-Monitoring Kernprozesse: 2. Datenerhebung

Bei der Datenaufbereitung ist es zunächst nötig, die aufgespürten und gesammelten Beiträge von irrelevanten Quellen und Dokumenten wie Spam oder Dubletten zu bereinigen. Dies kann zum einen manuell durch Redakteure, andererseits automatisiert durch entsprechende Softwaretools geschehen. Es ist ratsam eine weitestgehende Automatisierung dieses Vorgangs anzustreben, da eine manuelle Auswertung ein außerordentlich zeitaufwendiges Unterfangen sein kann. Die Anwendung von Filtern und Blacklists bei der Datenaufbereitung und die sorgfältige Auswahl der richtigen Schlagworte und Suchbegriffe bei der Datenerhebung tragen maßgeblich zum Erfolg bei. Daneben werden bei der Datenaufbereitung die Metadaten der Dokumente (z.B. Autorenname oder Erscheinungsdatum) extrahiert, gespeichert und mit Tags (deutsch: Schlagworte) versehen. Dadurch wird die anschließende Datenanalyse vereinfacht und beschleunigt. Die Archivierung sollte in einer komplexen, multidimensionalen Analyseumgebung stattfinden, damit die Analyse in jeglicher Breite und Tiefe (Drilldown) durchgeführt werden kann. Um Textmining anwenden zu können, ist darauf zu achten, dass alle Dokumente textbasiert abgespeichert werden.

Im dritten Teil geht es weiter mit der Datenanalyse.

Quellen und Inspiration:
Plum, A.: Ansätze, Methoden und Technologien des Web-Monitorings – ein systematischer Vergleich. In: Web-Monitoring – Gewinnung und Analyse von Daten über das Kommunikationsverhalten im Internet, Hrsg.: P. Brauckmann. 1. Aufl., Konstanz: UVK 2010. S. 23ff.