Volume 23, No. 3, Art. 9 – September 2022
Interaktionsspuren im digitalen Raum: Zum Spannungsfeld von Öffentlichkeit und Anonymität in qualitativen Forschungsprozessen
Susann Bischof, Franziska Lengerer & Frank Meyer
Zusammenfassung: Die zunehmende Nutzung des Web 2.0 in verschiedenen Phasen des Forschungsprozesses führt dazu, dass qualitativ Forschende und Beforschte, teils unreflektiert, online Datenspuren ihrer Interaktionen erzeugen. Bisher wurde nur vereinzelt thematisiert, was das für veränderte Anonymitätsverhältnisse bedeutet. Mit unserem Artikel wollen wir zu der Debatte um Forschungsethik, Datenschutz und -management beitragen. Anhand eines fiktiven Fallbeispiels identifizieren wir drei Typen von Interaktionsspuren im digitalen Raum: Rekrutierungsspuren, Öffentlichkeitsarbeitsspuren und Teilnahmespuren. Diese Spuren können zur Deanonymisierung der Teilnehmenden entgegen deren Willen führen. Basierend auf einem systematischen Literaturreview zu Anonymität und Nutzung des Web 2.0 in der qualitativen Forschung schlagen wir forschungspraktische Umgangsweisen mit den identifizierten Interaktionsspuren im digitalen Raum vor und fassen diese in einer Checkliste zur Reflexion und Dokumentation eigener Tätigkeiten in den sozialen Medien zusammen. Wir wollen qualitativ Forschende für oft beiläufig online produzierte Daten sensibilisieren und zum Austausch über die vielfältigen Entscheidungen, die Forschende und Beforschte bei der Kommunikation und Selbstdarstellung im Web 2.0 treffen, anregen.
Keywords: Anonymisierung; Rekrutierung; Datenschutz; Datenmanagement; Internet; soziale Medien; qualitative Forschung; Ethik
Inhaltsverzeichnis
1. Digitalität qualitativer Forschung
2. Drei Arten von Interaktionsspuren im digitalen Raum
3. Literaturreview zum Problem der Deanonymisierung bei der Nutzung von sozialen Medien im qualitativen Forschungsprozess
3.1 Vorgehensweise beim Literaturreview
3.2 Zur Relevanz des Themas Anonymität im Kontext der Nutzung des Web 2.0
3.3 Das Web 2.0 als Mittel der Datenerhebung
3.4 Das Web 2.0 als Mittel der Rekrutierung
3.5 Das Web 2.0 als Mittel des Wissenstransfers
4. Strategien des Umgangs mit Deanonymisierungsgefahren
4.1 Datensensibel konzipieren
4.2 Plattformen, Werkzeuge und digitale Orte kennen
4.3 Technische Zugangsmöglichkeiten für Dritte beschränken
4.4 Rekrutierungsspuren dokumentieren, löschen und bei Anonymisierung berücksichtigen
4.5 Öffentlichkeitsarbeit datenschutzsensibel gestalten und Erfahrungen teilen
4.6 Teilnahmespuren finden und Teilnehmende sensibilisieren
5. Fazit
Anhang: Checkliste zum Umgang mit digitalen Interaktionsspuren (s. Abschnitt 4)
Zu den Autorinnen und zum Autor
1. Digitalität qualitativer Forschung
Aufgrund der Entwicklung des Web 2.0 gibt es heute wenig Forschung, bei der nicht in der ein oder anderen Weise vom Internet Gebrauch gemacht wird (BUCHANAN & ZIMMER 2021). Durch die COVID-19-Pandemie tritt dies besonders hervor, denn qualitativ Sozialforschende debattieren aktuell verstärkt, unter welchen Bedingungen Empirie steht, die nicht in physischer Kopräsenz stattfindet (DIAZ-BONE 2021; FALTER et al. 2022; REICHERTZ 2020; SCHMIDT-LUX & WOHLRAB-SAHR 2020). Doch selbst für Face-to-Face-Forschende liegt die Interaktion im Web 2.0 zunehmend nahe, denn inzwischen sind bspw. Online-Kommunikationsdienste wie WhatsApp in Deutschland so weit verbreitet, dass selbst 75 Prozent der 64- bis 75-Jährigen angeben, sie regelmäßig zu nutzen (BUNDESNETZAGENTUR 2022, S.12). Mit Blick auf diese Zahlen ist davon auszugehen, dass die digitale Kommunikation mit Forschungsteilnehmenden, der allgemeinen Öffentlichkeit und Peers noch mehr zum festen Bestandteil des Forschungsalltags wird. Dies führt jedoch zu neuen Herausforderungen. Denn damit sind auch alle Wissenschaftler:innen, die mit Interviews, Gruppendiskussionen, Beobachtungen oder Papierumfragen arbeiten, mit den ethischen und datenschutzrechtlichen Fragen und den daraus resultierenden Handlungsfolgen konfrontiert, die durch die sogenannte Internetforschung aufgeworfen werden (BUCHANAN & ZIMMER 2021; EYNON, FRY & SCHROEDER 2017; MATZNER & OCHS 2017; TIIDENBERG 2020; ZIMMER & KINDER-KURLANDA 2017). [1]
Im diesem Artikel thematisieren wir Facetten des Digitalen in der qualitativen Forschung, die nicht mit der Auswertung von im Internet erhobenen Daten zusammenhängen, sondern mit dessen Nutzung zur Verbreitung von Informationen. Zwar wissen wir empirisch wenig über die Verwendung des Internets in aktuellen Forschungsprozessen, allerdings gibt es Hinweise darauf, dass die Rekrutierung von Teilnehmenden die am weitesten verbreitete Nutzungsform von sozialen Medien unter Sozialforschenden ist (HAGEN et al. 2019, S.13). In diesem Zusammenhang entstehen vielerlei Daten, die letztlich Deanonymisierungsgefahren darstellen. Dabei ist das bloße Anfallen von Daten nicht das Problem: Daten bilden "eine Grundlage, ein Werkzeug und ein Produkt des Forschungsprozesses" (BAYER, BREUER, LÖSCH & GOEBEL 2021, S.4).1) Als Basis empirisch fundierter wissenschaftlicher Aussagen werden Daten oft verstanden als "eine Ressource, die erhoben, erfasst, bearbeitet, gespeichert, archiviert und geteilt werden kann" (S.4-5). Entsprechend fragten auch die Autor:innen einer Datenmanagementhandreichung: "Welche Daten erheben oder verwenden Sie?" (RATSWD 2018, S.12) Im Fokus dieses Artikels stehen jedoch nicht nur Daten, die im Forschungsprozess originär entstehen. Auf Daten, die nicht zur inhaltlichen Analyse erhoben, sondern beiläufig bei der Forschungstätigkeit hinterlassen werden, lenken wir im Folgenden die Aufmerksamkeit. [2]
Für diese Daten schlagen wir die Bezeichnung Interaktionsspuren im digitalen Raum vor. Mit unserer Arbeitsdefinition zielen wir auf Daten, die im Zuge der Nutzung des Internets anfallen, um für die Teilnahme an einem Forschungsprojekt zu werben oder über die Teilnahme an einem Projekt und dessen Entwicklung zu informieren. Die bei diesen Aktivitäten erzeugten Daten können unter Umständen wie Spuren zurückverfolgt werden und damit nichtintendierte Rückschlüsse z.B. auf die Identität von Befragten ermöglichen. Ihr Entstehungskontext weist über Forschung als reine Analysetätigkeit hinaus auf Forschung als Interaktionsprozess (DEPPERMANN 2013; LINDNER 1981), der zwischen Forschenden, Beforschten und Öffentlichkeit – vermehrt digital – stattfindet. Wie Forschende in dem triadischen Verhältnis von anonymen, anonymisierenden und identifizierenden Positionen verortet werden können, in dem Anonymität produziert oder aufgelöst wird (BACHMANN, McHARDY, KNECHT & ZURASWKI 2021, S.26),2) und wie sich dieses Verhältnis aktuell verändert, ist Kern dieses Beitrags. [3]
Datenschutzsensibles Forschen ist eingebettet in die größeren Zusammenhänge der aktuellen wissenschaftlichen Nachhaltigkeits- und Transparenzdiskussionen im Kontext von Open Access, der Europäischen Datenschutzgrundverordnung und der Förderung der Sekundärnutzung qualitativer Daten. Wir ergänzen insoweit mit diesem Artikel aktuelle Diskussionen um Datenschutz und -management und um die Ethik qualitativer Forschung, die im deutschsprachigen Kontext spätestens mit dem Aufruf von ROTH (2004) stetig an Bedeutung gewonnen haben (s. auch ROTH & UNGER 2018). Bisher beziehen sich allgemeine Reflexionen zu Anonymität unserer Beobachtung nach allerdings oftmals auf die Erhebungssituation selbst sowie den Einsatz und die Bedeutung von Einwilligungserklärungen. Was solche Einwilligungserklärungen beinhalten müssen, ist mittlerweile ausführlich dokumentiert (KRETZER, MOZYGEMBA, HEUER & HUBER 2020; SCHAAR 2017). Auch das Datenmanagement wird mehr und mehr anhand entsprechender Orientierungshilfen etabliert, institutionalisiert und standardisiert (RATSWD 2018, 2020; VERBUND FDB 2015). Außerdem werden explizit Leitlinien für die Forschung im Internet formuliert, der Bereich der Online-Rekrutierung wird aber zum Teil auch dann in der Formulierung von Handlungsanweisungen ausgeklammert, wenn dieses Feld zuvor explizit genannt wurde (s. bspw. HAGEN et al. 2019). Mit dem Artikel leuchten wir ein bisher randständiges Detail qualitativer Forschung im Spannungsverhältnis von Öffentlichkeit und Anonymität näher aus: die Vielfalt der in qualitativen Projekten entstehenden digitalen Interaktionsspuren und die daraus resultierenden Gefahren der De-Anonymisierung von Forschungsteilnehmenden. Letztere liegen vor allem in der Möglichkeit der Verbindung digitaler Interaktionsspuren mit anderen Informationen zum jeweiligen Forschungsprojekt oder zu den beteiligten Forschenden. Solche Informationen können auch aus bereits publizierten Artikeln stammen. [4]
Im Folgenden illustrieren wir zunächst anhand eines auf Forschungserfahrungen basierenden Beispiels, wo und durch wen solche Interaktionsspuren im digitalen Raum in der Praxis entstehen können und schlagen darauf basierend eine heuristische Einteilung in drei Arten digitaler Spuren vor (Abschnitt 2). Anschließend systematisieren wir in einem Literaturreview, welche bisher nur dispers thematisierten Deanonymisierungsgefahren aus der zunehmenden Nutzung des Web 2.0 für die Sozialforschung resultieren (Abschnitt 3). Danach skizzieren wir sich daraus ergebende Strategien für einen konstruktiven Umgang mit Interaktionsspuren im digitalen Raum (Abschnitt 4). Wir schließen im Fazit mit einem Plädoyer für eine systematische Berücksichtigung digitaler Spuren im Forschungsprozess (Abschnitt 5). Dafür hilfreiche Fragen haben wir in einer Checkliste zusammengefasst (Anhang). [5]
2. Drei Arten von Interaktionsspuren im digitalen Raum
Anhand eines durch Forschungserfahrungen inspirierten hypothetischen Beispiels illustrieren wir im Folgenden, welche forschungspraktischen Fragen im Hinblick auf die Generierung und den Umgang mit Interaktionsspuren im digitalen Raum entstehen können. Wir gehen von einer Fallstudie zu Hürden und Möglichkeiten regionalen ehrenamtlichen Engagements pendelnder Berufstätiger in einer ländlichen Gemeinde aus: Eine erste Anlaufstelle für die räumlich auf eine Gemeinde begrenzte Rekrutierung im Internet wären bspw. Onlineauftritte klassischer Printmedien. Das lokale Amtsblatt erscheint einmal im Monat. Es wird an alle Haushalte ausgeliefert und erscheint zusätzlich als PDF-Dokument auf der Gemeinde-Webseite. In einem kurzen Beitrag wird über das Forschungsprojekt informiert, es werden die Namen und Kontaktdaten der Forschenden genannt und um Mithilfe gebeten. In der Lokalzeitung erscheint ein ähnlicher Beitrag. Damit wird das Forschungsprojekt mit den Namen der beforschten Gemeinde verknüpft und auf diese Weise im Internet auffindbar. [6]
Über Verlagshäuser hinaus stellt sich die Frage: Welche digitalen Plattformen nutzt die lokale Bevölkerung, die im Rekrutierungsprozess angesprochen werden soll? Wir gehen von einer möglichen Zielgruppe von 24- bis 59-jährigen Menschen aus, da wir aus regionalen Statistiken des statistischen Bundesamtes erfahren, dass diese Altersgruppe in der Region eine vergleichsweise hohe Pendler:innenquote aufweist. Für diese Personengruppe erachten wir drei digitale Orte zur Rekrutierung als geeignet, weil sie ein relativ breites Publikum erreichen, zugleich aber auch die Möglichkeit bieten, private Nachrichten auszutauschen: eBay Kleinanzeigen als Tauschplattform, Facebook als Social-Media-Plattform und WhatsApp als Messengerdienst. [7]
Um eine Anzeige zu veröffentlichen, müssen Forschende auf eBay Kleinanzeigen ein Konto anlegen, jede erstellte Anzeige einer Kategorie zuweisen (z.B. "zu verschenken") und einen Ort zur Lokalisierung angeben. Da mit der Rekrutierung von Studienteilnehmenden weder kommerzielle noch rein private Interessen verfolgt werden, entspricht das Anliegen nicht den Allgemeinen Geschäftsbedingungen, sodass Rekrutierungsanzeigen eventuell noch vor der Veröffentlichung herausgefiltert und gelöscht werden. [8]
Soziale Medien wie Facebook sind eine weitere Möglichkeit, mit potenziellen Interviewpersonen in Kontakt zu kommen. Wenn die eigene Institution keinen Account hat, über den eine Rekrutierung möglich ist, müssen Forschende hier ebenfalls ein neues Profil anlegen, um eine evtl. private Nutzung von der professionellen Rolle zu trennen. Entscheidet man sich gegen die Angabe des eigenen Namens, kann der Zusammenhang mit dem privaten Account nicht direkt hergestellt werden. Doch was ist die Alternative? Nutzt man den Projektnamen, obwohl damit die Rekrutierung von Teilnehmenden und die spätere Dissemination von Ergebnissen vermischt werden könnten? Mit dem Profil können Forschende den Aufruf zur Teilnahme in ortsbezogene Facebook-Gruppen wie z.B. die Freiwillige Feuerwehr oder den Elternverein einer Grundschule posten, und sie können Menschen anschreiben, die Likes und/oder unterstützende Kommentare hinterlassen haben. Das wirft zugleich aber neue Fragen auf: Dass diese Menschen auf den Aufruf reagiert haben, ist auch für andere in der Gruppe sichtbar und auf der Seite (teil-)öffentlich dokumentiert. Ist es unerheblich, dass jemand darunterschreibt "Ich mache auf jeden Fall mit", oder ist es relevant, wenn z.B. ein Nachbar genau das liest und später die Belegzitate in der qualitativen Studie sehen kann? Zusätzlich zu der öffentlich sichtbaren Verknüpfung der Studie mit konkreten Orten und Regionen kommt hier also eine sichtbare Verknüpfung der Studie mit ihren Teilnehmenden hinzu. Durch die Interaktivität von sozialen Netzwerken entstehen zusätzliche Informationen über Likes und Kommentare. Diese bleiben dauerhaft einsehbar – oder kann man sie im Nachhinein löschen? Muss dann jeder Post dokumentiert werden? Die Rekrutierung über Ortsgruppen in sozialen Medien wirft viele Fragen auf, die rechtliche und ethische Grauzonen betreffen. [9]
Neben einem Laptop ist das Smartphone unerlässlich für die Rekrutierung, wenn man über den aktuell weit verbreiteten Messengerdienst WhatsApp kommunizieren möchte. Wenn sich Befragte darüber melden, können Forschende auch Wochen nach den Interviews noch die wechselnden Statusmeldungen der Befragten mitlesen und den Wechsel ihrer Profilbilder mitverfolgen. Bewusst sind sich dessen sicher nicht alle Befragten. Auf diese Weise entstehen auch in der Interaktion mit analog rekrutierten Teilnehmenden digitale Daten. Zwar gibt es die Möglichkeit, im Schneeballverfahren auch in lokal relevante WhatsApp-Gruppen zu gelangen, aber Interviewte könnten dies eventuell als zu großen Eingriff in ihre Privatsphäre empfinden. [10]
Neben den Daten, die während der Rekrutierung für Bewohner:innen der Forschungsregion in Amtsblättern, Lokalzeitungen, auf Tauschportalen, sozialen Plattformen und in Messengerdiensten erzeugt werden, stellen Forschende während des Prozesses auch Daten für ein anderes Zielpublikum her: für ihre akademischen Peers und für Praxispartner:innen. Mit dem Ziel, sich selbst auf dem akademischen Markt darzustellen und dem Wunsch, die eigene Arbeit sichtbar zu machen, kann man bspw. auf Twitter dem Fortschritt eines Projektes folgen. Fotos von Tagungen, auf denen Poster präsentiert werden, Abbildungen erster analytischer Situational Maps und Bilder von Feldaufenthalten finden sich hier. Die Raumbezüge sind dabei zum Teil deutlich: Fotos z.B. vom Bahnhof, dem Gemeindehaus und dem Hoffest verweisen eindeutig auf die Untersuchungsregion. Die Spuren der Selbstdarstellung auf dem akademischen Markt – wie verhalten sie sich zu dem Versprechen an die Befragten, ihre Anonymität zu wahren? [11]
Auch durch digitale Informationen, die nicht von den Forschenden selbst hinterlassen werden, können Verknüpfungen zwischen einem Projekt und einer bestimmten Region hergestellt werden: Ein Befragter könnte auf Facebook ein nicht autorisiertes Foto von einem Interview posten. Eine Lokaljournalistin, die als Expertin für die Region interviewt wurde, schreibt einen kurzen Online-Artikel über ein Projekt, der nicht abgesprochen war. Ein Blogger meint es gut und postet den Aufruf zum Mitmachen. Nicht die Forschenden allein haben es in der Hand, welche Informationen über das Projekt online verfügbar sind, sodass sich bei ihnen Gefühle von Datenkontrollverlust einstellen können. Die Datenschutzerklärung wird zwar mit den Befragten erörtert, sie enthält allerdings in der Regel lediglich das einseitige Versprechen, dass die Forschenden niemandem von der Teilnahme der Person an der Untersuchung berichten, nicht aber, dass die teilnehmenden Personen ihrerseits anderen – z.B. einer digitalen (Teil-)Öffentlichkeit – nicht davon berichten. [12]
Durch die Kultur des Open-Access-Publizierens und die zahlreichen digitalen Aufzeichnungen von Vorträgen sind die Beforschten potenziell ein Publikum der Forschungsarbeit. Sie müssen keine Spezialbibliotheken aufsuchen, um Ergebnisse einzusehen. Für Forschende stellt sich damit die Frage, was das für ihre Anonymisierungsstrategien bedeutet. Wer zum Beispiel sollte der Maßstab der Anonymisierungsbemühungen des Projekts sein? Ist es Person A, die aus der Darstellung nicht zweifelsfrei herauslesen darf, dass es die Aussagen von Nachbar:in B sind, die interpretiert werden? Letztlich ist jede Onlineveröffentlichung ein Datum, das das Risiko der Deanonymisierung erhöht. Ohne großen Aufwand könnte mehrere im Projekt entstandene Artikel nebeneinandergelegt werden. Werden dann noch Informationen hinzugenommen, die im Verlauf der Rekrutierung online verteilt wurden, wird es immer leichter, auf konkrete Orte und ihre Bewohner:innen zu schließen. [13]
Schon diese kurze Reflexion unterschiedlicher digitaler Daten aus einer forschungspraktischen Perspektive verdeutlicht, dass auch qualitative Sozialforschung, die mit erhobenen Analogdaten aus Interviews oder Gruppendiskussionen arbeitet, oft eine digitale Dimension hat, die einige Fragen aufwirft, zu einer Vielzahl von Entscheidungen nötigt und insbesondere mit Blick auf Deanonymisierung Gefahren birgt.
Tabelle 1: Arten von Interaktionsspuren im digitalen Raum. Bitte klicken Sie hier, um die PDF-Datei herunterzuladen. [14]
Wie in Tabelle 1 zusammengefasst, lassen sich auf Grundlage obiger Forschungserfahrungen heuristisch mindestens drei Arten von Interaktionsspuren im digitalen Raum unterscheiden: Erstens gibt es Spuren, die von Forschenden explizit gelegt werden, um Gesprächspartner:innen zu rekrutieren. Solche Rekrutierungsspuren sind für ein lokales Publikum potenziell Teilnehmender intendiert. Das tatsächliche Publikum hängt wie bei den anderen Spuren von der verwendeten Plattform ab (s. Tabelle 4). Daneben legen Forschende Öffentlichkeitsarbeitsspuren, wenn sie sich an ihre Peers und die wissenschaftliche Community richten, um ihre eigenen Arbeitsaktivitäten darzustellen. Vorträge und dazugehörige Transkripte sowie Teilnahmen an Podiumsdiskussionen sind oftmals online zugänglich, und Forschende können auch über die eigene Forschung begleitende Auftritte in den sozialen Medien nicht reflektierte Interaktionsspuren im digitalen Raum hinterlassen. Drittens dokumentieren Teilnehmende zum Teil selbst auf digitalen Plattformen ihre Beteiligung an einer Studie und stellen damit eine von Forschenden nicht intendierte Verknüpfung von Forschungsprojekten mit eindeutig zu identifizierenden Orten und Personen her. Solche Teilnahmespuren sind besonders, weil sie aus Perspektive der Forschenden nicht nur unfreiwillig hinterlassen werden, sondern ihre Existenz den Forschenden eventuell unbekannt ist. Alle Arten von Spuren bergen die Gefahr, zur Deanonymisierung von (anderen) Beforschten beizutragen. In dem folgenden Abschnitt systematisieren wir mittels eines Literaturreviews, welche Deanonymisierungsgefahren bezüglich der zunehmenden Nutzung des Web 2.0 für die Sozialforschung als relevant angesehen wurden. [15]
3. Literaturreview zum Problem der Deanonymisierung bei der Nutzung von sozialen Medien im qualitativen Forschungsprozess
Anonymisierung ist ein breit diskutiertes Thema im Kontext der Erhebung empirischer Daten. Einen Überblick über Anonymisierungstechniken im Kontext qualitativer Sozialforschung gaben bspw. MEYERMANN und PORZELT (2014). Gerade im Hinblick auf aktuelle Debatten um zeitgenössische Datenschutzvorschriften wie die DSGVO, zu denen sich Forschende in Projektanträgen immer dezidierter positionieren müssen, finden sich viele Beiträge, in denen teils für Disziplingruppen gemeinsame Standards präsentiert werden (DFG 2021; GEBEL et al. 2015; GOLLA, HOFMANN & BÄCKER 2018; MEYERMANN & PORZELT 2019; RATSWD 2020). Diese Debatten wurden in den letzten Jahren um Fragen der Sekundärnutzung von Daten, teils vor dem Hintergrund von Open-Data-Policies, ergänzt (LAUDEL & BIELICK 2019; THOMSON, BZDEL, GOLDEN-BIDDLE, REAY & ESTABROOKS 2005). [16]
Seit einiger Zeit werden auch Deanonymisierungsgefahren durch die zunehmende Nutzung des Web 2.0 diskutiert, wozu besonders die Publikation der Studie "Tastes, Ties, and Time" von LEWIS, KAUFMAN, GONZALEZ, WIMMER und CHRISTAKIS (2008) beitrug, in der ein Datenbankauszug von Facebook öffentlich zugänglich gemacht wurde (ZIMMER 2010). Dieses Thema gewinnt seither an Relevanz, weil Sozialforschende in zunehmendem Maße das Web 2.0 nutzen. Der Schwerpunkt liegt dabei jedoch oft auf der Datenerhebung. Datenformen, die nicht vornehmlich der Analyse dienen, sondern der Interaktion, werden weniger prominent verhandelt. Dies führt dazu, dass unter anderem im Rekrutierungsprozess, so unsere Argumentation, Daten anfallen, die bisher zu wenig reflektiert werden. Forschende stehen deshalb vor der Aufgabe, sich mit den daraus ergebenden neuen Möglichkeiten der Datentriangulation zu beschäftigen. Weil Software- und Hardwaresysteme stetigen Innovationen unterliegen, wird diese Aufgabe komplizierter. Zu denken ist hier bspw. an leistungsfähigere und interoperable Datenbanken oder gesteigerte Rechenleistungen und Datentransfergeschwindigkeiten. Herausforderungen im Hinblick auf die Anonymisierung von Daten ergeben sich besonders im Falle von räumlich begrenzten Lokal- oder Gemeindestudien (THOMSON et al. 2005; VAINIO 2013), durch den Einbezug lokaler Organisationen in die Rekrutierung und bei Bekanntschaften von Befragten untereinander (AKESSON, HOFFMAN, EL JOUEIDI & BADAWI 2018). [17]
3.1 Vorgehensweise beim Literaturreview
Im Folgenden möchten wir auf der Basis einer Literaturanalyse die grundlegenden Debattenstränge zu Deanonymisierungsgefahren im Kontext der Online-Präsenz von Forschenden, der online-basierten Interaktion mit Beforschten und der Rekrutierung über das Internet systematisieren. Die dafür mittels einer gezielten Suchstrategie zusammengetragenen wissenschaftlichen Artikel sind in Tabelle 2 dargestellt. Aufbauend auf den im Abschnitt 2 aufgeführten inhaltlichen Überlegungen erfolgte die Suche thematisch eingegrenzt auf den interessierenden Zusammenhang zwischen Interaktionen von qualitativ Forschenden in den sozialen Medien und den sich dadurch verändernden Anonymitätsverhältnissen. Dieser thematische Fokus wurde mittels unterschiedlicher Kombinationen der Stichwörter "recruit*"/"rekrut*", "ethi*", "anonym*", "online", "social media"/"soziale Medien", "WhatsApp", "Facebook" und "Twitter"3) operationalisiert. Anhand dieser recherchierten wir einerseits über Google Scholar und andererseits gezielt in den in unserer Forschungspraxis relevanten Zeitschriften FQS, Zeitschrift für Qualitative Forschung (ZQF) und Qualitative Research möglichst viele Beiträge, bei denen Interaktionsspuren nicht nur kurz angesprochen, sondern deren Relevanz und der Umgang damit auch explizit diskutiert wurde. Die damit identifizierten Artikel sind in einer Vielzahl von Forschungsdisziplinen und -feldern angesiedelt, unter anderem in der Gesundheits- und Pflegeforschung, der psychologischen und psychiatrischen Forschung, der ethnografischen Forschung und in der methodologischen Literatur zu qualitativer Sozialforschung im Internet. Parallel dazu sichteten wir Handreichungen im deutschsprachigen Kontext auf der Suche nach forschungspraktischen Herangehensweisen an diese Problemstellung. Die von uns als relevant identifizierten Dokumente sind in Tabelle 3 aufgeführt. [18]
Mit dieser Auswahl können wir einen breiten Debattenstand zu dem Thema darstellen, wenngleich durch die Suchmethodik zweifellos blinde Flecken in den Ergebnissen durch Selektion der Suchbegriffe, Sprache oder fokussierten Zeitschriften möglich sind. Zudem stellen methodenorientierte Lehrbücher, Dissertationen und kleinere/weniger bekannte/andere Zeitschriften, die wir nicht systematisch untersuchen konnten, eine nicht aufgearbeitete Lücke dar. In den von uns gesichteten Artikeln wurde die Relevanz von Fragen der Anonymität im Kontext von Internetforschung klar herausgestellt (Abschnitt 3.2). Dabei identifizieren wir drei Themenfelder, in denen Deanonymisierungsgefahren aktuell diskutiert werden. Die Autor:innen der Artikel thematisierten das Web 2.0 als Mittel der Datenerhebung (Abschnitt 3.3), als Mittel der Rekrutierung (Abschnitt 3.4) und als Mittel zur Öffentlichkeitsarbeit (Abschnitt 3.5).
Fachgebiet |
Autor:innen |
Bildungsforschung |
DAWSON (2014) HENDERSON, JOHNSON und AULD (2013) |
Ethnografische |
BARRATT und MADDOX (2016) BENEITO-MONTAGUT (2011) CAMPBELL (2017) FERGUSON (2017) |
Geografische |
CZEPKIEWICZ, JANKOWSKI und MŁODKOWSKI (2017) |
Gesundheits- und Pflegeforschung |
ARIGO, PAGOTO, CARTER-HARRIS, LILLIE und NEBEKER (2018) BENDER, CYR, ARBUCKLE und FERRIS (2017) CUDJOE et al. (2019) GELINAS et al. (2017) HUNTER et al. (2018) KAMP, HERBELL, MAGGINIS, BERRY und GIVEN (2019) LUNNAY, BORLAGDAN, McNAUGHTON und WARD (2015) |
Kommunikationswissenschaften |
DUFFY und CHAN (2019) |
Methodologische |
BENINGER et al. (2014) BLECKMANN und JUKSCHAT (2015) GERRARD (2020) KOSCHMIEDER, WYSS und PFISTER (2021) LEGEWIE & NASSAUER (2018) LOCHNER (2017) MARE (2017) MARLAND und ESSELMENT (2019) REICHERTZ (2015) RODRIGUEZ (2018) SAUNDERS, KITZINGER und KITZINGER (2015) SCHMIDT-LUX und WOHLRAB-SAHR (2020) SEKO (2013) SIKKENS, VAN SAN, SIECKELINCK, BOEIJE und WINTER (2017) TILLEY und WOODTHORPE (2011) |
Psychologische und psychiatrische |
BELL, SPRUIT und KAVANAUGH (2020) GROVÉ (2019) KING, O'ROURKE und DeLONGIS (2014) MORENO, GONIU, MORENO und DIEKEMA (2013) SANCHEZ et al. (2020) |
Tabelle 2: Übersicht über die im Literaturreview beachteten wissenschaftlichen Artikel
Tabelle 3: Übersicht über die im Literaturreview beachteten Handreichungen. Bitte klicken Sie hier, um die PDF-Datei herunterzuladen. [19]
3.2 Zur Relevanz des Themas Anonymität im Kontext der Nutzung des Web 2.0
Dazu, inwieweit die Frage etwaiger Deanonymisierungsgefahren relevant für Forschende und Beforschte ist, gibt es in Anknüpfung an den in Tabelle 2 und Tabelle 3 aufgeführten Literaturkorpus erste Erkenntnisse: BENDER et al. (2017) notierten bspw. für ihren Forschungskontext von krebskranken Jugendlichen (und deren Rekrutierung über sog. Rekrutierungsposts in Facebook), dass Schaden durch Deanonymisierung infolge von "disclosure, collection, and use of personal and sensitive information" (S.7) entstehen könne. Als mögliche negative Konsequenzen identifizierten sie "stigmatization, discrimination, or damage to reputation, and may negatively affect relationships, job opportunities, and insurance options" (a.a.O.). Dass diese Art von Sichtbarmachung von persönlichen Informationen insbesondere im Kontext sozialer Netzwerke (und deren selten konsultierten AGBs) relevant ist, betonten GELINAS et al. (2017). Sie verwiesen darauf, dass bestimmte Aktionen wie das Liken, das Kommentieren von Posts oder die Mitgliedschaft in Gruppen in solchen Netzwerken für andere Teilnehmende (bspw. "Freunde", "Follower") sichtbar sein könnten. Dies könne gegebenenfalls zur Offenlegung persönlicher Informationen führen (S.12ff.) – etwa, wenn eine an Krebs erkrankte Person, die dies jedoch geheim halten möchte, in einer Betroffenengruppe in Facebook Mitglied ist, die Information über diese Mitgliedschaft aber in ihrem Profil nicht ausblendet. [20]
Dass Nutzer:innen sozialer Netzwerke das Thema Anonymität und Datenschutz prinzipiell bewusst und wichtig ist, wurde in mehreren Studien nachgewiesen. So zeigten BENINGER et al. (2014) auf der Basis von Nutzer:innenbefragungen auf, dass die Themen Anonymität und Nachverfolgbarkeit zwar kontrovers diskutiert, jedoch insbesondere hinsichtlich der Vermeidung von Schaden als essenziell angesehen worden seien (S.27ff.). In Bezug auf eine Studie, in der WhatsApp als Rekrutierungsinstrument genutzt worden war, betonten CUDJOE et al. (2019, S.1023), dass bspw. potenzielle Teilnehmende einer Krebsvorsorge-Studie aus Angst vor Deanonymisierung teils erhebliche Vorbehalte gehabt hätten, schriftliche Einwilligungserklärungen auszufüllen. Dieser Hinweis auf eine bewusste datenkritische Einstellung wird zudem durch die Studie von DUFFY und CHAN (2019) gestützt, die nachwiesen, wie Nutzer:innen sozialer Medien eine bewusste Selbstdarstellung als Reaktion auf eine wahrgenommene Überwachung durch Familienangehörige (S.124ff.), Bildungsträger und (zukünftige) Arbeitgeber (S.132), zeigten. Auch GROVÉ (2019, S.6) wies für über soziale Medien rekrutierte Jugendlichen in prekären Familienverhältnissen die Angst nach, dass die eigenen Lebensverhältnisse öffentlich würden. Diese Sensibilisierung für Datenschutzfragen auf Nutzer:innenseite darf deswegen bei der Nutzung sozialer Netzwerke im gesamten Forschungsprozess nicht ausgeblendet werden. [21]
Ein besonderes Problem stellen in diesem Kontext die Nutzungsbedingungen sozialer Netzwerke dar. Durch mangelnde Verständlichkeit, hohe Komplexität, jedoch auch durch mangelndes Nutzer:inneninteresse werden sie oft nicht ausreichend wahrgenommen (LUNNAY et al. 2015, S.105). Dies ist insofern kritisch, als entsprechend den Regeln der Einwilligungserklärung die Verwendung von Daten für Beforschte transparent sein muss, Nutzer:innen sozialer Netzwerke aber teils nicht bewusst ist, in welchem Maße ihre Aktivitäten durch Großkonzerne wie Meta (ehemals Facebook) protokolliert und an andere Unternehmen weitergegeben werden (KAMP et al. 2019, S.1275). Auch SANCHEZ et al. (2020, S.6) wiesen darauf hin, dass eigene Daten oder Profile zwar gelöscht werden können, vergangene Datenstände über den Verkauf an Drittunternehmen aber gegebenenfalls über den Löschzeitpunkt hinaus zirkulieren. Datentriangulation und Deanonymisierung werden damit noch unberechenbarer und längerfristig wahrscheinlicher, wie FERGUSON (2017) diagnostizierte: "[T]he permanence of digital footprints—theirs and ours—intensifies the challenge of identity protection, and we must remain aware that in the future these will be even easier to trace and de-anonymize" (S.690). [22]
3.3 Das Web 2.0 als Mittel der Datenerhebung
Obwohl die Erhebung von Daten nicht im Zentrum unseres Artikels steht, sind die in diesem Zuge geführten Debatten hilfreich für unsere Diskussion zum Umgang mit Interaktionsspuren im digitalen Raum und relevant für die Einordnung unseres Anliegens in die bestehende Literatur. Kommunikation und andere Transaktionsprozesse im Internet waren im letzten Jahrzehnt Gegenstand einiger qualitativer Studien bspw. zu öffentlich einsehbaren Inhalten wie Videos, Fotos und Blogbeiträgen auf Plattformen wie YouTube (LEGEWIE & NASSAUER 2018), Facebook (MARE 2017) oder Flickr (SEKO 2013), zu illegalen Transaktionen (FERGUSON 2017) oder zu Online-Communities im Darknet (BARRATT & MADDOX 2016). Die Autor:innen dieser Artikel behandelten Fragen der Anonymität der Beforschten unterschiedlich stark, was auch mit dem Grad der Vulnerabilität der untersuchten Personengruppen und den besprochenen Inhalten zusammenhängt. [23]
Auch wenn bei Forschung zu öffentlich einsehbaren Blogposts oder Fotos zum Teil von einer schweigenden Erlaubnis der Veröffentlichenden zur Auswertung von Daten für Forschungszwecke ausgegangen werden kann (BAYER et al. 2021, S.12), entbindet das nicht automatisch von der forschungsethischen Aufgabe, Studienteilnehmenden nicht zu schaden (RATSWD 2017, S.18ff.). In diesem Sinne bat MARE (2017, S.658ff.) Gruppenadministrator:innen und -mitglieder auf Facebook vor Beobachtungen um Erlaubnis, paraphrasierte von ihr verwendete, durch Suchmaschinen auffindbare Posts und verfremdete, ebenso wie SEKO (2013, §20), die Angaben der beobachteten Personen, um deren Anonymität zu wahren. Auch im Kontext von Studien in digitalen Räumen mit pseudonymisiert auftretenden Beforschten unterstrich GERRARD (2020, S.698) die Notwendigkeit der permanenten Reflexion von zusätzlichen Anonymisierungsschritten durch die Forschenden, sodass Ergebnisveröffentlichungen nicht zur Verbindung von Daten und damit zur Deanonymisierung Einzelner führen können. [24]
Eine besonders große Rolle spielen Fragen von Anonymität und Datenschutz in Artikeln zu illegalen Seiten und Gruppen im Darknet. In diesem Kontext beschrieben bspw. BARRATT und MADDOX (2016) Praktiken zur Vermeidung von Daten bei der Kommunikation zwischen Forschenden und Teilnehmenden im gesamten Forschungsprozess:
"Establishing these practices required a long project lead-in time to develop appropriate technical protocols and skills: including the encryption of email communication, use of encrypted browsers […] and anonymising operating systems […], selecting an appropriate encrypted online chat or instant messaging (IM) platform, and appropriate data management practices" (S.705). [25]
In ihrem Artikel zeigten sie die Vielfalt an potenziell entstehenden und genutzten Daten und wie technische Lösungen in der Kommunikation mit Beforschten von Beginn an späterer Deanonymisierung vorbeugen können. Sie betonten allerdings auch den Aufwand, der für ein solches Verfahren notwendig ist. [26]
3.4 Das Web 2.0 als Mittel der Rekrutierung
Forschende sehen soziale Medien wie Twitter oder Facebook aufgrund der hohen Anzahl von Nutzer:innen als geeignete soziale Netzwerke, um Teilnehmende für Forschungsprojekte zu rekrutieren, wenngleich sie entsprechende Stichprobenverzerrungen entsprechend der Nutzer:innengruppen häufig thematisieren (s. bspw. KING et al. 2014). Insbesondere im Bereich der Gesundheitsforschung und im Feld sogenannter schwer zu erreichender beziehungsweise vulnerabler Gruppen lassen sich Cluster an Literaturbeiträgen identifizieren. Die Autor:innen gehen dabei vor allem auf Rekrutierungspotenziale sowie Vor- und Nachteile dieser sozialen Medien (s. bspw. ARIGO et al. 2018) und deren Konsequenzen für die Datenqualität ein. Themen wie Datenschutz, Privatsphäre und Anonymität werden vergleichsweise selten tiefergehend beleuchtet. [27]
Methoden der Social-Media-Rekrutierung umfassen einerseits passive Techniken (GELINAS et al. 2017, S.5) wie die Arbeit an einem professionellen Online-Auftritt auf unterschiedlichen Plattformen (MARLAND & ESSELMENT 2019, S.690), die Einrichtung eines Profils für ein spezifisches Forschungsvorhaben, das Posten von Beteiligungsaufrufen, Targeted Advertising (bspw. bei Facebook, s. BELL et al. 2020; CZEPKIEWICZ et al. 2017; KOSCHMIEDER et al. 2021) und den Einsatz von QR-Codes (BELL et al. 2020, S.602). Andererseits sind auch aktive Rekrutierungstechniken denkbar (GELINAS et al. 2017, S.5) wie das direkte Versenden von E-Mails oder Privatnachrichten an Individuen oder private Gruppen beziehungsweise die Selektion via bestehender Hashtags (SANCHEZ et al. 2020, S.3). Zudem dokumentierten SANCHEZ et al. (a.a.O.) Vorgehensweisen jenseits der Dichotomie zwischen aktiv und passiv angesichts medienspezifischer Kommunikationsmechanismen, etwa wenn Forschende Influencer:innen zur Bewerbung rekrutieren oder eigene Hashtags und Memes kreieren. In vielen Fällen müssen für (semi-)aktive Rekrutierungsprozesse Profile auf den dafür genutzten Plattformen angelegt werden. FERGUSON (2017) diskutierte ebenso wie BARRATT und MADDOX (2016), ob und wie transparent dabei die eigene Identität preisgegeben werden sollte. Während dies als positiv für den Aufbau von Vertrauen angesehen wurde, mache es die Forschenden aber unter Umständen auch angreifbar. [28]
Im Zuge der Datenverarbeitung entstehende Risiken der Social-Media-Rekrutierung wurden selten explizit diskutiert. Obwohl in den meisten Artikeln Vertraulichkeit und Datenspeicherung thematisiert wurde (bspw. ARIGO et al. 2018), unterblieb häufig eine tiefergehende Beschäftigung mit den spezifischen Gefahren von 1. der Datenverarbeitung im Web 2.0 und 2. der automatisierten oder manuellen Datentriangulation (BELL et al. 2020; KING et al. 2014). Beide Themen stellen jedoch Deanonymisierungsgefahren dar:
Datenverarbeitung im Web 2.0: Wenn potenziell Teilnehmende auf von Forschenden geteilte Inhalte reagieren, entstehen Interaktions- und Metadaten, deren Speicherung und Weiternutzung durch Dritte selten explizit von den Betroffenen in Erwägung gezogen werden (SANCHEZ et al. 2020, S.6). Dies geschieht bspw. beim Klicken auf Werbeanzeigen (BENDER et al. 2017, S.7ff.; BENINGER et al. 2014, S.15ff.). Während die Möglichkeit der Nutzung solcher Daten in Verbindung mit nutzer:innenspezifischen IP-Adressen bei GROVÉ (2019, S.6) nur kurz angesprochen wurde, explizierte VAN BAALEN (2018) die konkrete Deanonymisierungsgefahr: "Because our computers are uniquely configured, it is possible for online trackers to identify the computer from which a certain website was accessed even when we hide our IP numbers. This is called a digital fingerprint" (S.10). Er weitete diesen Aspekt zudem auf die Möglichkeit des Trackings von Bewegungsdaten der Forschenden selbst aus: "Although the tracking of researchers through their smartphones may invoke Orwellian associations that seem far removed from the everyday experience of most field researchers, many scholars have recounted that their movements were monitored by security agents or local officials" (S.10ff.).
Mögliche Datentriangulation: Publizierte Interviewauszüge und gegebenenfalls unzureichend anonymisierte personenbezogene Daten können wiederum manuell oder automatisch mit anderen Datenquellen kombiniert werden, um die Identität von Teilnehmenden aufzudecken (s. bspw. MORENO et al. 2013, S.711). Optimierte Suchmaschinen und -strategien erleichtern die Recherche von Informationen aus unterschiedlichen Quellen (s. bspw. TILLEY & WOODTHORPE 2011, S.209). Insbesondere der Artikel von DAWSON (2014) ist hier hervorzuheben. Er zeichnete für einen Studienkorpus aus der Gesundheitsforschung systematisch nach, in welchen Fällen manuelle Triangulationstechniken zur eindeutigen Identifikation ansonsten anonymisierter Teilnehmender geführt hätten, teils mit potenziell fatalen Folgen: "While searching for further information on one particular research project, I stumbled across more than I was looking for: a large dataset, containing names, telephone numbers, addresses, unique identifiers and dates of birth for hundreds of research participants" (S.429). HENDERSON et al. (2013) dokumentierten erfolgreiche Versuche, Facebook- und LinkedIn-Profile und -Mitgliedschaften in einer fachspezifischen Online-Gruppe zu kombinieren, um private Daten wie Kontaktinformationen und Beziehungsstatus herauszufinden (S.551). HUNTER et al. (2018) verwiesen im Kontext von Gesundheitsforschung auf die erhöhten Deanonymisierungsgefahren "in an increasingly networked, pervasive, and ultimately searchable 'dataverse'" (S.344), die durch (semi-)automatisierte Triangulationsmethoden entstünden. KAMP et al. (2019, S.1275) gingen bspw. auf die automatisierte Extraktion von Daten aus sozialen Medien ein. An dieses Verständnis schlossen u.a. HENDERSON et al. (2013) und KAMP et al. (2019) mit Blick auf Nachverfolgbarkeit und insbesondere auf anfallende Interaktions- sowie Metadaten in sozialen Medien an. [29]
3.5 Das Web 2.0 als Mittel des Wissenstransfers
Nicht nur das Erheben von Daten, sondern auch die Online-Verbreitung von Ergebnissen steht in einem "Spannungsverhältnis[] von datenschutzrechtlichen, forschungsethischen und forschungspragmatischen Aspekten" (LOCHNER 2017, S.284). Letzteres trifft bereits heute auf eine Vielzahl von qualitativen Forschungsprojekten zu. TILLEY und WOODTHORPE (2011) betonten beispielsweise, "how anonymity may contrast with expectations from funding bodies about showing accountability and engaging in knowledge transfer with the 'real world' of policy and practitioners" (S.209), wobei der Wissenstransfer zunehmend online stattfinde. Vor dem Hintergrund der Stärkung von Open Access-Strategien (SAUNDERS et al. 2015, S.629) werden solche Spannungsverhältnisse in Zukunft vermutlich an Bedeutung gewinnen. [30]
In diesem Kontext rückt auch das Spannungsfeld zwischen der angestrebten Öffentlichkeitswirksamkeit der eigenen Arbeit und der den Teilnehmenden versprochenen Anonymität in den Blick. Forschende veröffentlichen im Internet Informationen zu ihrem beruflichen Werdegang, vergangenen und aktuellen wissenschaftlichen Tätigkeiten und immer häufiger auch Neuigkeiten zum Forschungsprozess, wozu sie zum Zweck der Selbstvermarktung und der Bewerbung von Projekten zunehmend ermutigt werden. Ein weiterer, forschungspraktischer Grund für die Online-Preisgabe von persönlichen und beruflichen Informationen ist die Etablierung von Vertrauen, welches sowohl für den Rekrutierungsprozess als auch die Qualität der Ergebnisse von Bedeutung sein kann (BARRATT & MADDOX 2016). Als Herausforderung in diesem Zusammenhang thematisierte GERRARD (2020) das Verschwimmen von Privatem und Beruflichem durch die digitale Interaktion zwischen Forschenden und Teilnehmenden, wodurch es unter Umständen nötig werde, aktiv Grenzen zu ziehen. Als Grund für diese Abgrenzung – oder grundlegender für die Wahrung der Anonymität von Forschenden – nannte VAINIO (2013) deren Verletzlichkeit: "Fieldwork with deviant groups in dangerous contexts where both parties can be known to each other, as well as the participants' possible disclosure of secrets, can also place the researchers in dangerous situations" (S.692). Hinsichtlich der Präsenz von Forschenden auf Plattformen wie Twitter wies CAMPBELL (2017) anhand autoethnografischer Beobachtungen auf deren Angreifbarkeit aufgrund von transparent veröffentlichten beruflichen Interessen und Aktivitäten hin. Potenziell können sowohl die online präsentierte professionelle Identität Forschender als auch online veröffentlichte Ergebnisse mithilfe von Datentriangulation zur Deanonymisierung von Forschungsteilnehmenden beitragen. [31]
Im Literaturreview wurde deutlich, dass Interaktionsspuren im digitalen Raum und Deanonymisierungsgefahren in unterschiedlichen Kontexten von Bedeutung sind. Wir möchten explizit betonen, dass der digitale Raum nicht allein aus einer Gefahrenperspektive betrachtet werden darf; vielmehr sind digitale Medien bspw. für die Forschung mit "hard-to-reach populations" (KING et al. 2014) bedeutende Zugangspunkte, die das Repertoire der Kontaktherstellung und Kommunikation deutlich erweitern. Dennoch dürfen Forschende die damit einhergehenden Deanonymisierungsgefahren nicht übersehen. Deshalb legen wir im Folgenden praktische Strategien zur Minimierung dieser Gefahren im Umgang mit den oben identifizierten Arten von Interaktionsspuren im digitalen Raum dar. [32]
4. Strategien des Umgangs mit Deanonymisierungsgefahren
WOODFIELD und IPHOFEN (2017, S.5) konstatierten, dass vollständige Anonymität angesichts der Unmöglichkeit, Datenspuren gänzlich sicher zu tilgen, illusorisch sei. Vor diesem Hintergrund wurden in einigen Studien mögliche projekt- und kontextspezifische Umgangsweisen und Strategien des Datenmanagements thematisiert, um Deanonymisierungsgefahren zumindest zu reduzieren. Im Folgenden stellen wir in der Literatur diskutierte Ansätze anhand von sechs Schwerpunkten vor. Während wir in den Abschnitten 4.1-4.3 übergreifend alle von uns identifizierten Interaktionsspuren im digitalen Raum behandeln und uns vor allem am Forschungsprozess orientieren, konzentrieren wir uns in den Abschnitten 4.4-4.6 jeweils auf eine von uns identifizierte Spurenart. Weitere Hinweise finden sich im Anhang. [33]
BENDER et al. (2017, S.10ff.) diskutierten sieben fundamentale Prinzipien, an denen sie ihr "Privacy-by-Design"-Konzept zur Rekrutierung von Teilnehmenden ausrichteten: So sollten Datenschutzaspekte 1. proaktiv durch die Forschenden angegangen werden und 2. auf Nutzer:innen- bzw. Teilnehmendenseite prinzipiell keine Schritte notwendig sein, um deren eigene Daten zu schützen; der Datenschutz solle 3. nicht als Zusatz zum Forschungsdesign gedacht werden, sondern als dessen Bestandteil, ohne 4. durch Datenschutzerwägungen die Reichweite der Untersuchung zu beschränken. 5. müssten personenbezogene Daten in allen Phasen der Untersuchung dem Datenschutz auch praktisch unterliegen und 6. Informationen zum Datenschutz durch alle beteiligten Instanzen und Personen den Beforschten zur Verfügung gestellt werden. Um diesen Grundprinzipien Rechnung zu tragen, empfahlen BENDER et al. (S.7), Datenschutz in Forschungsprojekten prinzipiell aus der Nutzer:innen- bzw. Teilnehmendenperspektive zu konzipieren. Sie nannten auch Optionen, Deanonymisierungsgefahren im Rahmen institutioneller Ethikkommissionen zu reflektieren (S.9). THOMSON et al. (2005, §31) wiesen zudem auf die Möglichkeit hin, Teilnehmende nach ihrer Meinung zur Sensibilität und der daraus folgenden notwendigen Anonymisierung von Daten zu fragen, um deren Perspektive in Konzeption und Anonymisierungsstrategien miteinbeziehen zu können. Dafür müssten Teilnehmende allerdings umfänglich über Deanonymisierungsgefahren aufgeklärt werden (s. Abschnitt 4.4). [34]
4.2 Plattformen, Werkzeuge und digitale Orte kennen
ARIGO et al. (2018, S.10) betonten, wie wichtig die Vertrautheit von Forschenden mit den genutzten Online-Medien und den jeweils spezifischen Risiken für Teilnehmende sei. In der folgenden Tabelle geben wir einen Überblick über unterschiedliche für Interaktionsprozesse im Rahmen der empirischen Forschung genutzte Medien und charakterisieren diese anhand der Merkmale Notwendigkeit zur Anmeldung, Form der Inhalte und Zugang. Angelehnt an GOLLA et al. (2018, S.96) unterscheiden wir hier zudem zwischen statischen Inhalten, die sich wenig bis gar nicht verändern und dynamischen Inhalten wie Likes und Kommentaren, die von Nutzenden immer wieder neu erzeugt werden. Die in der Tabelle genannten Messengerdienste stehen unter anderem für Apps wie den Facebook Messenger, WhatsApp, Telegram oder auch Signal. Mit sozialen Netzwerken sind Facebook, Twitter und Instagram, aber auch Dating-Plattformen gemeint; eBay Kleinanzeigen oder nachbarschaft.de sind bekannte Beispiele für Tauschplattformen.
Tabelle 4: Systematisierung der Online-Medien sowie der verwendeten und entstehenden Daten bei der Online-Rekrutierung. Bitte klicken Sie hier, um die PDF-Datei herunterzuladen. [35]
In Tabelle 4 stellen wir dar, dass der Großteil der geteilten Inhalte für Dritte einsehbar ist, teilweise sogar ohne Anmeldung beim jeweiligen Dienst (s. auch AHMED, BATH & DEMARTINI 2017, S.101). Das diverse Publikum, das (auch zu späteren Zeitpunkten) mitliest und unter Umständen Informationen aus unterschiedlichen Quellen im Internet kombinieren kann, muss im Hinblick auf die Sicherstellung der Anonymität von Forschungsteilnehmenden mitgedacht werden. Um das jeweilige Publikum eines Posts oder Likes möglichst genau zu kennen, empfahlen LUNNAY et al. (2015, S.105) Wissenschaftler:innen beispielsweise, die Privatsphäreeinstellungen in sozialen Medien kontinuierlich hinsichtlich möglicher Änderungen der Nutzungsbedingungen zu prüfen und sich tiefgreifend in diese einzuarbeiten (s. zudem SANCHEZ et al. 2020, S.6 zur Frage der Weiterverarbeitung von Nutzer:innendaten). So können Forschende Zugänge gegebenenfalls auch einschränken. Schlussfolgernd muss hier betont werden, dass sich daraus auch prinzipiell ein Hinweis an Teilnehmende ergeben müsste, um sie an die Relevanz der Nutzungsbedingungen für ihre Interaktionen mit den Forschenden zu erinnern. [36]
4.3 Technische Zugangsmöglichkeiten für Dritte beschränken
Forschende können das Entstehen von Interaktionsspuren durch eine aufgeklärte Nutzung der oben genannten Medien vermeiden. Zusätzlich kann dies durch einen umsichtigen Umgang mit den eingesetzten Geräten und gegebenenfalls durch den Einsatz von Software unterstützt werden. VAN BAALEN (2018, S.6) schlug vor, ausschließlich verschlüsselte Kommunikationskanäle via Messengerdienste oder E-Mail zu nutzen, die zumindest Sicherheit vor niedrigschwelligen Zugriffsversuchen durch staatliche Akteur:innen, Kriminelle und Privatpersonen böten. Neben Verschlüsselungslösungen diskutierte er auch die Nutzung von VPN-Diensten bzw. des Tor-Netzwerks, durch welche die Kommunikationswege mehr oder minder wirksam verschleiert werden (S.10). Flankierend kann hier die Empfehlung von BENDER et al. (2017, S.7) gesehen werden, gegebenenfalls die Kommentarfunktion unter Facebook-Posts zu deaktivieren oder die Kommentarsektion streng zu moderieren. Werden Smartphones genutzt, riet VAN BAALEN (2018, S.10ff.) zur regelmäßigen, temporären Entfernung des Akkus, um das permanente Sammeln von Daten zu unterbrechen. LEITH (2021, S.10) zeigte, dass sonst durchschnittlich alle 4,5 Minuten Daten von den Betriebssystemen Android und iOS an Google und Apple übermittelt werden. [37]
4.4 Rekrutierungsspuren dokumentieren, löschen und bei Anonymisierung berücksichtigen
Generell ist die Rekrutierung von Teilnehmenden über soziale Medien erlaubt. Als Bedingungen dafür nannten die Autor:innen einer Richtlinie aus der Markt-, Sozial- und Onlineforschung, dass "den kontaktierten Personen die erforderlichen Informationen über die Art der Untersuchung [...], die Bedingungen der Teilnahme, die Identität der durchführenden Forschungseinrichtung und die gegebenenfalls [...] erforderlichen datenschutzrechtlichen Informationen gegeben werden" (ADM et al. 2021, S.3). Allgemein ist die Beschreibung von im Forschungsprozess anfallenden Daten ein wichtiger Baustein im Umgang mit Forschungsdaten (DFG 2021, S.2). Der VERBUND FDB (2015, S.6) riet bspw. zu einer "Auflistung aller Dokumente, die erstellt werden und zum Verständnis der Daten erforderlich sind". Dazu werden auch "Dokumente zur Kontaktaufnahme mit potenziellen Forschungsteilnehmenden (z.B. Anschreiben, Flyer, Aushänge, Anzeigen)" (HEUER et al. 2020, S.13) oder "Kontaktprotokolle" (VERBUND FDB 2015, S.6) gezählt. Wichtig kann dies insbesondere für die "Kontextualisierung" (HEUER et al. 2020, S.1-2) von Daten bei der Nachnutzung sein. [38]
In dem hier interessierenden Kontext von Rekrutierungsspuren bedeutet das zunächst, die digitalen Kontaktaufnahmen und geposteten Aufrufe zu dokumentieren, insbesondere wenn dabei personenbezogene Daten etwa in Form von (teil-)öffentlich sichtbaren Kommentaren generiert werden. Hierbei sollten Forschende festhalten, auf welchen Plattformen und mit welchen Mitteln sie welche Informationen über das Projekt verteilen. Dies kann zum einen dazu dienen, im Sinne der Datenminimierung bzw. -sparsamkeit Rekrutierungsspuren nach Abschluss der Rekrutierungsphase soweit möglich zu löschen (s. bspw. RODRIGUEZ 2018). Zu bedenken ist dabei, dass Löschen zwar meist bedeutet, dass die Daten für andere Nutzer:innen nicht mehr sichtbar sind, die Plattformen betreibenden Konzerne können diese potenziell allerdings länger speichern. Zum anderen kann eine genaue Dokumentation nicht nur für die eigene Datenproduktion sensibilisieren, sondern später auch bei der Entscheidung helfen, welche Informationen auf welche Weise anonymisiert werden müssen. Das heißt, dass Forschende neben vielen weiteren Aspekten auch online hinterlassene Rekrutierungsspuren in der prozessualen Entwicklung von Anonymisierungsstrategien berücksichtigen sollten (THOMSON et al. 2005). Eine solche Dokumentation könnte außerdem dazu beitragen, die Häufigkeit von Posts und Kommentierungen im Blick zu behalten, ähnlich wie es in Richtlinien zur Kontaktaufnahme bei telefonischen Befragungen vorgesehen ist (RATSWD 2017, S.22). Eine solche Dokumentation kann potenziell einen großen Aufwand bedeuten und bedarf entsprechend einer Nutzensabwägung. Zudem kann durch die Kommunikation der Forschenden im Rekrutierungsprozess die Reaktion der Teilnehmenden beeinflusst werden. BENDER et al. (2017, S.6ff.) zeigten auf, wie sie die von ihnen über soziale Netzwerke bereitgestellten Informationen so zuschnitten, dass diese zwar ein Teilnahmeinteresse generierten, aber Nutzer:innen gleichzeitig nicht zur Weitergabe persönlicher Informationen verleiteten. [39]
4.5 Öffentlichkeitsarbeit datenschutzsensibel gestalten und Erfahrungen teilen
Da Forschende immer häufiger online über den Forschungsprozess und -ergebnisse informieren und diesbezügliche Erwartungen erfüllen müssen (s. Abschnitt 3.5), gilt es, auch bei diesen Aktivitäten Fragen der Ethik, des Datenschutzes und des Datenmanagements mitzudenken. Sowohl die Gestaltung von Online-Identitäten als Forschende und Privatpersonen als auch die veröffentlichten Inhalte müssen dabei berücksichtigt werden. Da diese Aspekte bisher wenig thematisiert werden, ist der Austausch von Erfahrungen ein erster wichtiger Ansatzpunkt hierfür. Öffentlich zugängliche Erfahrungsberichte können Praktiken potenziell für Viele zugänglich machen und helfen, aus Fehlern oder Positivbeispielen zu lernen. PFEIFER (2021) stellte beispielsweise dar, wie sie und eine Kollegin für digitale ethnografische Forschung zu Aktivitäten des Islamischen Staates auf Telegram ein "research-only"-Profil erstellten. Zudem wurden eigens für die Forschung vorgesehene Smartphones genutzt. Ihre Namen und institutionellen Anbindungen gaben sie in der Kommunikation über Telegram der Transparenz wegen an. Nach einigen merkwürdigen Gesprächen entschied sich PFEIFER dazu, ihren Nachnamen und ihr Profilbild aus ihrem privaten Telegram-Account zu löschen, um die eigene Sicherheit und Privatsphäre zu schützen. Mit dem Ziel, Twitter-Trolle sichtbarer zu machen, berichtete CAMPBELL (2017) zum Beispiel davon, wie einer ihrer autoethnografischen Artikel über Twitter von einem anonymen Account, der es sich zum Ziel gesetzt hatte, "'idiotic' research" (§26) zu entlarven, mit hoher Reichweite geteilt wurde. In der Folge bekam sie viele, zum Teil persönlich verletzende Nachrichten von anderen Twitter-Nutzenden, fühlte sich zunehmend unwohl mit ihrer Präsenz auf Twitter und begann, Fotos zu löschen. Ihr Text ist ein interessantes Beispiel für nicht intendierte, negative Folgen von transparenter Online-Kommunikation über empirische Sozialforschung. [40]
Die beiden Beispiele zeigen für unterschiedliche Kontexte, wie wichtig und zugleich schwierig es ist, die private und professionelle Identität online voneinander zu trennen. In beiden Fällen reagierten die Forschenden mit dem Verändern oder Löschen von privaten Accounts und Informationen. Eine weitere Konsequenz aus diesen Beobachtungen könnte sein, dass Institutionen für ihre Mitarbeitenden professionelle Online-Identitäten schaffen, die nach der Rekrutierung gelöscht und klarer von privaten Accounts getrennt werden können. [41]
4.6 Teilnahmespuren finden und Teilnehmende sensibilisieren
Wie in Abschnitt 4.2 dargestellt, können auch Teilnehmende Anonymisierungsstrategien potenziell unterlaufen, wenn sie mit Ortsbezug und/oder identifizierbaren Namen über ihre Studienteilnahme im Internet berichten. Besonders wenn dies im Kontext kleinräumiger Untersuchungen geschieht, in denen sich die Befragten untereinander kennen, könnte dies Probleme für Anonymisierungen aufwerfen. Sowohl im Hinblick auf die Vermeidung der Schädigung anderer Studienteilnehmender als auch mit Blick auf den "Schutz von Forschenden" (RATSWD 2017, S.20) sollten diese Spuren besonders in sensiblen Forschungskontexten möglichst vermieden werden. [42]
Ganz ausschließen lassen sich solche Situationen aber wahrscheinlich nicht, dennoch können Teilnehmende dafür sensibilisiert werden. Denkbar wäre es, in bestimmten Forschungskontexten die informierte Einwilligung zu erweitern. SAUNDERS et al. (2015, S.628) schlugen bspw. vor, bereits in der Einwilligungserklärung auf zukünftige, noch nicht vorhersehbare Möglichkeiten der Deanonymisierung aufmerksam zu machen. Hierfür ist insbesondere der Hinweis von AHMED et al. (2017, S.101) von Bedeutung, dass Nutzer:innen vergangene Beiträge vergessen und damit nicht intendierte Folgen nicht vollumfänglich abschätzen können. Eine weitere Möglichkeit wäre es, einen Wechselseitigkeitsaspekt in das Formular aufzunehmen. Dann würden nicht nur Forschende den Teilnehmenden Vertraulichkeit zusichern, sondern auch die Studienteilnehmenden würden zustimmen, keine Informationen über ihre Teilnahme an der Studie ohne vorherige Absprache im Internet zu veröffentlichen. Eine solche Wechselseitigkeitserklärung würde jedoch eine weitere Verrechtlichung des Forschungsprozesses bedeuten, der gerade in der qualitativen Forschung zentral auf Vertrauen angewiesen ist. Da man bei vielen Teilnehmenden nicht davon ausgehen kann, dass sie viel Erfahrung mit qualitativer Sozialforschung mitbringen, könnte eine solche Erklärung zu Misstrauen gegenüber den Absichten und der Aufrichtigkeit der Forschenden führen. Das dadurch möglicherweise geschwächte Vertrauensverhältnis zwischen den involvierten Personen könnte eventuell sogar die Datenqualität negativ beeinflussen. [43]
Weniger invasiv wäre es, das eigene Forschungsprojekt regelmäßig im Internet zu suchen, eventuell auch durch automatisierte Benachrichtigungen, um so Teilnahmespuren zu identifizieren und die eigene Anonymisierungsstrategie daran anzupassen. Forschende können die veröffentlichende Person darüber hinaus mit Verweis auf die Schwierigkeiten des Datenschutzes und der Anonymisierung im Internet bitten, die Angaben zu löschen. Insgesamt müssen Datenerhebende einen Umgang mit den Spannungsfeldern zwischen Datenschutz und Erkenntnis beziehungsweise Anonymität und Öffentlichkeit, in denen sie sich befinden, entwickeln. Wir können es nur unwahrscheinlicher machen, dass es zu Deanonymisierung kommt, aber nicht 100%ig verhindern. Vermutlich geht vom eigentlichen Ziel der Forschungsarbeit – der Publikation von Ergebnissen – ein ungleich größeres Risiko zur Deanonymisierung aus als von Teilnehmenden, die online über ihre Teilnahme berichten. Denn die "Publikation führt dazu, dass Informationen einem potenziell unbegrenzten Personenkreis zugänglich werden und bedeutet daher einen besonders intensiven Eingriff in die Rechte der betroffenen Person" (RATSWD 2020, S.30). [44]
Selten hat es so viel Aufmerksamkeit gegeben für ethische und rechtliche Fragen des Datenschutzes in der qualitativen Forschung wie im Zusammenhang mit der Etablierung der Europäischen Datenschutz-Grundverordnung, der Zunahme von Open Access-Veröffentlichungen, den gestiegenen Anforderungen an wissenschaftliches Datenmanagement oder der Förderung von Sekundäranalysen und von einer "Kultur der Datenbereitstellung" (RATSWD 2015, S.1; s. auch DFG 2015, S.1). Dennoch verwies der RATSWD (2020, S.7) darauf, dass viele praktisch wichtige Fragen noch nicht im Detail beantwortet seien. Mit unserem Artikel zu Interaktionsspuren im digitalen Raum beleuchten wir ein solches Detail, das in unserer Forschungspraxis viele Fragen aufgeworfen hat: digitale Spuren der Kommunikation und Selbstdarstellung im Kontext qualitativer Forschung. Diese entstehen mit Blick auf die Rekrutierung oft zeitlich noch vor den für Analysen erhobenen Forschungsdaten; sie werden aber auch während des gesamten Forschungsprozesses weiter produziert: in der Öffentlichkeitsarbeit des Projektes, der Forschenden und der Studienteilnehmenden. Daten werden nicht nur erhoben oder verwendet, sondern in einem weiteren Sinne produziert. Wir hinterlassen digitale Interaktionsspuren verschiedener Art in unserer Forschung, auch wenn es sich nicht um "Internetforschung" im engeren Sinne handelt. Mit dem Phänomen der Interaktionsspuren im digitalen Raum reflektieren wir das Spannungsverhältnis zwischen der notwendigen Öffentlichkeit von Forschung – auch im Web 2.0 – und der Zusicherung von Anonymität an Studienteilnehmende. Das Web 2.0 macht dabei einen Unterschied, weil die Möglichkeiten der Identifizierung erhöht werden, auch weil die technischen Möglichkeiten zur Verknüpfung von Daten vor dem Hintergrund einer zunehmenden freien Verfügbarkeit von Informationen und Publikationen wachsen (MEYERMANN & PORZELT 2019, S.7; SCHAAR 2009, S.4). Entsprechend betonte auch der RATSWD (2017, S.38), mit der Digitalisierung gehe eine "zunehmende Verantwortung gegenüber Teilnehmenden und eine zunehmende Bedeutung forschungsethischer Fragen" einher. Dass qualitative Forschung hierbei aufgrund der begrenzten Teilnehmendenzahlen und dem persönlichen Verhältnis zwischen Forschenden und Beforschten vor besonderen Anonymisierungsherausforderungen steht, haben wir im Literaturreview (s. Abschnitt 3) dargelegt. [45]
Vor dem Hintergrund der mit Interaktionsspuren im digitalen Raum verbundenen Deanonymisierungsgefahren plädieren wir für Sensibilität und Reflexivität als Grundlage für die Entwicklung projektspezifischer Strategien. Mit dem hinleitende Beispiel in Abschnitt 2 zeigten wir die vielen in diesem Kontext zu treffenden Entscheidungen in unterschiedlichen Phasen der Forschung und deuteten an, dass Forschende einmal gewählte Strategien immer wieder überprüfen und bei Bedarf anpassen müssen. Deshalb rufen wir Forschende auf, sich über die eigenen Entscheidungen im Spannungsverhältnis zwischen digitaler Präsenz, Projekt- und Selbstvermarktung, über die Vermeidung von Deanonymisierungsgefahren sowie über die Wahrung der eigenen Privatsphäre miteinander auszutauschen. [46]
Anhang: Checkliste zum Umgang mit digitalen Interaktionsspuren
(s. Abschnitt 4)
1. Datensensible Konzeption
Gibt es einen Datenmanagementplan für das Projekt, durch den der Datenschutz für alle Teil-Prozesse abgedeckt wird (inklusive Rekrutierung und Öffentlichkeitsarbeit)? Wurden verantwortliche Personen für Datenschutz und Forschungsethik festgelegt? Ist sichergestellt, dass für Teilnehmende keine zusätzlichen Arbeitsschritte zur Wahrung ihrer Anonymität notwendig sind? Hat eine unabhängige Instanz die vorgesehenen Datenschutzprozesse begutachtet? Können alle Interessierten und Teilnehmenden Informationen zum praktischen Umgang mit Datenschutz im Forschungsvorhaben einsehen? Haben Teilnehmende die Möglichkeit, Datenschutzprozesse kritisch zu kommentieren? Werden Teilnehmende wiederholt für Zurückhaltung in der Online-Kommunikation über das Forschungsvorhaben sensibilisiert?
2. Wissen über Plattformen, Werkzeuge und digitale Orte
Sind die Forschenden mit den geltenden gesetzlichen Datenschutzvorgaben vertraut? Haben sie die Datensicherheit der genutzten Online-Medien auf Basis vergangener Ereignisse und bestehender Standards (bspw. Verschlüsselung) kritisch abgewogen? Sind sie mit den genutzten sozialen Medien und deren Datenschutzvorgaben vertraut? Sind sie mit den im Land der Durchführung geltenden gesetzlichen Datenschutzvorgaben vertraut? Werden die im genutzten Online-Medium vorgesehenen Datenschutzoptionen maximal ausgenutzt (bspw. hinsichtlich Geolokation)? Werden Datenschutzeinstellungen im genutzten Online-Medium periodisch und insbesondere nach AGB-Anpassungen geprüft und ggf. angepasst? Werden die Teilnehmenden über die zu wählenden Datenschutzeinstellungen und deren Bedeutung informiert? Werden durch Teilnehmende im Projektzusammenhang online geteilte Informationen periodisch auf datenschutzbezogene Aspekte geprüft (bspw. Namen anderer Teilnehmender, Orte, Daten)?
3. Beschränkung technischer Zugangsmöglichkeiten für Dritte
Sind projektbezogene Daten durch Verschlüsselung und/oder personalisierte Zugangsmöglichkeiten im Zugang beschränkt? Nutzen Teilnehmende und Forschende verschlüsselte Kommunikationswerkzeuge (z.B. TOR, VPN)? Werden Kommentare zu projektbezogenen Posts in sozialen Medien moderiert bzw. deaktiviert? Werden digitale Endgeräte bei physischen Treffen deaktiviert?
4. Verwischen von Interaktionsspuren
Werden Art und Ort der im Projekt anfallenden digitalen Interaktionsspuren (bzgl. Rekrutierung, Öffentlichkeitsarbeit, Teilnahme) dokumentiert (bspw. digitale Aufrufe, genutzte Plattformen, Kommentare der Teilnehmenden)? Löschen die Forschenden alte projektbezogene Inhalte und darauf bezogene Interaktionen auf sozialen Medien vollständig, sobald diese nicht mehr erforderlich sind? Werden entstehende Interaktionsspuren hinsichtlich ihrer Konsequenzen für spätere Anonymisierung reflektiert? Wird z.B. jeder Online-Post im Kontext eigener Öffentlichkeitsarbeit auf seine Konsequenzen für spätere Anonymisierung hin reflektiert? Sind Anonymisierungsprozeduren vorgesehen, bei denen potenzielle digitale Interaktionsspuren mitberücksichtigt werden (bspw. öffentliche Aufrufe für Gruppendiskussionen)? Animieren projektbezogene Inhalte Teilnehmende und Interessierte dazu, personenbezogene Daten zu veröffentlichen? Werden Teilnehmendenspuren gesucht (z.B. automatisierte Benachrichtigung bei Nennung des Projekttitels)?
1) Oft wird zwischen "Daten" und "Informationen" unterschieden, wenn Daten eine semantische Bedeutung zugewiesen wird und sie damit kontextualisiert werden (BODENDORF 2006, S.1-2). Von "Wissen" spricht man, wenn diese Informationen wiederum untereinander vernünftig in Bezug gesetzt werden können (a.a.O.). Zwischen isolierten, kontextunabhängigen Daten und vernetztem, kontextabhängigem Wissen besteht ein Kontinuum, sodass "Daten", "Informationen" und "Wissen" nicht trennscharf zu differenzieren sind (a.a.O.). Für Datenschutz und Forschungsethik ist die Frage zentral, wann Daten so mit Bedeutung aufgeladen werden, dass sie zu Informationen über die Befragten werden. In der Datenschutz-Grundverordnung (DSGVO) wird dazu der Begriff "personenbezogene Daten" eingeführt. Damit werden Informationen bezeichnet, die ermöglichen, eine natürliche Person "direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind" zu verbinden (EP & RAT 2016, S.33). <zurück>
2) BACHMANN et al. (2021, S.18) folgend verstehen wir Anonymität breit als ein zerbrechliches und oft vorläufiges praktisches Verhältnis, das über Techniken zur Verhinderung von Identifizierung hinausgeht und aktuell vielfältigen Neuanordnungen unterliegt. <zurück>
3) Diese drei Dienste wurden als aktuell besonders relevant identifiziert, weil die deutsche Bevölkerung WhatsApp und Facebook Messenger breit und oft nutzt (BUNDESNETZAGENTUR 2022, S.13) und Wissenschaftler:innen insbesondere Facebook und Twitter zur Wissenschaftskommunikation verwenden (HENNIG & KOHLER 2020, S.606). <zurück>
ADM, ASI, BVM & DGOF (Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute, Arbeitsgemeinschaft Sozialwissenschaftlicher Institute, Berufsverband Deutscher Markt- und Sozialforscher & Deutsche Gesellschaft für Online-Forschung) (Hrsg.) (2021). Richtlinie für Untersuchungen in den und mittels der Sozialen Medien, https://www.dgof.de/wp-content/uploads/2021/03/RL-Soziale-Medien-neu-2021-3.3.2021.pdf [Datum des Zugriffs: 12. Januar 2022].
Akesson, Bree; Hoffman, David A.; El Joueidi, Samia & Badawi, Dena (2018). "So the world will know our story": Ethical reflections on research with families displaced by war. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 19(3), Art. 5, https://doi.org/10.17169/FQS-19.3.3087 [Datum des Zugriffs: 10. August 2022].
Ahmed, Wasim; Bath, Peter A. & Demartini, Gianluca (2017). Chapter 4: Using Twitter as a data source: An overview of ethical, legal, and methodological challenges. In Kandy Woodfield (Hrsg.), The ethics of online research (S.79-107). Bingley: Emerald.
Arigo, Danielle; Pagoto, Sherry; Carter-Harris, Lisa; Lillie, Sarah E. & Nebeker, Camille (2018). Using social media for health research: Methodological and ethical considerations for recruitment and intervention delivery. Digital Health, 4, 1-15, https://doi.org/10.1177/2055207618771757 [Datum des Zugriffs: 10. August 2022].
Bachmann, Götz; McHardy, Julien; Knecht, Michi & Zurawski, Nils (2021). Toward a kaleidoscopic understanding of anonymity. In Anon Collective (Hrsg.), Book of anonymity (S.16-34). Milky Way, Earth: punctum books, https://doi.org/10.21983/P3.0315.1.00 [Datum des Zugriffs: 10. August 2022].
Barratt, Monica J. & Maddox, Alexia (2016). Active engagement with stigmatised communities through digital ethnography. Qualitative Research, 16(6), 701-719.
Bayer, Sonja; Breuer, Johannes; Lösch, Thomas & Goebel, Jürgen W. (2021). Nutzung von Social-Media-Daten in der Bildungsforschung (1.1). forschungsdaten bildung informiert, 9, https://www.forschungsdaten-bildung.de/files/fdb-informiert-nr-9_version1.1.pdf [Datum des Zugriffs: 3. August 2021].
Bell, Cynthia J.; Spruit, Jessica L. & Kavanaugh, Karen L. (2020). Exposing the risks of social media recruitment in adolescents and young adults with cancer: #Beware. Journal of Adolescent and Young Adult Oncology, 9(5), 601-607.
Bender, Jacqueline L.; Cyr, Alaina B.; Arbuckle, Luk & Ferris, Lorraine E. (2017). Ethics and privacy implications of using the internet and social media to recruit participants for health research: A privacy-by-design framework for online recruitment. Journal of Medical Internet Research, 19(4), Art. e104, https://doi.org/10.2196/jmir.7029 [Datum des Zugriffs: 10. August 2021].
Beneito-Montagut, Roser (2011). Ethnography goes online: Towards a user-centred methodology to research interpersonal communication on the internet. Qualitative Research, 11(6), 716-735.
Beninger, Kelsey; Fry, Alexandra; Jago, Natalie; Lepps, Hayley; Nass, Laura & Silvester, Hannah (2014). Research using social media: Users' views. NatCen Social Research, https://www.natcen.ac.uk/media/282288/p0639-research-using-social-media-report-final-190214.pdf [Datum des Zugriffs: 10. August 2022].
Bleckmann, Paula & Jukschat, Nadine (2015). The integrated model of (dys-) functionality: Reconstructing patterns of gaming as self-medication in biographical interviews with video game addicts. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 16(3), Art. 8, https://doi.org/10.17169/FQS-16.3.2276 [Datum des Zugriffs: 10. August 2022].
Bodendorf, Freimut (2006). Daten- und Wissensmanagement (2. Aufl.). Berlin: Springer.
Buchanan, Elizabeth A. & Zimmer, Michael (2021). Internet research ethics. In Edwartd N. Zalta (Hrsg.), The Stanford encyclopedia of philosophy (Summer 2021 ed.), https://plato.stanford.edu/archives/sum2021/entries/ethics-internet-research/ [Datum des Zugriffs: 30. Juli 2021].
Bundesnetzagentur (Bundesnetzagentur für Elektrizität, Gas, Telekommunikation, Post und Eisenbahn) (Hrsg.) (2022). Nutzung von Online-Kommunikationsdiensten in Deutschland. Ergebnisse der Verbraucherbefragung 2021, https://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Sachgebiete/Digitales/OnlineKom/befragung_lang21.pdf?__blob=publicationFile&v=3 [Datum des Zugriffs: 7. Juni 2022].
Campbell, Elaine (2017). "Apparently being a self-obsessed c**t is now academically lauded": Experiencing twitter trolling of autoethnographers. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 18(3), Art. 16, https://doi.org/10.17169/FQS-18.3.2819 [Datum des Zugriffs: 10. August 2022].
Cudjoe, Joycelyn; Turkson-Ocran, Ruth-Alma; Ezeigwe, Angelica K.; Commodore-Mensah, Yvonne; Nkimbeng, Manka & Han, Hae-Ra (2019). Recruiting African immigrant women for community-based cancer prevention studies: Lessons learned from the AfroPap study. Journal of Community Health, 44(5), 1019-1026.
Czepkiewicz, Michał; Jankowski, Piotr & Młodkowski, Marek (2017). Geo-questionnaires in urban planning: Recruitment methods, participant engagement, and data quality. Cartography and Geographic Information Science, 44(6), 551-567.
Dawson, Phillip (2014). Our anonymous online research participants are not always anonymous: Is this a problem?. British Journal of Educational Technology, 45(3), 428-437.
Deppermann, Arnulf (2013). Interview als Text vs. Interview als Interaktion. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 14(3), Art 13, https://doi.org/10.17169/fqs-14.3.2064 [Datum des Zugriffs: 10. August 2022].
DFG (Deutsche Forschungsgemeinschaft) (2015). Leitlinien zum Umgang mit Forschungsdaten, https://www.dfg.de/download/pdf/foerderung/grundlagen_dfg_foerderung/forschungsdaten/leitlinien_forschungsdaten.pdf [Datum des Zugriffs: 17. Februar 2022].
DFG (Deutsche Forschungsgemeinschaft) (2019). Leitlinien zur Sicherung guter wissenschaftlicher Praxis. Kodex, https://www.dfg.de/download/pdf/foerderung/rechtliche_rahmenbedingungen/gute_wissenschaftliche_praxis/kodex_gwp.pdf [Datum des Zugriffs: 30 Juli 2021].
DFG (Deutsche Forschungsgemeinschaft) (2021). Checkliste zum Umgang mit Forschungsdaten, https://www.dfg.de/download/pdf/foerderung/grundlagen_dfg_foerderung/forschungsdaten/forschungsdaten_checkliste_de.pdf [Datum des Zugriffs: 30. Juli 2021].
Diaz-Bone, Rainer (2021). Überlegungen zu Auswirkungen von Digitalisierung auf (qualitative) Sozialforschung, https://berliner-methodentreffen.de/wp-content/uploads/2021/10/Diaz-Bone_2021.pdf [Datum des Zugriffs: 20. Oktober 2021].
Duffy, Brooke E. & Chan, Ngai K. (2019). "You never really know who's looking": Imagined surveillance across social media platforms. New Media & Society, 21(1), 119-138, https://doi.org/10.1177%2F1461444818791318 [Datum des Zugriffs: 10. August 2022].
EP & Rat (Europäisches Parlament & Rat der Europäischen Union) (2016). Verordnung (EU) 2016/679 vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG. Datenschutz-Grundverordnung. Amtsblatt der Europäischen Union, https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:32016R0679 [Datum des Zugriffs: 17. Februar 2022].
Eynon, Rebecca; Fry, Jenny & Schroeder, Ralph (2017). The ethics of online research. In Nigel G. Fielding, Raymond M. Lee & Grant Blank (Hrsg.), The SAGE handbook of online research methods (2. Aufl., S.19-38). Los Angeles, CA: Sage.
Falter, Michelle; Arenas, Aaron A.; Maples, Gordon W.; Smith, Chelsea T.; Lamb, Lisa J.; Anderson, Michael G.; Uzzell, Elizabeth M.; Jacobs, Laura E.; Cason, Xavier L.; Griffis, Tiara A.; Polzin, Megan & Wafa, Nada Z. (2022). Making room for Zoom in focus group methods: Opportunities and challenges for novice researchers (during and beyond Covid-19). Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 23(1), Art. 21, https://doi.org/10.17169/FQS-23.1.3768 [Datum des Zugriffs: 10. August 2022].
Ferguson, Rachael-Heath (2017). Offline "stranger" and online lurker: Methods for an ethnography of illicit transactions on the darknet. Qualitative Research, 17(6), 683-698.
Gebel, Tobias; Grenzer, Matthis; Kreusch, Julia; Liebig, Stefan; Schuster, Heidi; Tscherwinka, Ralf; Watteler, Oliver & Witzel, Andreas (2015). Verboten ist, was nicht ausdrücklich erlaubt ist: Datenschutz in qualitativen Interviews. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 16(2), Art. 27, https://doi.org/10.17169/fqs-16.2.2266 [Datum des Zugriffs: 10. August 2022].
Gelinas, Luke; Pierce, Robin; Winkler, Sabune; Cohen, I. Glenn; Lynch, Holly F. & Bierer, Barbara E. (2017). Using social media as a research recruitment tool: Ethical issues and recommendations. The American Journal of Bioethics, 17(3), 3-14.
Gerrard, Ysabel (2020). What's in a (pseudo)name? Ethical conundrums for the principles of anonymisation in social media research. Qualitative Research, 21(5), 686-702, https://doi.org/10.1177/1468794120922070 [Datum des Zugriffs: 10. August 2022].
Golla, Sebastian J.; Hofmann, Henning & Bäcker, Matthias (2018). Connecting the Dots. Sozialwissenschaftliche Forschung in Sozialen Online-Medien im Lichte von DS-GVO und BDSG-neu. Datenschutz und Datensicherheit, 42(2), 89-100.
Grové, Christine (2019). Using social networking sites in research: An emerging approach to engaging with young people who have a parent with a mental illness and/or substance abuse disorder. Frontiers in Psychiatry, 10, Art. 281, https://doi.org/10.3389/fpsyt.2019.00281 [Datum des Zugriffs: 10. August 2022].
Hagen, Sunniva; Bishop, Elizabeth Lea.; Koščík, Michal; Vavra, Martin; Štebe, Janez; Ryan, Lorna; Payne, Eva; Løvlie, Audun G.; Rød, Linn-Merethe; Straume, Øyvind & Høgetveit Myhren, Marianne (2019). Report on legal and ethical framework and strategies related to access, use, re-use, dissemination and preservation of social media data. Deliverable 6.3 of the SERISS project, https://seriss.eu/resources/deliverables [Datum des Zugriffs: 17. Februar 2022].
Henderson, Michael; Johnson, Nicola F. & Auld, Glenn (2013). Silences of ethical practice: Dilemmas for researchers using social media. Educational Research and Evaluation, 19(6), 546-560.
Hennig, Anne & Kohler, Sarah (2020). Einflussfaktoren bei der Social-Media-Nutzung in der Wissenschaftskommunikation. Publizistik, 65(4), 593-615, https://doi.org/10.1007/s11616-020-00618-z [Datum des Zugriffs: 10. August 2022].
Heuer, Jan-Ocko; Kretzer, Susanne; Mozygemba, Kati; Huber, Elisabeth & Hollstein, Betina (2020). Kontextualisierung qualitativer Forschungsdaten für die Nachnutzung – eine Handreichung für Forschende zur Erstellung eines Studienreports. Qualiservice Working Papers, 1-2020, https://doi.org/10.26092/elib/166 [Datum des Zugriffs: 10. August 2022].
Hunter, Ruth F.; Gough, Aisling; O'Kane, Niamh; McKeown, Gary; Fitzpatrick, Aine; Walker, Tom; McKinley, Michelle; Lee, Mandy & Kee, Frank (2018). Ethical issues in social media research for public health. American Journal of Public Health, 108(3), 343-348.
Kamp, Kendra; Herbell, Kayla; Magginis, William H.; Berry, Donna & Given, Barbara (2019). Facebook recruitment and the protection of human subjects. Western Journal of Nursing Research, 41(9), 1270-1281.
King, David B.; O'Rourke, Norm & DeLongis, Anita (2014). Social media recruitment and online data collection: A beginner's guide and best practices for accessing low-prevalence and hard-to-reach populations. Canadian Psychology/Psychologie canadienne, 55(4), 240-249.
Koschmieder, Nikola; Wyss, Sabrina & Pfister, Andreas (2021). "Es ist die Suche nach der Nadel im Heuhaufen". Methodologische Reflexionen zur Rekrutierung sozioökonomisch benachteiligter Familien in qualitativen Studien. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 22(2), Art. 6, https://doi.org/10.17169/fqs-22.2.3609 [Datum des Zugriffs: 10. August 2022].
Kretzer, Susanne; Mozygemba, Kati; Heuer, Jan-Ocko & Huber, Elisabeth (2020). Erläuterungen zur Verwendung der von Qualiservice bereitgestellten Vorlagen für die informierte Einwilligung. Qualiservice Working Papers, 2-2020, https://doi.org/10.26092/elib/192 [Datum des Zugriffs: 10. August 2022].
Laudel, Grit & Bielick, Jana (2019). Forschungspraktische Probleme bei der Archivierung von leitfadengestützten Interviews. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 20(2), Art. 10, https://doi.org/10.17169/FQS-20.2.3077 [Datum des Zugriffs: 10. August 2022].
Legewie, Nicolas & Nassauer, Anne (2018). YouTube, Google, Facebook: 21st century online video research and research ethics. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 19(3), Art. 32, https://doi.org/10.17169/FQS-19.3.3130 [Datum des Zugriffs: 10. August 2022].
Leith, Douglas J. (2021). Mobile handset privacy: Measuring the data iOS and Android send to Apple and Google. In Joaquin Garcia-Alfaro, Shujun Li, Radha Poovendran, Hervé Debar & Moti Yung (Hrsg.), Security and privacy in communication networks (S.231-251). Cham: Springer.
Lewis, Kevin; Kaufman, Jason; Gonzalez, Marco; Wimmer, Andreas & Christakis, Nicholas (2008). Tastes, ties, and time: A new social network dataset using Facebook.com. Social Networks, 30(4), 330-342.
Lindner, Rolf (1981). Die Angst des Forschers vor dem Feld. Überlegungen zur teilnehmenden Beobachtung als Interaktionsprozeß. Zeitschrift für Volkskunde, 77, 51-66.
Lochner, Barbara (2017). "Kevin kann einfach auch nicht Paul heißen". Methodologische Überlegungen zur Anonymisierung von Namen. Zeitschrift für Qualitative Forschung, 18(2), 283-296, https://doi.org/10.3224/zqf.v18i2.07 [Datum des Zugriffs: 10. August 2022].
Lunnay, Belinda; Borlagdan, Joseph; McNaughton, Darlene & Ward, Paul (2015). Ethical use of social media to facilitate qualitative research. Qualitative Health Research, 25(1), 99-109.
Mare, Admire (2017). Tracing and archiving "constructed" data on Facebook pages and groups: Reflections on fieldwork among young activists in Zimbabwe and South Africa. Qualitative Research, 17(6), 645-663.
Marland, Alex & Esselment, Anna L. (2019). Negotiating with gatekeepers to get interviews with politicians: Qualitative research recruitment in a digital media environment. Qualitative Research, 19(6), 685-702.
Matzner, Tobias & Ochs, Carsten (2017). Sorting things out ethically. Privacy as a research issue beyond the individual. In Michael Zimmer & Katharina Kinder-Kurlanda (Hrsg.), Internet research ethics for the social age. New challenges, cases, and contexts (S.39-52). New York, NY: Peter Lang.
Meyermann, Alexia & Porzelt, Maike (2014). Hinweise zur Anonymisierung von qualitativen Daten. Version 1.1. forschungsdaten bildung informiert, 1, https://doi.org/10.25656/01:21968 [Datum des Zugriffs: 10. August 2022].
Meyermann, Alexia & Porzelt, Maike (2019). Datenschutzrechtliche Anforderungen in der empirischen Bildungsforschung – eine Handreichung (2 Aufl.) Forschungsdaten bildung informiert, 6, https://doi.org/10.25656/01:21990 [Datum des Zugriffs: 10. August 2022].
Moreno, Megan A.; Goniu, Natalie; Moreno, Peter S. & Diekema, Douglas (2013). Ethics of social media research: Common concerns and practical considerations. Cyberpsychology, Behavior and Social Networking, 16(9), 708-713.
Pfeifer, Simone (2021). How can you approach the field digitally? Reflections on using social media profiles in ethnographic research, https://digitalethnography.at/how-can-you-approach-the-field-digitally-reflections-on-using-social-media-profiles-in-ethnographic-research/ [Datum des Zugriffs: 10. August 2022].
RatSWD (Rat für Sozial- und Wirtschaftsdaten) (Hrsg.) (2015). Stellungnahme des RatSWD zur Archivierung und Sekundärnutzung von Daten der qualitativen Sozialforschung. RatSWD Output, 1(5), https://www.konsortswd.de/wp-content/uploads/RatSWD_Stellungnahme_QualiDaten.pdf [Datum des Zugriffs: 17. Februar 2022].
RatSWD (Rat für Sozial- und Wirtschaftsdaten) (Hrsg.) (2017). Forschungsethische Grundsätze und Prüfverfahren in den Sozial- und Wirtschaftswissenschaften. RatSWD Output, 9(5), https://doi.org/10.17620/02671.1 [Datum des Zugriffs: 10. August 2022].
RatSWD (Rat für Sozial- und Wirtschaftsdaten) (Hrsg.) (2018). Forschungsdatenmanagement in den Sozial-, Verhaltens- und Wirtschaftswissenschaften. Orientierungshilfen für die Beantragung und Begutachtung datengenerierender und datennutzender Forschungsprojekte (2. Aufl.). RatSWD Output, 3(5), https://doi.org/10.17620/02671.7 [Datum des Zugriffs: 10. August 2022].
RatSWD (Rat für Sozial- und Wirtschaftsdaten) (Hrsg.) (2020). Handreichung Datenschutz (2. Aufl.). RatSWD Output, 8(6), https://doi.org/10.17620/02671.50 [Datum des Zugriffs: 10. August 2022].
Reichertz, Jo (2015). Wie mit den Daten umgehen? Persönlichkeitsrechte und Datenschutz in der Qualitativen Sozialforschung. Soziologie, 44(2), 186-202.
Reichertz, Jo (2020). Corona und der Stillstand sozialwissenschaftlicher Forschung – Aufruf zur Einrichtung eines Forums auf dem DGS-SozBlog, https://www.kulturwissenschaften.de/reichertz-aufruf-forum/ [Datum des Zugriffs: 5. November 2021].
Rodriguez, Leonor (2018). Methodological challenges of sensitive topic research with adolescents. Qualitative Research Journal, 18(1), 22-32.
Roth, Wolff-Michael (2004). Qualitative Forschung und Ethik. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 5(2), Art. 7, https://doi.org/10.17169/fqs-5.2.614 [Datum des Zugriffs: 10. August 2022].
Roth, Wolff-Michael & Unger, Hella von (2018). Current perspectives on research ethics in qualitative research. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 19(3), Art 33, https://doi.org/10.17169/fqs-19.3.3155 [Datum des Zugriffs: 10. August 2022].
Sanchez, Catherine; Grzenda, Adrienne; Varias, Andrea; Widge, Alik S.; Carpenter, Linda L.; McDonald, William M.; Nemeroff, Charles B.; Kalin, Ned H.; Martin, Glenn; Tohen, Mauricio; Filippou-Frye, Maria; Ramsey, Drew; Linos, Eleni; Mangurian, Christina & Rodriguez, Carolyn I. (2020). Social media recruitment for mental health research: A systematic review. Comprehensive Psychiatry, 103, Art. 152197, https://doi.org/10.1016/j.comppsych.2020.152197 [Datum des Zugriffs: 10. August 2022].
Saunders, Benjamin; Kitzinger, Jenny & Kitzinger, Celia (2015). Anonymising interview data: Challenges and compromise in practice. Qualitative Research, 15(5), 616-632, https://doi.org/10.1177/1468794114550439 [Datum des Zugriffs: 10. August 2022].
Schaar, Katrin (2017). Die informierte Einwilligung als Voraussetzung für die (Nach-)nutzung von Forschungsdaten. Beitrag zur Standardisierung von Einwilligungserklärungen im Forschungsbereich unter Einbeziehung der Vorgaben der DS-GVO und Ethikvorgaben. RatSWD Working Paper, 264, https://doi.org/10.17620/02671.12 [Datum des Zugriffs: 10. August 2022].
Schaar, Peter (2009). Data protection and statistics—a dynamic and tension-filled relationship. RatSWD Working Paper, 82, http://hdl.handle.net/10419/186190 [Datum des Zugriffs: 11. August 2022].
Schmidt-Lux, Thomas & Wohlrab-Sahr, Monika (2020). Qualitative Online-Forschung. Methodische und methodologische Herausforderungen. Zeitschrift für Qualitative Forschung, 21(1), 3-11.
Seko, Yukari (2013). Picturesque wounds: A multimodal analysis of self-injury photographs on Flickr. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 14(2), Art. 22, https://doi.org/10.17169/FQS-14.2.1935 [Datum des Zugriffs: 11. August 2022].
Sikkens, Elga; van San, Marion; Sieckelinck, Stijn; Boeije, Hennie & Winter, Micha de (2017). Participant recruitment through social media: Lessons learned from a qualitative radicalization study using Facebook. Field Methods, 29(2), 130-139.
Thomson, Denise; Bzdel, Lana; Golden-Biddle, Karen; Reay, Trish & Estabrooks, Carole A. (2005). Central questions of anonymization: A case study of secondary use of qualitative data. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 6(1), Art. 29, https://doi.org/10.17169/fqs-6.1.511 [Datum des Zugriffs: 10. August 2022].
Tiidenberg, Katrin (2020). Research ethics, vulnerability, and trust on the internet. In Jeremy Hunsinger, Matthew M. Allen & Lisbeth Klastrup (Hrsg.), Second international handbook of internet research (S.569-583). Dordrecht: Springer.
Tilley, Liz & Woodthorpe, Kate (2011). Is it the end for anonymity as we know it? A critical examination of the ethical principle of anonymity in the context of 21st century demands on the qualitative researcher. Qualitative Research, 11(2), 197-212.
Vainio, Annukka (2013). Beyond research ethics: Anonymity as "ontology", "analysis" and "independence". Qualitative Research, 13(6), 685-698.
Van Baalen, Sebastian (2018). "Google wants to know your location": The ethical challenges of fieldwork in the digital age. Research Ethics, 14(4), 1-17, https://doi.org/10.1177/1747016117750312 [Datum des Zugriffs: 11. August 2022].
Verbund FDB (Verbund Forschungsdaten Bildung) (Hrsg.) (2015). Checkliste zur Erstellung eines Datenmanagementplans in der empirischen Bildungsforschung (1.1). fdbinfo, 2, https://www.forschungsdaten-bildung.de/files/fdbinfo_2.pdf [Datum des Zugriffs: 03. August 2021].
Woodfield, Kandy & Iphofen, Ron (2017). Introduction to Volume 2: The ethics of online research. In Kandy Woodfield (Hrsg.), The ethics of online research (Bd. 2, S.1-12). Bingley: Emerald.
Zimmer, Michael (2010). "But the data is already public": On the ethics of research in Facebook. Ethics and Information Technology, 12(4), 313-325.
Zimmer, Michael & Kinder-Kurlanda, Katharina (Hrsg.) (2017). Internet research ethics for the social age. New challenges, cases, and contexts. New York, NY: Peter Lang.
Zu den Autorinnen und zum Autor
Susann BISCHOF ist wissenschaftliche Mitarbeiterin am Thünen-Institut für Lebensverhältnisse in ländlichen Räumen in Braunschweig und Promotionsstudentin an der Sozialwissenschaftlichen Fakultät der Universität Göttingen. Zuvor war sie wissenschaftliche Referentin am Institut für Demokratie und Zivilgesellschaft (IDZ) in Jena (2016-2018). Sie studierte Soziologie, Philosophie und Gesellschaftstheorie an der Universität Jena. Ihre Forschungsschwerpunkte sind ländliche Räume, Alltagsvorstellungen von Politik, soziale und räumliche Ungleichheiten, Rechtsradikalismus und qualitative Sozialforschung.
Kontakt:
Susann Bischof
Johann-Heinrich von Thünen-Institut
Thünen-Institut für Lebensverhältnisse in ländlichen Räumen
Bundesallee 64, 38118 Braunschweig
E-Mail: susann.bischof@thuenen.de
URL: https://orcid.org/0000-0003-0120-506X
Franziska LENGERER ist seit 2019 wissenschaftliche Mitarbeiterin am Thünen-Institut für Lebensverhältnisse in ländlichen Räumen in Braunschweig und seit 2020 Promovierende an der Universität Groningen im Bereich "Rural Geography". Sie absolvierte ihr Bachelorstudium "Interkulturelle Studien" mit den Schwerpunkten Sozialgeografie und Anglistik an der Universität Bayreuth und der Universität Chester. Daran schloss sie ihr Masterstudium "Geographie des Globalen Wandels" an der Albert-Ludwigs-Universität Freiburg an. Ihre Forschungsschwerpunkte sind ländliche Räume, Formen lokaler Selbstorganisation und Beteiligung, Gerechtigkeitsvorstellungen, Wohnbiografien, raumsensible qualitative Sozialforschung und Mixed Methods.
Kontakt:
Franziska Lengerer
Johann-Heinrich von Thünen-Institut
Thünen-Institut für Lebensverhältnisse in ländlichen Räumen
Bundesallee 64, 38116 Braunschweig
E-Mail: franziska.lengerer@thuenen.de
URL: https://orcid.org/0000-0001-8584-9430
Frank MEYER ist seit 2018 wissenschaftlicher Mitarbeiter an der TU Dresden. Zwischen 2010 und 2019 war er wissenschaftlicher Mitarbeiter am Leibniz-Institut für Länderkunde in Leipzig. Nach seinem Diplomabschluss der Geografie an der Universität Leipzig promovierte er im Jahr 2019 zu kirchlichen Restrukturierungsbemühungen in ländlichen Regionen. Seine Arbeitsschwerpunkte sind Religionsgeografie (als einer der Sprecher des AK Religionsgeographie), Globalisierungsforschung, Geografien ländlicher Regionen, politische Geografie, Migrationsforschung und die theoretischen und methodologischen Grundlagen geografischer Forschung. Er leitet zudem ein DFG-Netzwerk von Geograph:innen zur Visualisierung qualitativer Forschung (zusammen mit Kristine BEURSKENS und Francis HARVEY).
Kontakt:
Frank Meyer
TU Dresden
Institut für Geographie, Professur für Humangeographie
Helmholtzstr. 10, 01069 Dresden
E-Mail: frank.meyer1@tu-dresden.de
URL: https://tu-dresden.de/bu/umwelt/geo/geographie/humangeo/die-professur/team/meyer, https://orcid.org/0000-0001-9819-1914
Bischof, Susann; Lengerer, Franziska & Meyer, Frank (2022). Interaktionsspuren im digitalen Raum: Zum Spannungsfeld von Öffentlichkeit und Anonymität in qualitativen Forschungsprozessen [46 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 23(3), Art. 9, https://doi.org/10.17169/fqs-23.3.3893.