Volume 3, No. 2, Art. 8 – Mai 2002
Technikeinsatz im qualitativen Forschungsprozess. Einführung zu FQS Band 3(2)
Graham R. Gibbs, Susanne Friese & Wilma C. Mangabeira
Zusammenfassung: So wie die Gesellschaft sich durch neue Technologien verändert und verändert wird, so ändert sich auch die Art und Weise, wie qualitative Forscher und Forscherinnen (welche) Daten erheben und wie sie diese analysieren. Der folgende Aufsatz skizziert diese Entwicklung entlang der in der vorliegenden FQS-Schwerpunktausgabe veröffentlichten Beiträge.
Die Verbreitung von Video- und Bildtechnologien bedeutet, dass Bilder und Illustrationen zum einen als Datenmaterial, zum anderen aber auch als Erhebungswerkzeuge verwendet werden können. Da Audio- und Videodaten nun immer häufiger auch digital vorliegen, werden außerdem neue Arten der Datenverarbeitung und -analyse möglich. Die parallele Entwicklung des Internets bietet zusätzliche Möglichkeiten der Datenerhebung und neue Kontexte, die untersucht werden können. Dies wirft die Frage neu auf, wie Forscher und Forscherinnen welche Daten erheben, verarbeiten, analysieren und veröffentlichen.
Digitale Technologien haben auch die Voraussetzung für neue computergestützte Analysemöglichkeiten geschaffen. Heutzutage ist eine Reihe von Analyseprogrammen erhältlich, die infolge der gewachsenen Nachfrage ständig erweitert und verbessert werden. Hieraus erwachsen neue Herausforderungen, angefangen beim Erlernen der weiterentwickelten Programme bis hin zu Fragen der Datensicherung, des Datenaustauschs und der Datenanalyse.
Die Popularität von computergestützten qualitativen Analyseprogrammen (CAQDAS) ist nicht gleichzusetzen mit deren unkritischer Akzeptanz. Die Frage, inwieweit CAQDAS selbst qualitative Analysen zu leisten vermag oder ob die Programme lediglich der eigentlichen Auswertungsarbeit assistieren, ist ein Thema, das seit einiger Zeit diskutiert wird. Ein Dialog über neue Technologien ist in diesem Zusammenhang von großem Interesse, da Weiterentwicklungen durch sie denk- und ausführbar werden.
Keywords: CAQDAS, computergestützte qualitative Datenanalyse, Bilder, Video, digitale Daten, Validität, Reliabilität, kodieren, code and retrieve, XML, qualitative Modelle
Inhaltsverzeichnis
1. Einleitung
2. Datenerhebung
3. Computerunterstützte qualitative Datenanalyse (CAQDAS)
4. Skepsis gegen die Anwendung von CUQDAS
5. Qualität qualitativer Forschung
6. Ein Blick in die Zukunft
Zum Autor und zu den Autorinnen
Der erste Technologieeinsatz in der qualitativen Forschung fand ca. 1960 statt, als Kassettenrecorder in der Feldforschung verwendet wurden, um Interviews aufzunehmen. Dies brachte auf der einen Seite mit Blick auf die Datenprotokollierung eine Vereinfachung mit sich, aber es führte auf der anderen Seite zu Konsequenzen, die zunächst nicht vorhersehbar waren: Es fand hierdurch eine Verlagerung der mit der Erstellung von Niederschriften verbundenen Arbeit von den Forschenden (traditionell wurden Feldnotizen oder Interviewprotokolle handschriftlich abgefasst) auf andere statt, in der Regel auf Sekretärinnen oder Schreibkräfte. Diese Aufgabentrennung beeinflusste nicht nur die Nähe zu den Daten, sondern mit der veränderten Beziehung zwischen Forschenden und Daten veränderten sich auch die daraus resultierenden analytischen Ideen: Mit der Tatsache, dass dank der neuen Technologie eine detaillierte Niederschrift der erhobenen Daten zur Verfügung stand, bestand auch die Möglichkeit, neue Wege der Datenanalyse zu beschreiten; zum Beispiel konnte nun Sprache im Detail analysiert werden. Die Verwendung von Kassettenrecordern eröffnete zudem auch die Möglichkeit, größer angelegte Studien durchzuführen und in Teams aus mehreren Forscher(inne)n zu arbeiten. [1]
Die oben beschriebene doppelte Auswirkung neuer Technologien – einmal bezogen auf die Frage, welche Arten von Daten erhoben werden können und zum anderen auf die Frage, welche Analysemöglichkeiten sich hieraus ergeben – ist bis heute feststellbar: Auch zu Beginn des 21. Jahrhundert werfen neue Technologien immer noch die gleichen Fragen auf: Was soll analysiert werden? Wie sollen die Daten analysiert werden? Auf welche Art und Weise sind die gewonnenen Erkenntnisse anders und vielleicht auch fundierter als mit traditionellen Verfahren erworbene? Die Beiträge in diesem Band diskutieren beide genannten Auswirkungen. In den meisten Fällen kommen die Verfasser(innen) zu dem Schluss, dass neue Technologien auf beides – die Datenerhebung sowie auch auf die Analyse – einen Einfluss haben und dieser Einfluss sich gegenseitig bedingt. [2]
Aufnahmen mit Hilfe eines Kassettenrekorders basieren auf analogen Technologien, ebenso traditionelle Film- und Videoaufnahmen. In der sozialwissenschaftlichen, psychologischen sowie anthropologischen Forschung werden diese Technologien schon seid langem angewandt. Die Weiterentwicklung dieser Technologien hat dazu geführt, dass sie billiger wurden und sich ihre Anwendung deshalb schneller ausbreitete. Dies bedeutet, dass die Zahl der Forschenden, die diese Technologien verwenden, immer größer geworden ist, und dass sich Untersuchungssubjekte immer mehr daran gewöhnt haben, aufgenommen zu werden bzw. die Technologien selbst anzuwenden lernten. Ein Beispiel für diese Entwicklung ist der Videorekorder: Menschen haben sich inzwischen daran gewöhnt, in Ferienfilmen "mitzuspielen" oder von CCTV- (Closed Circuit Television) Sicherheitskameras aufgenommen zu werden. Sie können ihre eigenen Videofilme erstellen und haben gelernt, unterschiedliches Videomaterial, mit dem sie konfrontiert werden, zu "lesen" und zu interpretieren. Beides, die Erschwinglichkeit und die Allgegenwärtigkeit derartiger Technologien hat Forschenden die Möglichkeit eröffnet, forschungsrelevante Schauplätze aufzuzeichnen und neuartige Daten "herzustellen". Dies wirft neue Fragen bezüglich Dateninterpretation, Auswirkung und Gültigkeit auf, mit denen sich Forscher(innen) auseinander setzen müssen. [3]
Hierzu finden sich in dieser Schwerpunktausgabe zwei Beispiele: KANSTRUP (Die Anwendung von Photographien zur Exploration von Technologienutzung in der Arbeitspraxis von Lehrern und Lehrerinnen) diskutiert die Verwendung einer digitalen Kamera in einem Forschungsprojekt mit Lehrer(inne)n über deren Anwendung von Technologien in der täglichen Arbeitspraxis. Zunächst zeigte KANSTRUP den Lehrer(inne)n digitale Bilder auf einem Laptop, um Diskussionen über den Lehreralltag zu initiieren. Sie stellte fest, dass die Lehrer(innen) die Bilder sehr schnell ignorierten und eher allgemein gehaltene Diskussion über ihre Arbeitspraxis begannen. KANSTRUP fasste diese Erfahrung wie folgt zusammen: "the teachers went beyond rather than into the pictures". Im nächsten Untersuchungsschritt verwendete sie gedruckte Kopien der Bilder als Basis für Gruppendiskussionen in einem Forschungsteam. Dies führte zu kreativen Gedankenanstößen über die "front" und "back stage" Aktivitäten von Lehrer(inne)n. Die Frage, ob das Forschungsteam die Photos entsprechend den gelebten Erfahrungen der Lehrer(innen) interpretierte, bleibt jedoch ungeklärt. KANSTRUP stellt abschließend fest, dass die Photos sich besser dazu eigneten, Fragen aufzuwerfen als Fragen zu beantworten. KOCH und ZUMBACH (Zum Einsatz von Videoanalyse-Software in den Sozialwissenschaften: Interaktionsmuster in aufgabenorientierten Kleingruppen) diskutieren die Anwendung der Videosoftware THEME zur Identifikation von Kommunikationsmustern anhand zweier unterschiedlicher Beispiele Aufgaben orientierter Kleingruppeninteraktion. Im Mittelpunkt der Untersuchung standen machtbezogenes und unterstützendes Verhalten sowie verbale und nonverbale Verhaltensmuster. Mit Unterstützung der Software fanden sie zwei Interaktionsmuster, die mit traditionellen Analyseverfahren nicht hätten erschlossen werden können. Ihr Beitrag ist ein deutliches Beispiel dafür, dass die Anwendung von Software neue Formen der Datenanalyse ermöglicht. [4]
Eine der neuesten Entwicklungen im Bereich Audio und Video ist die Einführung digitaler Technologien. Dies hat die Technologie nicht nur verbilligt und dadurch ihren Verbreitungsgrad erhöht, sondern es hat auch dazu geführt, dass neue Wege der Datenanalyse und -manipulation möglich wurden. Dies ist besonders deutlich im Bereich digitaler Videoverarbeitung. Hier stehen Forschenden heutzutage exzellente Programme zur Darstellung, Prüfung und Redigierung von digitalen Videoaufnahmen zur Verfügung, die einfacher (und billiger) sind als die zur Bearbeitung von nicht-digitalem Material. SECRIST, de KOEYER, BELL und FOGEL (Die Kombination von digitaler Videotechnologie und narrativen Methoden in der Säuglingsforschung) erläutern in ihrem Beitrag die Anwendung von Adobe Premiere, einem professionellen Videobearbeitungsprogramm, zur Erstellung von Sequenzen über Entwicklungsschritte von Säuglingen. Das Programm ermöglicht die Navigation, das Umstrukturieren und die Präsentation von Datensegmenten – Arbeitsweisen, die früher so nicht denkbar gewesen wären: Ohne Hilfsmittel wie Adobe Premiere mussten schriftliche narrative Sequenzen von Videodaten in mühsamer Arbeit verfasst werden. Jetzt hingegen können die Forschenden schnell und einfach auf für die Forschungsfrage relevante Sequenzen zugreifen, sie untersuchen und relativ zügig analytische Schlussfolgerungen ziehen. [5]
Die oben erwähnten Artikel liefern also Beispiele dafür, wie die Entwicklung der Informationstechnologie zu neuen Wegen der Datenexploration beigetragen hat. Ein weiterer Aspekt neuer Informationstechnologien ist die Verbreitung des Internets. Interessant sind in diesem Zusammenhang die neuen Möglichkeiten der Datenerhebung. Diese beinhalten Diskussionslisten, Textforen, persönliche Webseiten und Videokonferenzen. Zusätzliche Informationen können den Logfiles entnommen werden. [6]
Auf der untersten Ebene bietet das Internet im Allgemeinen und E-Mail im Besonderen die Möglichkeit, traditionelle Personeninterviews auf andere Art und Weise durchzuführen. Die Vor- und Nachteile dieser Art der Datenerhebung werden von BAMPTON und COWTON (Das E-Interview) beschrieben. Ein wesentlicher Vorteil ist, dass die Daten nicht transkribiert werden müssen. Zudem macht es das E-Interview möglich, soziale Gruppierungen zu untersuchen, zu denen man bislang aufgrund von geographischen, zeitlichen oder finanziellen Begrenzungen keinen Zugang hatte. Das E-Interview bringt aber auch Nachteile mit sich. Zum Beispiel kann es schwierig sein, eine (Ver-) Bindung zu den Proband(inn)en aufzubauen und zu erhalten. Durch die physische Distanz zwischen Forschenden und Beforschten ist es nicht möglich, auf nonverbale und andere verborgene Hinweise, die durch Körpersprache vermittelt werden, rückzugreifen. BAMPTON und COWTON weisen darauf hin, dass Forschende herausfinden müssen, in welcher Schnelligkeit sie antworten sollten und wie schnell Antworten von Proband(inn)en erwartet werden können. Auf der anderen Seite können – bedingt durch die Tatsache, dass E-Interviews über einen längeren Zeitraum hinweg geführt werden können –gleich mehrere Interviews durchgeführt werden. Man sollte sich aber bewusst sein, dass diese Interviewmethode zur Zeit noch zu einer verzerrten Stichprobe führt, da nur ein gewisser Prozentanteil der Bevölkerung mit Email erreicht werden kann. HOLGE-HAZELTON (Das Internet: Ein neues qualitatives Forschungsfeld?) befasst sich in ihrem Beitrag mit der Nutzung von E-Mails im Zusammenhang mit ihrer Studie über Diabeteserkrankte. In der E-Mail basierten Kommunikation mit ihren Untersuchungsteilnehmer(inne)n wendete sie die freie Assoziationsmethode, eine aus der psychoanalytischen Therapie adaptierte Interviewtechnik, an. Und obwohl es sich um eine sehr emotionale und sensitive Forschungsthematik handelte, stellte sie fest, dass die Antworten weniger befangen waren als in den anfänglich durchgeführten, persönlichen Interviews. Ihrer Erfahrung zufolge stellte es sich als unproblematisch heraus, eine Bindung mit den Teilnehmer(inne)n aufzubauen. Es wurden jedoch ein paar geschlechtsspezifische Unterschiede deutlich: Frauen antworteten schneller und – insbesondere bezogen auf emotionale Inhalte – detaillierter. Ein weiterer häufig gegen E-Interviews formulierter Einwand ist, dass sie – da anonym und entkörpert – auf einer eher ideellen/konzeptuellen Ebene verhaftet bleiben. Auch dieser Kritik standen HOLGE-HAZELTONs Erfahrungen entgegen: die Proband(inn)en ihrer Studie tauschten oftmals persönliche und geographische Informationen aus, schickten sich Bilder zu, etc. [7]
KÖRSCHEN, POHL, SCHMITZ und SCHULTE (Neue Techniken der qualitativen Gesprächsforschung: Computergestützte Transkription von Videokonferenzen) setzen sich in ihrem Beitrag damit auseinander, wie konversationsanalytische Ansätze für Videokonferenzen angewendet werden können. Insbesondere machen sie darauf aufmerksam, dass konventionelle Verfahren der Transkriptionserstellung nicht die in Videokonferenzen auftretenden Zeitverzögerungen zwischen den einzelnen Orten und die ausgetauschten visuellen Informationen berücksichtigen. Die Autor(inn)en schlagen deshalb vor, die jetzigen Verfahren der Multimediatranskription zu modifizieren, um die Besonderheiten von Videokonferenzdaten mit zu erfassen und um diese qualitativen Datenanalyseverfahren zugänglich zu machen. In ihrem Beitrag stellen sie ein computerunterstütztes Transkriptionsverfahren vor. [8]
Email und Videokonferenzen beinhalten Kommunikationsformen, die die mündlichen Kommunikationsformen in traditionellen Interviews und Gesprächen nicht exakt widerspiegeln. MOSS und SHANK (Die Anwendung qualitativer Verfahren in der Computertechnologieforschung über Online-Lernen: Unterrichten als Gestaltung zielgerichteter Lehrprozesse) behandeln in ihrem Beitrag die Auswirkungen des Internets auf die Kommunikation. Sie machen den Vorschlag, dass Computervermittelte Interaktion weder als mündliche noch als schriftliche Sprache betrachtet werden sollte, sondern als "postliterate" Transformation von Sprache selbst. Diese Transformation kann ihren Einschätzungen zufolge nur mit qualitativen Methoden untersucht werden. MOSS und SHANK prüfen ihre Annahme im Kontext einer Online-Umgebung, in einem Diskussions- und Lernforum für Lehrer(innen). Als Ergebnis ihrer Studie stellen sie fest, dass sich Online-Diskurse in Bezug auf Temporalität, auf den Einfluss der Online-Gemeinschaft und im Niveau an Reflexivität deutlich von anderen Diskursen unterscheiden: Online-Diskurse ermöglichen, so die Autor(inn)en, eine Art der Kommunikation, die Lernen in einer Weise fördert, die in einer traditionellen Umgebung nicht möglich gewesen wäre. [9]
3. Computerunterstützte qualitative Datenanalyse (CAQDAS)
Es wurde bisher deutlich, dass neue Technologien die Art und Weise, wie Daten erhoben werden und die Auswahl an Orten und Situationen, an/in denen sie erhoben werden können, erweitert haben. Ein weiterer wichtiger Aspekt, der auch in diesem Band diskutiert wird, ist die Auswirkung von neuen Technologien auf die Datenanalyse. Computerunterstütze qualitative Datenanalyse Software (CAQDAS) – eine Terminologie, die von FIELDING und LEE als Name ihres inzwischen wohlbekannten "Netzwerkprojekts" eingeführt wurde (http://caqdas.soc.surrey.ac.uk) – bezieht sich auf die Auswahl von Computerprogrammen, die zur Unterstützung qualitativer Datenanalyse entwickelt wurden (LEE & FIELDING 1995). Eine deutsche Version dieses Akronyms wurde von MUHR und FRIESE (2001) eingeführt und heißt entsprechend der deutschen Übersetzung CUQDAS. [10]
WOLCOTT unterscheidet in seiner Diskussion der qualitativen Datenanalyse zwischen Verfahren des Datenmanagements, bei denen es nur um eine bessere und effektivere Handhabung des Datenmaterials geht, und analytischen Verfahren, die darauf zielen, Beziehungszusammenhänge aufzudecken (WOLCOTT 1994). Letzteres verlangt von den Forschenden ein sorgfältiges und komplexes Management von großen Datenmengen, wie Codes, Memos, Anmerkungen usw. Man könnte deshalb sagen, dass eine effektive Datenanalyse ein effizientes, konsistentes und systematisches Datenmanagement voraussetzt. Die Programme, die zur Unterstützung des Datenmanagements entwickelt wurden, leisten einen wichtigen Beitrag zur Umsetzung dieser Anforderung. Die Nutzung von Text-Retrievern, von Datenbankprogrammen und von ähnlichen Funktionen (wie die einfache Textsuche) ist in CUQDAS relativ unbestritten. So können viele Aspekte des Datenmanagements auch in nicht spezialisierten Programmen, z.B. in einem Textverarbeitungsprogramm, durchgeführt werden. Einige Möglichkeiten eines nicht speziell für die qualitative Datenanalyse entwickelten Programms werden in dem Beitrag von NIDERÖST (Die technikunterstützte Analyse von qualitativen Daten mit Word) näher untersucht. NIDERÖST erklärt, wie Daten zur Analyse in Word aufbereitet werden müssen und wie die Tabellenfunktion und der Befehl "Suchen und Ersetzen" für grundlegende Sortier- und Apportiervorgänge benutzt werden können. Eine Analyse auf der Basis von Attributen oder demographischen Merkmalen wie Alter, Geschlecht, Beruf usw. ist auch möglich. Word anstelle von Spezialsoftware für die qualitative Datenanalyse einzusetzen ist deshalb von Vorteil, weil das Programm breit verfügbar ist und qualitative Forscher(innen) im Allgemeinen vertraut im Umgang mit Word sind. MEYER, GRUPPE und FRANZ (Microsoft Access in der Analyse von Fragebögen und Interviews mit offenen Antwortformaten) liefern ein zweites Beispiel dafür, wie eine bekannte und weit verbreitete Software, in diesem Fall das Datenbankprogramm Access, zur Analyse von offenen Fragen aus einer Fragebogenstudie verwendet werden kann. In ihrem Aufsatz wird beschrieben, wie Daten in Access zur weiteren Analyse eingegeben, wie Codelisten aufbereitet und gehandhabt und wie Datenretrievals durchgeführt werden sollen. [11]
Die gerade erwähnten Beiträge verdeutlichen, dass es möglich ist, Textverarbeitungs- und Datenbankprogramme zur Unterstützung von qualitativen Analysevorgängen einzusetzen. Die Verwendung dieser Programme erscheint insbesondere nützlich, wenn es um eher einfache explorative Arbeitsschritte geht, die eine Quantifizierung zum Ziel haben. Um komplexere Analysen durchzuführen, bedarf es jedoch einer größeren Expertise im Umgang mit diesen Programmen (z.B. Programmierkenntnisse in Access), die der gewöhnliche Anwender/die gewöhnliche Anwenderin in der Regel nicht besitzt. Die meisten qualitativen Forscher(innen) wollen jedoch über ein einfaches Analyseniveau hinausgehen. Dies unterstützt dann wiederum das Argument, dass viele Programmentwickler von CUQDAS angeben: Sie verweisen auf die Entwicklungsgeschichte ihrer Programme, an deren Anfang zumeist ein qualitativer Forscher oder eine qualitative Forscherin stand, der oder die zur Unterstützung der eigenen Arbeit einen Computer einsetzen wollte. Ihr Anspruch ist, dass sie am ehesten die "wahren" Bedürfnisse qualitativer Forscher(innen) kennen und dass CUQDAS deshalb effektiver sei als andere Programme. Dieser Anspruch wurde im Laufe der Zeit durch die Weiterentwicklung solcher Spezialprogramme oft bestätigt. Die zweite Generation von CUQDAS basiert nun nicht nur auf den Bedürfnissen der "Programmväter" und "Programmmütter", sondern die nun zur Verfügung stehenden Funktionen sind auf der Basis eines regen Austauschs zwischen Entwickler(inne)n und Anwender(inne)n entstanden; die meisten dieser Programme sind heutzutage sehr nahe am "analytischen Puls" der qualitativen Sozialforschung. Dies bedeutet jedoch nicht eine unkritische Akzeptanz von CUQDAS. So ist z.B. weiter umstritten, inwieweit die Programme die eigentliche Analyse unterstützen oder ob sie "nur" Datenmanagementprogramme sind. Dieser Streitfrage geht THOMPSON in seinem Aufsatz nach (Gestaltung von Ergebnisberichten als Resultat computergestützter qualitativer Datenanalyse). Er unterscheidet, ähnlich wie WOLCOTT, zwischen mechanischen und konzeptionellen Aspekten der Analyse. Der mechanische Aspekt bezieht sich hiernach auf alle Aktivitäten, die der qualitativen Datenanalyse zugrunde liegen, also z.B. das Markieren und Kodieren von ausgewählten Textstellen, das Suchen nach Schlüsselwörtern im Text oder auf der Basis von Codes, oder das Erstellen von Berichten. Diese Vorgänge sind zeitaufwendig, langweilig und eine mögliche Ursache für Fehlerquellen. Der Computer kann daher sehr gut zur Unterstützung dieser Vorgänge eingesetzt werden. Die konzeptionellen Aspekte der Analyse beinhalten nach THOMPSON z.B. das Lesen eines Textes, das Interpretieren von Textinhalten, die Erstellung eines Codierschemas, die Ideengenerierung für Suchanfragen und die Berichtserstellung; diese können – so der Autor – nur von den Forschenden selbst geleistet werden. [12]
Einige Programme beinhalten Funktionen, die weit über die Manipulation, das Suchen und Ausgeben von codierten Textstellen hinausgehen. Diese Funktionen unterstützen analytische Vorgehensweisen, die den Forschenden helfen, Merkmale und Relationen im Text zu untersuchen. Solche Programme werden oftmals als "Model-" oder "Theory-builder" bezeichnet, nicht weil sie eigenständig Theorien erstellen könnten, sondern weil sie Funktionen beinhalten, die dem Forscher/der Forscherin helfen, theoretische Zusammenhänge in den Daten zu erkennen und Hypothesen zu generieren oder zu testen. Solche Funktionen sind Programmen zu eigen, die MANGABEIRA (1995) als dritte Generation der CUQDAS Entwicklung beschrieben hat: Einige Programme beinhalten erweiterte Funktionen, die zur Kenntnis nehmen, dass in qualitativen Arbeiten nicht immer nur ein einsamer Forscher/eine einsame Forscherin mit Textdateien arbeitet. Sie unterstützen zum Beispiel das Arbeiten mit "Rich Text-Formaten" (RTF), das Arbeiten mit Diagrammen und Bildern, mit Video und Audiodaten. Andere erweiterte Funktionen beinhalten den Austausch von Daten zwischen verschiedenen Forscher(inne)n, die kollaborativ an einem Projekt arbeiten und das Zusammenführen einzelner Projekteinheiten. Eine Reihe von Aufsätzen in diesem Band untersucht diese neuen Möglichkeiten. ZELGER und OBERTRANPACHER (Zur Verarbeitung verbaler Daten und zur Wissensrepräsentation mittels GABEK®-WinRelan®) zum Beispiel stellen ein Programm vor, mit dem Daten nicht nur auf traditionelle Art und Weise kodiert werden können, sondern es sind neue Arten der Darstellung (z.B. "Gestaltenbäume", automatisch generierte Netzwerkgrafiken, Bewertungslisten, Kausalgrafiken oder Relevanzlisten) inkorporiert; auch kann eine Reflexion über das Datenmaterial in den Analyseprozess eingeschlossen werden. Die von den Autoren vorgestellte Methode, GAnzheitliche BEwältigung von Komplexität (GABEK), basiert auf den philosophischen Konzepten von Verstehen und Erklären und wurde konzipiert, um selbst größere ungeordnete und kontroverse umgangssprachliche Daten zu analysieren. Ihr Ansatz beinhaltet mehrere Schritte: Nach dem einleitenden Kodieren werden die Daten bewertet und in konzeptionelle Strukturen geordnet; dies sind Mindmaps auf Basis der zugrunde liegenden Daten und linguistische Gestalten. Des Weiteren können angenommene Kausalzusammenhänge innerhalb von komplexen Abbildungen untersucht werden. Dies erleichtert die Analyse von kontroversen Themen und unterstützt die komparative Analyse. [13]
IRION (Einsatz von Digitaltechnologien bei der Erhebung, Aufbereitung und Analyse multicodaler Daten) befasst sich mit Multimediadaten: Welche neuen Fragestellungen treten auf, wenn Forscher(innen) mit mehr als nur Textmaterial arbeiten? Zum Beispiel stellt sich die Frage, wie Daten unterschiedlicher medialer Herkunft am besten erhoben, integriert und analysiert werden können. IRION diskutiert auch den Einfluss computerunterstützter Analysen auf Multimediadaten. In diesem Zusammenhang beschäftigt er sich mit der Befürchtung, dass bestimmte Methoden der Transkription die weitere Analyse der Daten beeinträchtigen könnten. Hier schlägt der Autor die Entwicklung einer modularen Softwarelösung vor und illustriert dies an einem Beispiel. [14]
BOURDON (Die Integration von QDA Software ins Forschungshandeln: Widerstände und Potentiale) beschreibt in seinem Beitrag den Einsatz von Software für das Arbeiten im Team. Im Besonderen diskutiert er, wie CUQDAS in den Forschungsprozess integriert werden und wie diese Integration kollaborativer Teamarbeit zugute kommen kann. Dies geschieht, indem die Exploration von analytischen Dimensionen ermöglicht wird, die anders nur sehr schwer zu verwirklichen gewesen wäre. BOURDON beschreibt dies anhand eines Projekts, in dem die Software Nvivo und dessen "Merge"-Funktion eingesetzt wurden. Die "Merge"-Funktion ermöglichte die Zusammenführung separat durchgeführter computerunterstützter Analysen einzelner Forscher(inne)n in ein gemeinsames Projekt. BOURDON schlägt vor, dass die einzelnen Analysen am besten auf der Basis von umfassenden Themencodes durchgeführt werden sollten, die vorab abgeklärt und im Team (unter zu Hilfenahme der zur Verfügung stehenden Software) ausgetauscht werden sollten. Auf der einen Seite bedeute dies zwar, dass der Analyse eine gewisse Tiefe verloren gehe, dies stehe jedoch zum einen dem Gewinn einer verbesserten Exploration von Fallunterschieden und zum anderen den zusätzlichen Möglichkeiten der Untersuchung der multiplen Perspektiven in einem Forschungsteam gegenüber. [15]
Die sich fortwährend erweiternden Dimensionen von CUQDAS und die Verfügbarkeit von unterschiedlichen Programmen mit unterschiedlichen Funktionen haben auch eine Bedeutung für das Erlernen von solchen Programmen. Zwei Beiträge – der von BONG (Entmystifizierung qualitativer Datenanalyse) und der von THOMPSON (Gestaltung von Ergebnisberichten als Resultat computergestützter qualitativer Datenanalyse) – beschäftigen sich mit diesem Thema am Beispiel des Erlernens erster Schritte mit ATLAS.ti bzw. HyperQual2. Sie untersuchen, was die Forschenden im einzelnen berücksichtigen sollten, wenn sie eine Software und im Zusammenhang damit einen analytischen Ansatz wählen. Sie beschreiben auch die Unterstützung, die Neulinge beim Erlernen dieser Programme erwarten können, entweder in Form von Trainingsworkshops oder im Rahmen von Online-Diskussionslisten. CARVAJAL ("The Artisan's Tools". Einige problematische Implikationen des Lehrens und Lernens computergestützter qualitativer Analyseprogramme) diskutiert Faktoren, die die Entwicklung von Trainingskursen für CUQDAS-Noviz(inn)en beeinflussen. Er identifiziert einige der weit verbreiteten Missverständnisse von Anfänger(innen), so zum Beispiel, dass die Software die Analyse durchführe oder dass qualitative Analysemethoden gleichzeitig mit dem Erlernen der Software erlernt würden. CARVAJAL spricht sich für einen Trainingsansatz aus, bei dem den Lernenden zunächst die Grundschritte qualitativer Analysemethodik näher gebracht werden sollten, bevor es um das eigentliche Erlernen von Software geht. Auch schlägt CARVAJAL vor, zukünftigen CUQDAS-Anwender(inne)n zunächst einmal einen Überblick über verschiedene Programme zu gewähren (in seinen Kursen z.B. EZ-Text, winMAX 99, NUDIST 4 und ATLAS.ti 4.2), damit diese eine erste Vorstellung von den unterschiedlichen Funktionen bekommen, die diese Programme bieten und ein Verständnis für die unterschiedlichen Ansätze entwickeln können, bevor ihnen eine bestimme Software näher gebracht wird. Darüber hinaus rät er, dass Lernenden die Möglichkeit gegeben werden sollte, mit ihren eigenen Texten zu arbeiten, da es dann einfacher für sie sei, die Umsetzung der Forschungsfrage und die analytische Vorgehensweise bezogen auf die jeweilige Software zu verstehen. [16]
4. Skepsis gegen die Anwendung von CUQDAS
Es ist vielleicht ein Hinweis darauf, wie qualitative Forscher(innen) über sich selbst und ihre Arbeit denken, wenn die Nicht-Anwendung von CUQDAS Technologien – wie FIELDING (2002) herausstellt – nur wenige, CUQDAS selbst aber intensive Diskussionen auslöst. Hinweise auf Begrenzungen von CUQDAS und Bedenken hinsichtlich möglicher Konsequenzen für die qualitative Datenanalyse finden sich in einigen Beiträgen dieses Bandes wieder. [17]
FIELDING und LEE (1998) untersuchten die Entwicklungsgeschichte computerunterstützter qualitativer Forschung mit besonderem Augenmerk auf den Erfahrungen von Softwareanwender(inne)n. Eine der Thematiken, die von Anwender(inne)n angesprochen wurden, ist das Gefühl einer größeren Distanz zu den Daten. Forschende, die (noch) Erfahrung mit "Papier und Bleistift-Techniken" gemacht haben, berichteten, dass sie sich den Worten ihrer Proband(inn)en oder ihren Feldnotizen näher fühlen, wenn sie nicht mit dem Computer arbeiten. In diesem Zusammenhang sollte allerdings erwähnt werden, dass es mit den ersten Versionen von CUQDAS, die auf den Markt kamen, teilweise schwierig war, den Überblick zwischen extrahierten Textsegmenten und den zugehörigen Kontexten zu bewahren. Heutzutage legen die meisten Programme jedoch ein stärkeres Gewicht auf Möglichkeiten der Rekontextualisierung von Daten. Ein weiterer Kritikpunkt, der auch in diesem Band deutlich wird, ist, dass die meisten Programme scheinbar sehr stark von der Grounded Theory beeinflusst sind. Dieser Ansatz von GLASER und STRAUSS (1967) ist sowohl unter qualitativen Forscher(inne)n wie auch auf Seiten der Softwareentwickler(inne)n vergleichsweise populär. Hieraus resultieren Bedenken, dass die Analyse sehr stark in eine Richtung gedrängt werde und dass einige Aspekte der Analyse zu einem Artefakt der eingesetzten Technologie würden. FIELDING und LEE (1998) zufolge sind dies berechtigte Befürchtungen, die allerdings eher frühere Programmversionen betrafen. Je ausgereifter und entwickelter die Programme wurden, desto weniger kann man sie eindeutig oder ausschließlich mit einem bestimmten Analyseverfahren in Verbindung bringen. Eine weitere Gefahr ist die Überbetonung des "Code-and-retrieve Ansatzes", der Forschenden die Möglichkeit verwehrt, Daten anders anzugehen und zu betrachten, z.B. via Hyperlinks oder mit literaturkritischen Analysetechniken, ein Problem, auf das MOSS und SHANK in ihrem Beitrag eingehen. BONG befasst sich mit der Dominanz der Grounded Theory und bemüht sich um eine Entmystifizierung ihres paradigmatischen Status' in der qualitativen Forschung. Die Autorin macht auch darauf aufmerksam, dass Kodieren nicht per se gleichzusetzen ist mit Datenanalyse. [18]
Ein weiterer kritischer Aspekt ist die jeweilige philosophische bzw. erkenntnistheoretische Position, von der aus Software für die qualitative Datenanalyse eingesetzt wird. ROBERTS und WILSON diskutieren diese Problematik in ihrem Beitrag (Informations- und Kommunikationstechnologien und der Forschungsprozess: Zur Kompatibilität von Technologien und qualitativer Datenanalyse). Der Autor und die Autorin argumentieren, dass eine zentrale Aktivität qualitativer Datenanalyse die Interpretation von unterschiedlichsten Bedeutungsvariationen und -schattierungen in Dialogen und entlang anderer linguistischer Daten ist. Computer geben jedoch nur einen Teil dieser Wirklichkeiten wieder, nämlich das, was digital festgehalten werden kann. Für ROBERT und WILSON gibt es keine klare Unterscheidung zwischen Verstehen und Interpretation auf der einen Seite und Analyse auf der anderen Seite. Da es allgemein anerkannt ist, dass dem Computer bezüglich Verstehen und Interpretieren Grenzen gesetzt sind, vertreten ROBERT und WILSON deshalb die Auffassung, dass eine Software nur die mechanischen Aspekte des Datenmanagements leisten kann. Das Erstellen und die Anwendung von Codes auf Daten ist in diesem Sinne noch keine Analyse. Nicht jede(r) wird dieser Auffassung zustimmen, am wenigsten Forschende, die mit einem Grounded Theory- oder Modell-Ansatz arbeiten. Diese Art der Argumentation wird zumeist von Forschenden vertreten, die in der narrativen oder der Diskursanalyse beheimatet sind und die einen absolutistischen, deduktiven und positivistischen Ansatz oftmals zurückweisen. Ein Beispiel für die wichtige Rolle, die Interpretation in der qualitativen Forschung spielt, geben MOSS und SHANK: In ihrer Studie über "Unterrichten als zielgerichtetes Lernen" wogen sie verschieden Analyseansätze gegeneinander ab und kamen zu dem Schluss, dass ein Code-und-Retrieve Ansatz dem Datenmaterial nicht gerecht werden würde. Stattdessen entschieden sie sich für einen "quasi literarischen" Ansatz, das "close reading" der Daten. Dieser Ansatz erlaubt das Aufdecken von Mustern auch unter Einbeziehung von weniger häufig auftretenden Merkmalen, die ebenfalls wesentlich zum Interpretations- und Erkenntnisprozess beitragen können. [19]
Ähnliche Vorsicht gegen mögliche Begrenzungen von CUQDAS äußert THOMPSON: Er stellt eine Beispielanalyse mit HyperQual2 vor und präsentiert dabei ein Modell, wie schriftlich über den eigentlichen Analyseprozess reflektiert werden könnte. Sein Hauptargument ist, dass die Stärke einer jeden Auswertung auf gut fundierten Strategien der Datenanalyse beruht. Dies scheint eine implizite Annahme von vielen erfahrenen CUQDAS Anwender(inne)n zu sein, jedoch geht hierbei oftmals die Transparenz des Analyseprozesses verloren. Eine bessere Transparenz wäre nicht nur für Noviz(inn)en wünschenswert, sondern würde auch die Güte qualitativer Studien erhöhen. Wie schon oben erwähnt, unterscheidet THOMPSON zwischen mechanischen und konzeptionellen Aspekten der Analyse und er argumentiert, dass Computer zwar den mechanischen Teil der Analysearbeit unterstützen können, die konzeptionelle Arbeit jedoch nur von einem Menschen geleistet werden kann. [20]
Die Betonung der menschlichen Interpretationsleistung als Herzstück qualitativer Forschung regt an, über die Herstellung von technologischen Artefakten nachzudenken. Interessant ist in diesem Zusammenhang die existierende Spannung zwischen einerseits dem Anspruch, den Entwickler(innen) in Bezug auf CUQDAS erheben, und andererseits der Rezeption und der Interpretation dieses Anspruchs durch die Anwender(innen). MANGABEIRA (1996), selbst sicher keine CUQDAS -Skeptikerin, zeigte auf, dass die Adaption von CUQDAS und das Verständnis darüber, was CUQDAS leisten kann, sehr stark von den einzelnen Programmfunktionen und -fähigkeiten abhängt, aber auch von der öffentlichen Darstellung ihrer "Effektivität", von der sozialen Organisation unterschiedlicher Forschungsgemeinschaften und von nationalen Traditionen. Andere Autor(inn)en stellten ebenfalls fest, dass sich CUQDAS erfolgreich durchgesetzt hat, allerdings nicht immer auf einer gut begründeten Basis (FIELDING 2002; SEALE 2002b). So ist die Tendenz zu beobachten, dass Forschende versuchen, ihren Forschungsanträgen einen Glanz von Genauigkeit zu verleihen, indem sie darauf verweisen, dass die Daten mit Hilfe von CUQDAS analysiert werden – als ob die Anwendung von Software schon die Qualität der Forschung erhöhe. Obwohl es als selbstverständlich vorausgesetzt werden sollte, ist es in diesem Zusammenhang notwendig, nochmals hervorzuheben, dass CUQDAS diesen Anspruch natürlich nicht erfüllen kann. CUQDAS ist als ein Analysewerkzeug zu betrachten: Ein gutes Werkzeug in der Hand schlechter Handwerker(innen) wird deren Arbeit nicht wesentlich verbessern. Eine qualitativ hochwertige Datenanalyse beruht immer noch auf guter analytischer Arbeit, ausgeführt von umsichtigen menschlichen Forscher(innen), so wie auch ein guter Schreibstil nicht alleine durch die Anwendung eines Textverarbeitungsprogramms garantiert werden kann. [21]
5. Qualität qualitativer Forschung
Die meisten Gedanken, die sich um die Frage der Qualität qualitativer Forschung ranken, sind im Wesentlichen aus der quantitativen Forschung abgeleitet. Dort finden wir eine starke Betonung von Validität, Objektivität und Reliabilität, und in der Vergangenheit wurde häufig über die Übertragbarkeit dieser Kriterien auf qualitative Forschungsarbeiten debattiert. Sind sie anwendbar? Und wenn nicht, welche anderen Möglichkeiten bestehen für qualitative Forscher(innen), die Qualität ihrer Analyse zu nachzuweisen? [22]
Da in der qualitativen Forschung Techniken, die quantitativen Forscher(inne)n zur Verfügung stehen, fehlen, war eine Art, das Thema Qualitätssicherung aufzugreifen, die Überlegung, dass Fragen der Berichterstattung und -erstellung mehr Aufmerksamkeit gewidmet werden müssen. Eine weitere Antwort qualitativer Forscher(innen) bestand darin, mögliche Gefahrenquellen im Analyseprozess zu identifizieren, die die Qualität qualitativer Forschung unterminieren. Hierzu gehören z.B. voreingenommene Abschriften von Daten und deren Interpretation, eine Überbetonung von positiven Fällen oder eine einseitige Betonung des Exotischen und Ungewöhnlichen, das Ignorieren von negativen Fällen, vage Definitionen von Konzepten (und Codes), die daraus resultierende inkonsistente Anwendungen von Konzepten und nicht gerechtfertigte Verallgemeinerungen. DEY (1993, S.222) warnt:
"Because the data are voluminous, we have to be selective—and we can select out the data that doesn't suit. Because the data are complex, we have to rely more on imagination, insight and intuition—and we can quickly leap to the wrong conclusions." [23]
Es ist daher nicht verwunderlich, dass es einfach ist, unvollständige und voreingenommene Analysen zu produzieren. Die Anwendung von CUQDAS kann konstruktiv zu diesem Problem beitragen, allein schon weil sie den qualitativ Forschenden einen großen Teil der mechanischen Arbeit abnimmt (FIELDING 2002). Außerdem ist es mit Softwareunterstützung eher möglich, eine erschöpfende Analyse durchzuführen und die Daten auf negative Fälle hin zu überprüfen. Zusätzlich stehen dem Forscher/der Forscherin innerhalb der Software Funktionen zur Verfügung, die absichern helfen, dass Konzepte wohl definiert sind und dass Texte konsistent codiert wurden. [24]
Weitere Vorteile der Anwendung von Software sind, dass die Analyse besser strukturiert und ihr Fortschritt dokumentiert werden kann. Die Etablierung eines "Audit Trail", der anzeigt, wie die analytischen Ideen sich entwickelt haben und der nachvollziehbar macht, dass sich keine der oben genannten Vorurteile in die Analyse eingeschlichen haben, sind prinzipiell möglich, werden in der Praxis aber selten realisiert. SEALE stellte in einer Untersuchung veröffentlichter Studien, die die Verwendung von CUQDAS als Teil ihrer Methodik beschrieben, fest, dass die getätigten Analysen ein ernüchternd einfaches Niveau hatten (SEALE 2002b). In vielen Fällen bestanden die Analysen nur aus einer Identifizierung von Mustern in den Daten, basierend auf einem einfachen code-and-retrieve Verfahren, auch wenn die Autor(inn)en den Anspruch erhoben, eine Auswertung im Sinne der Grounded Theory geleistet zu haben (siehe hierzu auch BONG in diesem Band). In einigen Fällen zeigten die Analysen sogar nur sehr geringen analytischen Tiefgang; sie blieben auf einem impressionistischen Niveau von dubioser Gültigkeit und Zuverlässigkeit verhaftet. Dies verdeutlicht, dass immer noch eine beachtliche Kluft existiert zwischen der potentiellen Rolle, die CUQDAS für die Qualitätssicherung zukommen könnte, und deren Umsetzung in der Praxis. [25]
Die Ansicht, dass CUQDAS zur Qualitätssicherung beitragen kann, bleibt jedoch auch nicht unwidersprochen. WELSH unterstreicht in ihrem Beitrag (Zum Umgang mit Daten: NVivo und qualitative Datenanalyse) ähnlich wie andere Autor(inn)en, dass die Rolle des menschlichen Forschers/der menschlichen Forscherin für den eigentlichen Analyseprozess auch durch CUQDAS nicht eliminiert werden kann. Sie spricht jedoch den mit den Programmen verbundenen Suchfunktionen die Aufgabe zu, die Zuverlässigkeit des Analyseprozesses zu verbessern, indem sie die Eindrücke, die Forschende über ihre Daten gewonnen haben, bestätigen oder nicht. Ihrer Meinung nach ist CUQDAS aber weniger nützlich, wenn es um die Frage von Gültigkeit und Zuverlässigkeit hinsichtlich der Ideengenerierung im Verlauf des Analyseprozesses geht. WELSH spricht sich daher dafür aus, dass Forschende sich trotz Software nicht von manuellen Analysemethoden trennen sollten. Dies erscheint ihr der einzige Weg, thematische Ideen näher zu untersuchen und ein tieferes Verständnis für die Daten zu entwickeln. [26]
Ebenfalls nicht unumstritten ist die Kombination von qualitativen und quantitativen Daten. Innerhalb von CUQDAS lassen sich ein quantitativer Output und dessen Überführung in eine statistische Analyse recht einfach erstellen. Es liegt sicherlich ein Wert darin, Generalisierungen basierend auf qualitativen Analysen mittels quantitativer Parameter zu bestärken. Einige Autor(inn)en sehen aber hierin eine Gefahr für die Besonderheiten qualitativer Forschung. Praktische Gegebenheiten, die besonders häufig diejenigen Forscher(innen) betreffen, die in angewandten Disziplinen oder Projekten arbeiten, erzeugen allerdings oftmals einen Druck, quantitative und qualitative Daten miteinander zu kombinieren. MEYER, GRUPPE und FRANZ (Microsoft Access in der Analyse von Fragebögen und Interviews mit offenen Antwortformaten) sehen den Vorteil ihrer Vorgehensweise darin, dass sie ihnen ermöglicht, quantitative und qualitative Informationen eng miteinander verknüpfen und aufeinander beziehen zu können, indem beide Datenformen innerhalb eines Datenbankprogramms gespeichert werden. Diese Auffassung wird jedoch nicht von allen Forscher(inne)n geteilt. Manche sind der Ansicht, dass quantitative Daten und statistische Auswertungen wenig Relevanz für die qualitative Datenanalyse haben. Sie betonen, dass der Vorteil qualitativer Datenanalyse gerade darin besteht, neuartige und "andere" Ergebnisse zu produzieren. Für andere wiederum nimmt die Möglichkeit der Verknüpfung von quantitativen und qualitativen Daten einen hohen Stellenwert ein, um die Ergebnisse der qualitativen Analyse numerisch absichern zu können. [27]
Wie eingangs schon erwähnt betreffen die technischen Neuerungen, mit denen qualitative Forscher(innen) sich im Moment überwiegend auseinandersetzen müssen, die digitalen Formate. Einige Autor(inn)en bezeichnen dies als digitale Konvergenz, was bedeutet, dass dem qualitativen Forscher/der qualitativen Forscherin eine Reihe von neuen Ansätzen sowohl für die Datenerhebung als auch für die Datenanalyse zur Verfügung stehen. BROWN ("Going Digital" und "Staying Qualitative": Alternative Strategien zur Digitalisierung des qualitativen Forschungsprozesses) befasst sich in seinem Beitrag mit derartigen Technologien für Datenerhebung und -analyse, für die Berichtgestaltung und für die Archivierung von Daten. Dabei stellt er insbesondere die Anwendung der Formate HTML und PDF heraus, die es Forscher(inne)n ermöglichen, unterschiedliche Datentypen zu vernetzen, seien es erhobene Daten, Forschungsnotizen oder verschiedene Medientypen. [28]
Solch eine Konvergenz konfrontiert Forschende mit der Tatsache, dass neue Formen der Datenanalyse möglich, aber auch notwendig sind. So wächst das Interesse an visuellen Aspekten der menschlichen Kultur kontinuierlich, ebenso die Erkenntnis, dass "Verkörperung" zum Verständnis von menschlichem Handeln unumgänglich ist. Die Verfügbarkeit von Audio- und Videodaten oder Bildern wird Forschende mehr und mehr dazu anregen, die oben genannten Aspekte, die früher schwerlich festgehalten werden konnten, zu untersuchen. Ob in diesem Prozess neue CUQDAS benötigt wird oder ob die bisherigen Werkzeuge ausreichen, bleibt abzuwarten. Einige CUQDA Programme, wie z.B. HyperResearch, ATLAS.ti, C-I-SAID und Qualitative Media Analyser ermöglichen Forscher(inne)n schon jetzt das Kodieren von Bildern, von digitalisierter Sprache und von Videos. Andere Programme wie NVivo erlauben die Einbeziehung von Video, Audio- oder Bilddateien als so genannte "Databites". Diese können als Ganzes kodiert und mit anderen Materialien verknüpft werden. Welches CUQDA Programm auch immer gewählt wird, digitale Konvergenz wird wahrscheinlich die Nachfrage nach universalen Standards für Datenformate weiter bestärken, so dass Dateien zwischen einzelnen Softwarepaketen ausgetauscht werden können, CUQDAS eingeschlossen. Einige CUQDA Programme erlauben jetzt schon den Import von RTF, AIFF, WAV, MP3, PIC, GIF und MPEG Dateien. Tatoe und ATLAS.ti verwenden XML und HTML als ein Medium für den Export von Dateien. [29]
Die Verfügbarkeit von aussagekräftigen Multimediadaten in Forschungsberichten wirft dringlich ethische Fragen bezüglich Anonymität, Copyright und Vertraulichkeit auf. Die vor einigen Jahrzehnten sich ausbreitende Anwendung von Kassettenrekordern für Forschungszwecke führte nur sehr beschränkt dazu, das Forscher(innen) Audioversionen ihrer Analysen veröffentlichten oder ihre Daten archivierten. Im Allgemeinen – und aus guten Gründen mit Blick auf Vertraulichkeit/Anonymität usw. – transkribierten Forschende die Audiodaten und publizierten die Ergebnisse durchweg in Textform. Obwohl in neuester Zeit mehr Interesse am Archivieren von Daten besteht (auch begründet durch den Anreiz von Geldgebern und Forschungsträgern), wird kein großer Druck ausgeübt, Audio- und Videodaten im Original zu archivieren. Das mag einfach darin begründet liegen, dass das Kopieren und Anonymisieren von analogen Aufnahmen zu zeitaufwendig ist. Eine Bewegung hin zu digitalen Aufnahmen bedeutet diesbezüglich eine Vereinfachung und kommt auch den Forschenden entgegen, die mit archiviertem Material arbeiten wollen. Denn sie wollen auf archivierte Daten soweit möglich "in Reinform" und "unmanipuliert" zugreifen. Dies könnte dazu führen, dass Datenarchive in Zukunft mehr und mehr Audio- und auch Videodaten im Original archivieren. [30]
Eine diese Tendenz fördernde Entwicklung ist der Aufbau von digitalen Standards. Dies mag zum einen einen positiven Einfluss auf die Datenarchivierung und zum anderen auch auf die Datenanalyse haben. CARMICHAEL (XML und qualitative Datenanalyse) diskutiert in seinem Beitrag eine der wohl wichtigsten Entwicklungen, die der Sprache XML. XML ist heute schon der am besten akzeptierte und am häufigsten verwendete Standard zum "Mark up" von Texten, anhand dessen die Art des Inhalts identifiziert wird. Auch wenn XML HTML (der Sprache, die zur Beschreibung von Webseiten verwendet wird) sehr ähnlich ist, geht mit der Verwendung von XML eine wesentliche Verbesserung einher: Während HTML noch Beschreibungen enthält, wie Daten visuell dargestellt werden sollen, ist dies in XML nicht mehr notwendig. Für CARMICHAEL bietet XML nicht nur eine exzellente Möglichkeit, qualitative Daten in Archiven "zu markieren"; darüber hinaus ergeben sich aufgrund der breiten Zugänglichkeit dieser Werkzeuge der Datenbearbeitung neue Wege, um qualitative Datenanalysen durchzuführen. In diesem Zusammenhang ist besonders interessant, dass Daten, Forschende und Ergebnisdateien sich nicht an einem geographischen Ort befinden müssen, sondern sich über Netzwerke verteilen können. Momentan bestehen noch Schwierigkeiten, Browser zu finden, die XML-Texte anzeigen können und gleichzeitig geeignete Werkzeuge für das "Mark up" derselben liefern. Dies wird sich aber sehr wahrscheinlich in Zukunft ändern, wenn CUQDAS und andere Programme den Import und Export von XML-Dateien ermöglichen. [31]
Die weitere Entwicklung von CUQDAS wird wahrscheinlich in zwei Richtungen gehen: eine betrifft die Frage, wie Software angewendet wird und die zweite wird davon abhängen, welche Formen der Datenanalyse unterstützt werden. FIELDING stellte erst kürzlich fest, dass CUQDAS immer noch als eine optionale Zusatzfunktion in der qualitativen Forschung gesehen wird (FIELDING 2002). Es scheint noch ein langer Weg, bis CUQDAS sich einen festen Platz in der qualitativen Datenanalyse – und zwar als ein Hauptbestandteil qualitativer Analyseaktivitäten – erkämpft hat. Ein Zeichen hierfür ist, so FIELDING, dass CUQDAS in Büchern über qualitative Datenanalyse in separaten Kapiteln beschrieben wird, statt sie als einen integrativen Bestandteil in allen Analysekapiteln zu diskutieren. Dies spiegelt vielleicht auch die fehlende Akzeptanz von CUQDAS durch potentielle Anwender(inne)n wieder. Einige CUQDAS-Anwender(innen) erleben sogar eher feindliche Reaktionen von ihren Vorgesetzten gegenüber solcher Software (FIELDING & LEE 1998). Dies mag auch erklären, warum die Anwendung von CUQDAS in Forschungsberichten nur sehr beschränkt beschrieben wird. Wie oben schon erwähnt, scheint CUQDAS oft nur für einfache Code-und-Retrieve Aufgaben verwendet zu werden (SEALE 2002b). Die zugrunde liegende Logik zur Durchführung dieser Aufgaben ist im Prinzip keine andere als die für manuelle Vorgehensweisen verwendete. Insoweit haben sich viele CUQDAS-Anwender(innen) verglichen mit Forschenden, die zum Indexieren ihrer Notizen und Transkripte bunte Stifte benutzten, konzeptionell noch nicht sehr viel weiterentwickelt. FIELDING und LEE (1998) gelangten in ihrer Studie über CUQDAS-Anwender(innen) in Großbritannien zu ähnlichen Ergebnissen: Die meisten Befragten nutzten nur die Basisfunktionen, weil sie oftmals entweder dem Druck von Geldgebern folgten, schnell Ergebnisse zu produzieren, oder weil sie in ihren Universitäten nur wenig Unterstützung fanden und das Erlernen von CUQDAS, und insbesondere der erweiterten Funktionen, als zu mühsam empfanden. Es finden sich aber auch Forscher(innen), die CUQDAS innovativer einsetzen. FRIESE (2000) verwendete zum Beispiel ATLAS.ti-Netzwerksichten als visuelles Tool zur Untersuchung und Illustration von unterschiedlichen Einflüssen auf impulsives Einkaufs- und Verbraucherverhalten (FRIESE 2000). Ein weiteres Beispiel ist die kürzlich erschienene Analyse elektronischer Zeitungsartikel über Krebskranke von SEALE (2001; 2002a); im Falle dieser Studie lagen die Datenquellen schon elektronisch vor (es daher war keine Transkription notwendig), sie mussten aber vorbereitet werden. Hierfür wendete SEALE ein eigens für diesen Zweck geschriebenes Visual Basic Programm an. Die Daten wurden in einem einfachen Verfahren in NVivo kodiert; die Analyse hingegen wurde dann noch weitergehend von einem Konkordanzgenerator unterstützt. Diese Art integrativer Anwendung von Software mag ebenfalls richtungweisend für die Zukunft sein, setzt aber voraus, dass Daten programmübergreifend ausgetauscht werden können. Verbesserte Trainingsmöglichkeiten und die Einsicht auf Seiten der Fördereinrichtungen, dass tiefer gehende Analysen wertschöpfend und lohnenswert sind, lassen darauf hoffen, dass in Zukunft eine größere Anzahl an Programmen und Funktionen verwendet wird. Vielleicht wird CUQDAS dann als ein essentieller Teil von QDA-Training angesehen und als eine Hauptaktivität in allen qualitativen Forschungsprojekten. [32]
Die meisten der hier genannten Innovationen stellen relativ einfache Möglichkeiten dar, qualitative Datenanalyseprozesse zu unterstützen. Die Anwendung von Computern macht das Leben im Prinzip etwas leichter, Analysen können mit mehr Vertrauen und Transparenz durchgeführt werden. Der ultimative Test für eine tiefer gehende Akzeptanz von CUQDAS steht dann bevor, wenn Software dazu benutzt wird, Dinge zu tun, die mit traditionellen, manuellen Methoden undenkbar gewesen wären. Erste Hinweise zeichnen sich ab. Manche mögen argumentieren, dass dies nur ein Artefakt des Softwaredesigns ist, z.B. wenn Forschende eine mehrstufige Hierarchie von Kodes produzieren, einfach weil die Software dies unterstützt. In anderen Fällen scheinen sich Veränderungen daraus ergeben zu haben, dass bestimmte Vorgänge, die für manuelle Techniken unumgänglich waren wie z.B. das peinlich genaue Aufschreiben von Zeilennummern kodierter Textsegmente, in der computergestützten Analyse mehr oder weniger überflüssig geworden sind, da kodierte Textstellen jederzeit schnell per Mausklick erreicht werden können. Forschende, die noch mit der Papier-und-Bleistift Methode "groß" geworden sind, halten zum Teil noch an diesen alten Gewohnheiten fest, wohingegen jüngere Forscher(innen) keinen großen Nutzen mehr darin sehen. [33]
Wir werden wissen, ob sich die Anwendung neuer Technologien in der qualitativen Forschung wirklich hat durchsetzen können, wenn Forschende neue Formen von Daten und neue Typen der Datenanalyse anwenden, die nicht nur auf einer Modifikation der "Papier-und-Bleistift" Vergangenheit beruhen. Ob dies schon stattgefunden hat, ist sicher noch umstritten. Wir denken allerdings, dass die Beiträge in dieser Schwerpunktausgabe belegen, dass neue Technologien die Untersuchung von tatsächlich neuen Datentypen ermöglichen und die Exploration neuer Formen der Datenanalyse fördern. [34]
Dey, Ian (1993). Qualitative Data Analysis: A User-friendly Guide for Social Scientists. London, New York, NY: Routledge.
Fielding, Nigel G. (2002). Automating the Ineffable: Qualitative Software and the Meaning of Qualitative Research. In Tim May (Hrsg.), Qualitative Research in Action (S.161-178). London: Sage.
Fielding, Nigel G. & Lee, Raymond M. (1998). Computer Analysis and Qualitative Research. London: Sage.
Friese, Susanne (2000). Self Concept and Identity in a Consumer Society: Aspects of Symbolic Product Meaning. Marburg: Tectum.
Glaser, Barney G. & Strauss, Anselm L. (1967). The Discovery of Grounded Theory: Strategies for Qualitative Research. Chicago: Aldine.
Lee, Raymond M. & Fielding, Nigel G. (1995) User's Experiences of Qualitative Data Analysis Software. In Udo Kelle (Hrsg.), Computer-aided qualitative data analysis: theory, methods and practice (S.29-40). London: Sage.
Mangabeira, Wilma C. (1995). Computer Assistance, Qualitative Analysis and Model Building. In Raymond M. Lee (Hrsg.), Information Technology for the Social Scientist (S.129-146). London: UCL Press.
Mangabeira, Wilma C. (1996). CAQDAS and its Diffusion Across Four Countries: National Specificities and Common Themes. Current Sociology. 44(3), 191-205.
Muhr, Thomas & Friese, Susanne (2001). Computerunterstütze qualitative Datenanalyse. In Theo Hug (Hrsg.), Wie kommt die Wissenschaft zu ihrem Wissen. Band 2: Einführung in die Forschungsmethodik und Forschungspraxis (S.380-399). Schneider Verlag: Hohengehren.
Seale, Clive F. (2001). Sporting Cancer: Struggle Language in News Reports of People with Cancer. Sociology of Health and Illness, 23(3), 308-29.
Seale, Clive F. (2002a). Cancer Heroics: A Study of News Reports with Particular Reference to Gender. Sociology, 36(1), 107-126.
Seale, Clive F. (2002b). Computer-Assisted Analysis of Qualitative Interview Data. In Jaber F. Gubrium & James A. Holstein (Hrsg.), Handbook of Interview Research: Context and Method (S.651-670). Thousand Oaks, Ca: Sage.
Wolcott, Harry F. (1994) Transforming Qualitative Data: Description, Analysis, and Interpretation. London: Sage.
Zum Autor und zu den Autorinnen
Kontakt:
Graham R. Gibbs
Susanne FRIESE
Kontakt:
Susanne Friese
Copenhagen Business School
Institute of Marketing
Solbjerg Plads 3, 2000 Frederiksberg
Dänemark
E-Mail: sf.marktg@cbs.dk
Wilma C. MANGABEIRA
Kontakt:
Wilma C. Mangabeira
School of Health and Social Sciences
Middlesex University
Queensway
Enfield
Middlesex EN3 4SF, UK
E-Mail: w.mangabeira@mdx.ac.uk
Gibbs, Graham R.; Friese, Susanne & Mangabeira, Wilma C. (2002). Technikeinsatz im qualitativen Forschungsprozess. Einführung zu FQS Band 3(2) [34 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 3(2), Art. 8, http://nbn-resolving.de/urn:nbn:de:0114-fqs020287.
Revised 6/2008