Volume 1, No. 1, Art. 16 – Januar 2000
Von der Text- zur Hypertextanalyse: Konsequenzen für die Qualitative Forschung
Johannes Moes
Zusammenfassung: Während immer mehr Texte über das "World Wide Web" verbreitet und auch zunehmend in der sozialwissenschaftlichen Forschung zum Untersuchungsgegenstand werden, fehlt es an Reflexionen darüber, welche Konsequenzen sich aus dem Wandel vom Text zum Hypertext ergeben. Der Beitrag zeigt einige der Unterschiede auf, die für die qualitative Forschung relevant erscheinen, und strukturiert sie unter dem Aspekt verschwimmender Abgrenzungen.
Keywords: qualitative Forschung, Online-Forschung, Textanalyse, Dokumentenanalyse, Hypertext, World Wide Web, Homepage, Website
Inhaltsverzeichnis
1. Einleitung
2. Empirischer Hintergrund
3. Vom Text zum Hypertext: Verschwimmende Abgrenzungen
4. Ausblick
In den Neunzigerjahren hat das Internet als Informations- und Kommunikationsmedium rasant an Bedeutung gewonnen. Neben der "Killer Application" E-Mail – die Internetanwendung, die bis heute an Zahl und Bedeutung alle anderen Verwendungsformen bei weitem aussticht – ist dies besonders auf die Entstehung und Durchsetzung des World Wide Web (WWW) zurückzuführen. In dem Masse, wie Dokumente im WWW-Standardformat HTML (Hypertext Mark-up Language) veröffentlicht werden, steigt auch die Zahl der Untersuchungen empirischer Sozialforschung, die Quellen dieses Formats berücksichtigen. Leider lässt sich kaum Auseinandersetzung damit finden, welche Konsequenzen ein solcher Wechsel des Formats für Untersuchungen, vor allem im Bereich qualitativer Forschung hat. [1]
Ist ein Hypertext anders zu behandeln, anders zu analysieren als ein herkömmliches Dokument auf Papierbasis? Wo bestehen Unterschiede, wo muss die jeweilige Methode diese berücksichtigen? Eine vorläufige Literaturrecherche zu diesem Gebiet führte im deutschen Sprachraum zu keinem Ergebnis1). Besonders in der Bundesrepublik gibt es eine Auseinandersetzung über "Online Research" (was ein möglicher Oberbegriff für spezifische Forschungsansätze wie der hier diskutierte wäre) bislang vorwiegend im Bereich quantitativer Forschung, als Verdienst einiger unermüdlicher Protagonisten2). Die ausufernd breite Basis von "how to do" Büchern im Bereich Webdesign wurde wegen ihres geringen spezifischen Gewichts für Fragen sozialwissenschaftlicher, qualitativ-empirischer Analyse nicht berücksichtigt. [2]
Dieser Artikel versteht sich also keineswegs als Literaturübersicht und auch nicht als Entwurf einer allgemeinen Theorie, sondern soll lediglich praxisgesättigte Eindrücke wiedergeben, die verschiedene Aspekte einer "Hypertextanalyse" anreißen. Dabei ist eine feinere Differenzierung zwischen den Spezifika jeweiliger qualitativer Textanalysemethoden wie z.B. Diskursanalyse, Inhaltsanalyse, objektive Hermeneutik o.ä. für eine Diskussion wünschenswert, für diesen ersten Schritt der Reflexion allerdings zu vernachlässigen. Meines Erachtens sind die aufgeführten Aspekte weitgehend methodenunspezifisch. Wenn der Artikel zu einer breiteren Auseinandersetzung mit empirischen Methoden der Erforschung der Computernetze beiträgt, hat er seinen Zweck erfüllt. [3]
Die empirischen Erfahrungen, auf die sich die folgenden Anmerkungen beziehen, wurden in einem laufendem Promotionsprojekt zur Erforschung von sogenannten "Netzkritikorganisationen" gewonnen. Darunter werden solche (Nichtregierungs- und Nicht-profitorientierten-) Organisationen verstanden, die sich für eine kritische Nutzung der Computernetze einsetzen. Das Spektrum von Organisationen, welches unter diesem recht heuristischen Begriff gefasst wird, ist breit – der Begriff dient zunächst einer vorläufigen, offenen Erschließung des Feldes. Das Spektrum reicht von lokalen Initiativen, welche sich für einen allgemeinen und kostengünstigen Zugang zum Internet und für die Verbreitung kritischer Nutzungskompetenz einsetzen bis hin zu Lobbyverbänden, die direkt Expertise für (oder gegen) staatliche Regulierung z.B. im Bereich Kryptographie3) bereitstellen. In einem Ländervergleich (Deutschland, USA und teilweise Niederlande) werden die Wechselbeziehungen bzw. das Verwobensein zwischen "technischen" und "sozialen" Organisationsstrukturen untersucht. Methodisch werden eine Reihe unterschiedlicher Verfahren angewandt: Neben Interviews bzw. Gruppendiskussionen mit Organisationsmitgliedern und teilnehmender Beobachtung (auf öffentlichen Mailinglisten und in-real-life Treffen) kommt dabei die Analyse unterschiedlicher Dokumente (Mitgliederrundbriefe, papierene Selbstdarstellungen und eben Organisations-Homepages) zum Tragen. Verbindende methodologische Klammer für diese unterschiedlichen Datenquellen ist dabei die "Grounded Theory". [4]
Der Fokus auf "Netzkritikorganisationen" als Hintergrund der gewonnenen Erfahrungen muss auch als Einschränkung für die Verallgemeinerbarkeit des Folgenden gesehen werden: die im Projekt analysierten Seiten wurden meist von ehrenamtlich tätigen Organisationsangehörigen selbst geschrieben und designed, die gleichzeitig relativ hohe technische Kompetenz aufweisen. Die Organisationen wiederum sind meist recht klein und wenig formalisiert, auch unter dem Aspekt der Arbeitsteilung oder Hierarchisierung. Andere Untersuchungen, die sich etwa mit der Selbstdarstellung von Individuen auf ihren privaten Homepages oder den Webauftritten großer Unternehmen beschäftigen, die meist von spezialisierten Agenturen oder eigenen Abteilungen aufgebaut und betreut werden, mögen das Folgende nur eingeschränkt übertragbar finden. [5]
3. Vom Text zum Hypertext: Verschwimmende Abgrenzungen
In erster Linie jedoch geht es um die allgemeinen Unterschiede zwischen papierbasiertem Text und WWW-basiertem Hypertext und Konsequenzen für die qualitative sozialwissenschaftliche Analyse. Strukturiert werden die Eindrücke unter dem Leitmotiv "verschwimmender Abgrenzungen".
Der Hauptunterschied zum herkömmlichen Text, der überhaupt erst die Rede vom Hypertext begründet, liegt in der eigentlichen Idee vom Hypertext als dem einen, ineinander verwobenen Über-Text, in dem die Grenzen der einzelnen Texte verschwinden, begründet. Dieser Vorstellung, wie sie der Hypertext-Pionier Ted NELSON in den Sechzigerjahren im Xanadu-Projekt4) entwickelte, kann ein einzelnes HTML-Dokument selbstverständlich nicht gerecht werden. Dennoch stellt es einen qualitativen Sprung gegenüber einem Text auf Papier dar, mit nur einem Mausklick von einem Dokument in ein anderes, zu einer anderen Stelle im Text, einer neuen Seite auf der Domain (der gleichen Internetadresse) oder dem Server (auf dem gleichen bereitstellenden Rechner) oder auch ganz woanders im WWW springen zu können. Die grundsätzliche Lesegewohnheit, einen Einzeltext von vorne nach hinten zu lesen (die schon z.B. bei längeren wissenschaftlichen Texten oft aufgebrochen ist, wo zuerst oder lediglich Einleitung und Schluss gelesen werden) wandelt sich möglicherweise grundsätzlich zu einem "Hyper-Lesen", bei dem es eher um die Erfassung der Struktur eines Textes und seiner Verkoppelung mit anderen geht. Hier geht es aber weniger um Veränderungen der Gewohnheiten beim Empfangen, sondern vielmehr beim Verfassen einer Nachricht. Die technische Seite des HTML ist dafür weniger Voraussetzung als mehr entsprechende soziale Konventionen beim Schreiben von Texten. Im jungen Medium WWW finden sich solche Konventionen (noch) durchaus unterschiedlich entwickelt. Dies zeigte sich in Bezug auf alle der nachfolgenden Aspekte: teilweise wird versucht, Stil und Charakter der eingespeisten Dokumente möglichst an alten Medien zu orientieren, diese also zu "wiederholen". Und teilweise wurden, eigene, neue Formen geschaffen. Der Grad der Technikbeherrschung war aber für diese Differenz nicht entscheidend. Insofern erweist sich die Form eines Hypertextes als Resultat sozialer Prozesse und nicht der technischen Basis.
Für die Analyse einer Website heißt dies, jeweils die Frage miteinzubeziehen, wo ein Text anfängt und aufhört, inklusive der Entscheidung über die Textfolge. Im Unterschied zur Abgrenzung z.B. eines einzelnen Zeitungsartikels lässt sich diese Abgrenzung aber u.U. nicht so allgemein und klar treffen. Wann gehören Frames, wann gehören wiederkehrende, z.B. Gliederungs- oder Erläuterungstexte mit zum Text? Gibt es textspezifische (zusätzliche, sog. Meta-) Informationen in den entsprechenden Leisten des Browsers, und gehören diese dann zum Text? Ist ein Text, bei dem der Bildschirm zehnmal gescrollt werden muss, noch immer ein einzelner Text, wenn er in zehn einzeln zu ladende HTML-Dokumente aufgeteilt wurde? Ab wann wird man von zwei Texten innerhalb eines HTML-Dokuments sprechen (z.B. in zwei Spalten deutscher und englischer Text mit eventuell wichtigen Unterschieden oder bei graphisch abgesetzten Erläuterungen zum Text)? Ist der Textanfang oben links oder soll womöglich zuerst ein auffällig gemachter (großer, fetter, zentrierter, blinkender) Text in der Mitte gelesen werden? [6]
Wenn (und dies ist wohl meistens der Fall) eine ganze Homepage analysiert werden soll, stellt sich die Frage ihrer Abgrenzung und Reihenfolge auf höherer Ebene wieder. Eine Homepage kann, soll und wird schwerlich von "vorne nach hinten" gelesen oder analysiert werden. Eigener Gegenstand der Analyse muss demnach auch die Struktur einer Seite bilden. Lässt sich eine klar hierarchische, geplante oder eher eine rhizomatische, gewachsene Struktur feststellen? Gibt es viele kurze oder wenige, lange Dateien?
Auch hier verschwimmt die Abgrenzung einer einzelnen Homepage und lässt sich schlecht formalistisch, also durch Versuche einer allgemeinen Entscheidungsregel wieder herstellen. Dies lässt sich beispielhaft an unserem Thema verdeutlichen: so ließ sich die Grenze der für eine Netzkritikorganisationen relevanten HTML-Dokumente nicht einfach mithilfe der Dokumentenstruktur festlegen, im Sinne von "alles, was unter www.netzkritikorganisation.de/ abgelegt ist, gehört zu unserem Untersuchungsbereich". Die private Homepage eines Mitglieds nach dem Muster www.netzkritikorganisation.de/MitgliedSoundso gehört nämlich nicht zur Homepage einer Organisation. Ebenso musste jeweils inhaltlich entschieden werden, welche Subdomains (z.B. vorstand.netzkritikorganisation.de/) zur Organisationshomepage gezählt werden sollten, und in welchem Verhältnis dazu andere Domains mit ähnlichem Namen stehen (so kann netzkritikorganisation.ch oder netzkritikorganisation.net die Schweizer Schwesterorganisation oder nur eine Kopie der Seiten darstellen). Und schließlich stellt sich die Frage der Textgrenze auch für die Hyperlinks, die eindeutig über die Homepage hinausweisen: stellen sie nicht zumindest einen unverzichtbaren Kontext zum Text dar, der in die Analyse mit einfließen muss? In unserem Fall wurden über die Verweise auf andere Netzkritikorganisationen zum Beispiel "virtuelle Assoziationen" geschaffen, die die politischen Werthaltungen einer Organisation symbolisieren. [7]
Extrapoliert man die gegenwärtigen Trends im Medienbereich, so landet man bei der Verschmelzung von Internet, Telekommunikation, TV und Radio zu einem Universal- oder Monomedium. Ein Widerhall dieser Verschmelzung findet sich schon jetzt im WWW: Immer neue Zusatzprogramme für die Browser (Plugins wie Java, Realplayer, Flash, Shockwave etc.) sorgen für eine Integration von Bildern, Filmen, Audiodateien etc. Dabei werden nicht nur alte Medien imitiert, sondern teilweise entstehen neue Möglichkeiten für Texte, die sich unter der Maus verändern, Geräusche, die nur in bestimmten Situationen ertönen usw. Selbst bei Teilen der aus politischen (s.u.) und Ressourcengründen meist einfach gehaltenen Webauftritte der Netzkritikorganisationen ist dieser Trend spürbar. Ganz deutlich ist hier allerdings eine Abhängigkeit von Alter und kultureller Ausrichtung der anvisierten Zielgruppe einer Organisation zu bemerken: je jünger oder populärkulturorientierter die Zielgruppe, desto mehr Multimedia und Plugins.
Die Konsequenz für die qualitative Textanalyse ist augenfällig: die Einbeziehung auch nicht-textbasierter Medien wie Bilder und Ton reift von der Ausnahme zur allgemeinen Regel. Dies erfordert (neben der technischen Voraussetzung) auch eine Vertrautheit, oder doch zumindest Offenheit der ForscherInnen für andere Medien außer dem geschriebenen Text, mit dem sie im wissenschaftlichen Alltag gewohnt sind umzugehen. [8]
Eine andere Folge dieser Entwicklung ist, dass sich die Unterscheidung zwischen verschiedenen Textformen auflöst. Versuche, etablierte Formate lediglich ins Internet zu übertragen (wie Zeitungen, TV-Sendungen o.ä.) scheiterten, und Sender und Verlage, aber auch Unternehmen oder auch große Nichtregierungsorganisationen haben heute eigene Online-Redaktionen, die für einen speziellen Internetauftritt sorgen. Damit verblassen auch etablierte Unterscheidungen von Textgattungen, und neue sind noch wenig entwickelt. Dieser Verlust klarer Unterscheidungen sorgt auch bei den Web-Seiten der Netzkritikorganisationen teilweise für Verwirrung, wenn z.B. nicht klar getrennt wird zwischen ernsthafter Selbstdarstellung, Selbstironisierung oder gar Fremdeinschätzungen. (Speicher-) Platz, der im Gegensatz zu Druckseiten reichlich vorhanden ist verführt oftmals zu einer verwirrenden Vielfalt in der Selbstdarstellung5). Diese Vielfalt mag aber auch daran liegen, dass über die RezipientInnen der eigenen Seiten keine zuverlässigen Einschätzungen abgegeben werden können, so dass potenziell immer "die ganze Welt" der "significant other" ist.
Wiederum stellt sich an die SozialforscherInnen dieselbe, nicht geringe, Anforderung an die Vertrautheit bzw. Offenheit in Bezug auf sich neu entwickelnde Textgattungen oder Medienkombinationen, die zunächst ungewohnt sein mögen – eine Art "ethnologischer Neugier" wäre also wichtige Voraussetzung für die Entdeckung des Neuen im Hyperraum. Und schließlich bedarf es evtl. zusätzlicher Recherche oder eigener Interpretation in Bezug auf die Zielgruppe, an die sich die analysierten Texte richten. [9]
Die inhaltliche Ebene der Hypertextanalyse lässt sich weiterhin nicht einfach trennen von der technischen Ausgestaltung eines Dokuments, also der Ebene des "Quelltext" ( der Text inklusive aller Formatierungsbefehle). Dieser bietet, zumindest in unserem Fall, oft zusätzliche Informationen für die Auswertung. Neben Fragen des Webdesigns, welches man noch mit dem Layout papierener Dokumente gleichsetzen kann, lassen sich dem Quelltext oft Meta-Informationen zum Text entnehmen. Dies sind teilweise Routineinformationen wie Erstelldatum, benutzter Editor, Name des Erstellers und vielleicht Speicherplatz, aber auch Keywords zur Beschreibung der Seite oder Kommentare des Seitenerstellers zum Aufbau der Seite. Selbst den Dateinamen von einzelnen Seiten oder auch von Bilddateien konnten wir teilweise Zusatzinformationen entnehmen, z.B. zu den Klar- und Spitznamen einzelner Mitglieder anhand ihrer Bilddateinamen. Besonders im Falle von Netzkritikorganisationen spielt auch die Gestaltung unter technischen Aspekten wie Sicherheits- oder Softwarestandards eine Rolle. Ob eine Browserabfrage durchgeführt wird, Cookies gesetzt werden, bestimmte plugins6) erforderlich sind oder auch so etwas wie "sichere" Datenübertragung (https) ermöglicht wird, sind Aspekte, die für unsere Untersuchung, aber auch für andere Forschungsprojekte in ihrer sozialen Dimension (politische Ziele, Distinktionsgewinn) analysiert werden können. Die bei Netzkritikorganisationen häufig anzutreffende Einheit von inhaltlicher und technischer Ausgestaltung einer Seite lässt sich auch in anderen Bereichen des WWW häufig finden. Eine vorgeblich "rein-technische" Ebene im Sinne von "nicht-inhaltlich" lässt sich damit nicht von der Ebene der Inhalte trennen, beides erscheint unauflöslich verquickt.
Überlegenswert wäre, ob eine Hypertextanalyse nicht grundsätzlich den Quelltext einer Seite analysieren sollte. Diese sieht allerdings dann völlig anders aus als die graphische Darstellung im Browser. Insofern ist eher eine Miteinbeziehung des Quelltext wünschenswert. Von den SozialforscherInnen kann erwartet werden, dass sie die technische Seite der untersuchten Dokumente zumindest rudimentär verstehen und Spezifika bemerken können. Weiterhin bedarf es einer gewissen Routine, Quelltext und technische Ausgestaltung auf ihre inhaltliche Dimension hin zu untersuchen. Dafür empfiehlt es sich, öfter einmal den Quelltext einer Seite zu "lesen". Je nach Untersuchungsgegenstand bedarf es auch eines gewissen Kenntnisstandes in Sachen Internetentwicklung, um neue und genauso auch ältere Seiten einschätzen zu können. [10]
Eine andere, schon lang andauernde Diskussion über die Rolle der Forschenden in der Sozialforschung erfährt bei der Hypertextanalyse meines Erachtens eine neue Wendung: das "Lesen" eines Hypertext, als Voraussetzung seiner Analyse, wird mehr und mehr zu einem subjektiven, individuell verschiedenen Akt der Entscheidung zum Weiterklicken, des Interagierens mit dem Text. Entsprechend stellt sich ein und dieselbe Website für verschiedene ForscherInnen unterschiedlich dar, weil sie als Ganzes sich erst beim Lesen formt. Eine in den Höhen der Erkenntnistheorie geführte Debatte, die empirische ForscherInnen oft (zu) wenig tangiert, verstärkt sich auf der Ebene der Forschungspraxis. Individuelle Aufmerksamkeiten, Bewertungen und Gefühle spielen ohne Frage auch schon bei herkömmlichen Dokumenten eine Rolle bei ihrer Analyse – bei einem Hypertext verstärkt sich diese Tendenz jedoch auf einer zusätzlichen Ebene. Es geht um eine Art "Heisenbergsche Unschärferelation" in der Textanalyse: ein Hypertext ist nicht betrachtbar, ohne als ForscherIn den Gegenstand dabei zu verändern.
Solche Aussagen rennen innerhalb der qualitativen Forschung traditionell offene Türen ein. Wenn man sie von der allgemeinen auf die Ebene der Alltagspraxis herunterzieht, bedeutete dies: Die ForscherInnen müssten so oft wie möglich Überlegungen anstellen in Richtung: welche andere Rezeption dieser Seite wäre denkbar? Das fängt ganz banal bei der Technik an, also eine Seite z.B. mit unterschiedlich schnellen Computern bzw. Datenverbindungen, verschiedenen Browsern, mit und ohne Grafiken, Java, Cookies und anderen Zusatzfunktionen anzuschauen und die Unterschiede zu registrieren. In unserer Arbeit haben wir je nach Website große oder auch nur kleine Differenzen registriert. Angesichts der häufig gegebenen Fülle von alternativen Klickentscheidungen und Sichtweisen hat es sich in unserer Forschung bewährt, im frühen Stadium eine Homepage mit mehreren Personen zu analysieren. Dabei spielen nicht zuletzt Gefühle und spontane Bewertungen eine Rolle: erst in der gemeinsamen Arbeit fiel uns auf, wie unterschiedlich ausgeprägt, je nach Organisation und der benutzten Symbolik, die Bereitschaft war, lange Grafikladezeiten einerseits oder lange Textwüsten andererseits zu "erdulden". Das WWW ist der Ort der Aufmerksamkeitsökonomie: entscheidend sind die Sekunden, die ein Werbebanner Aufmerksamkeit bekommt, die Verführung zum Aufruf einer unbekannten Seite, Erfolg misst sich in Zugriffszahlen, in SubskribentInnen und in der Zahl der (Hyper-) Referenzen. Aufmerksamkeit aber ist individuell unterschiedlich – diese Unterschiede zu erkennen und zu interpretieren, würde die Gültigkeit einer Analyse im Sinne einer Intersubjektivität (nicht: Objektivität) erhöhen. [11]
Als letzter Punkt sei eine recht banale, aber entscheidende Eigenschaft von Hypertextdokumenten benannt: anders als Papierdokumente sind sie extrem flüchtig. Zwar mag sich auch eine Buchauflage von der nächsten unterscheiden, und eine Fernseh- oder Radiosendung muss natürlich aufgenommen werden, um analysiert zu werden. Der übliche Speicherort im WWW ist aber nun einmal der entsprechende Server, und die dort gespeicherten Dokumente sind alles andere als unveränderlich, im Gegensatz zum Papier, zur Video- oder Audiokassette. Aufgrund des Ressourcenüberfluss (es macht kaum Mühe und Kosten, ein HTML-Dokument zu verändern) und der relativen Jugend des Mediums (es gibt kaum etablierte Konventionen, wie ein geändertes Dokument gekennzeichnet wird) gibt es oft und unbemerkt kleine oder große Änderungen bei den analysierten Dokumenten. Außerdem ist die Wieder-Auffindbarkeit einer Seite (URL), auch für die Überprüfbarkeit wissenschaftlicher Aussagen, überhaupt nicht garantiert.
Die unverzichtbare Konsequenz zur Analyse einer Seite ist klar: Analysiert werden sollten nur Seiten offline, d.h. sie müssen erst lokal gespeichert werden. Entsprechende Softwaretools erleichtern dies7). Für die Nachvollziehbarkeit von Hypertextanalysen muss also entweder die betreffende Seite zur Verfügung gestellt oder überprüft werden, ob sie noch über das WWW in der gleichen Form zugänglich ist. Eine völlig neue Analyseperspektive ergibt sich insofern, als dass Longitudinalanalysen von Websites denkbar werden. In Falle unserer Studie geht es um Fragen wie: Wie verändert sich der Webauftritt einer Netzkritikorganisation im Laufe der Zeit? Wie entwickelt sich die Struktur der Seite? Welche Links, Bezüge, Internetkampagnenbanner kommen dazu, welche fallen weg? In welchem Abstand werden Inhalte gelöscht, und warum? [12]
Hier wie generell geht es für die qualitative Analyse selbstverständlich nicht um die Analyse als Bewertung im Modus von "Besser-Schlechter", sondern um die Interpretation, was in dieser Formatierung an Textverständnis, Betonung, Zielgruppenorientierung etc. steckt. Gleichwohl ist eine Analyse im Sinne eines "Besser-Schlechter" eine Gefahr, in die wir beim Untersuchen der Homepages von Netzkritikorganisationen wiederholt geraten sind. In dieser Hinsicht muß sich die Perspektive der Sozialforschung grundsätzlich von der des Webdesign unterscheiden, indem sie nicht bewertet, wie gut oder schlecht eine Seite ihrer (selbst zu definierenden) Aufgabe gerecht wird, sondern fragt: warum ist es so? Was läßt sich daraus über die soziale Welt lernen? Dass Fragen (wie auch in diesem Bericht) häufiger zu finden sind als Antworten und meist zu neuen Fragen führen, halte ich nicht für ein Manko, sondern für eine Qualität der Sozialwissenschaften. [13]
Auf die Gefahr hin, die Strukturierungsidee dieses Berichts zu sehr zu strapazieren: die Analyse von Hypertexten löst gesichert geglaubte Grenzen innerhalb der empirischen Sozialforschung auf. Ein Text lässt sich nicht klar abgrenzen von einem anderen, eine Homepage sich nicht lösen aus ihrem Kontext, unterschieden geglaubte Medien vermischen sich, Textgattungsgrenzen verlaufen, technische Form wird Inhalt, objektive ForscherIn und subjektive Person lassen sich nicht trennen, ein Text ist nichts zeitlich Festes mehr. Vielleicht geht nur eine Sicherheit verloren, die immer schon vorgeblich war. In jedem Fall stellt das Internet, in diesem Fall das WWW, in seiner ständigen Veränderung die sozialwissenschaftliche Phantasie vor große Herausforderungen. Wenn es als Provokation wirkt, damit sich die Wissenschaft der Welt weniger formalisiert, weniger objektivistisch und weniger unpersönlich nähert, ist dies schon ein Erfolg. [14]
1) Eine Anfrage (von anderer Seite) auf der "german internet research-list" (gir-l) verlief m.W. ebenfalls ergebnislos. <zurück>
2) http://www.online-forschung.de, http://www.online-forschung.de/kom/gir-l. <zurück>
3) Die Kryptographie, also Entwicklung von Verschlüsselungsverfahren, stellt einen für die Internet-Regulierung zentralen Politikbereich dar. Eine öffentliche "Debatte" stellt sich hier eher über Bilder und Schlagworte vom "Big Brother" vs. Nazi- oder Kinderpornohändlerring her, d.h. es werden wenig sachorientiert Extremvisionen vom Überwachungsstaat bzw. den sich der Verfolgung entziehenden Verbrechern gegeneinander gestellt. Sachlich gesehen kollidieren in diesem Bereich teilweise staatliches bzw. geheimdienstliches Kontrollbedürfnis und unternehmerisches Interesse am Schutz sensibler Daten, teils harmonieren sie aber auch. Gesellschaftliche Aspekte wie z.B. Datenselbstbestimmung bleiben oft ausgeblendet. Dennoch waren nationale Politiken in diesem Bereich oft unentschlossen, z.B. in der Bundesrepublik, und daher aufgeschlossen für die Expertise von engagierten Computer-Fachleuten. <zurück>
4) http://www.xanadu.com <zurück>
5) Wobei man sich nicht darüber hinwegtäuschen sollte, dass das Internet seine eigenen ökonomischen Zwänge hat. Zwar ist die materielle Basis Speicherplatz nicht knapp, dafür aber die Übertragungsrate (lange Dokumente werden u.U. langsam geladen), und vor allem die Ressource Aufmerksamkeit: wer im Internet (und nicht nur dort) nicht schnell davon überzeugen kann, die Aufmerksamkeit der RezipientInnen zu verdienen, hat schon verloren. <zurück>
6) Zum Verständnis: Mittels einer "Browserabfrage" wird meist ein Dokument in einer für die jeweilige Ansichtssoftware optimierten Form zugänglich gemacht, es gibt also mehrere Varianten. Cookies sind kleine Dateien, die auf der Festplatte des "browsenden" Rechners gespeichert werden und so seine Wiedererkennung ermöglichen. Plugins sind Softwareerweiterungen für die Browser, z.B. um animierte Seiten darstellen zu können – eine Seite wird dann je nach Aktualität der installierten Plugins anders aussehen. <zurück>
7) Es gibt verschiedene "Offline-Browser", die für diese Aufgabe benutzt werden können, beispielsweise "Offline Explorer", "WebZip", "Websnake" oder "Teleport Pro". Alle bieten zeitlich begrenzte Testversionen und kosten um 50$. <zurück>
Johannes MOES, Studium Politikwissenschaft und Soziologie in Hamburg und Berlin, promoviert über "Netzkritikorganisationen im internationalen Vergleich".
Kontakt:
Johannes Moes
E-Mail: jmoes@zedat.fu-berlin.de
Moes, Johannes (2000). Von der Text- zur Hypertextanalyse: Konsequenzen für die Qualitative Forschung [14 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 1(1), Art. 16, http://nbn-resolving.de/urn:nbn:de:0114-fqs0001169.
Revised 7/2008