Skip to content.
Logo tecnoteca

Portale Tecnoteca.it

Logo tecnoteca

Vai al sito aziendale Tecnoteca.com


 
You are here: tecnoteca.it » Tesi on line » Apprendimento e pratiche in una comunità virtuale di auto-mutuo aiuto » Metodologia della ricerca » Fare ricerca sui "Nuovi Media": i metodi e i disegni di ricerca possibili

Fare ricerca sui "Nuovi Media": i metodi e i disegni di ricerca possibili

Prima di parlare della ricerca sui nuovi media, è necessario specificare cosa tale termine stia a significare.

Il termine “New Media” indica le nuove tecnologie della comunicazione: se alcune di esse sono state chiamate con questo nome in passato, ora non lo sono più, in quanto diventate oramai “normali”, come il fax, o quasi estinte, come il teletext.

Nel loro testo12 del 1988, forse omai troppo datato ma comunque ancora prezioso nel fornire i concetti base di tale argomento, Williams, Rice e Rogers considerano come “New Media” sia le allora nuove tecnologie di telecomunicazione, sia le nuove versioni delle “vecchie” tecnologie. Essi registrano, già in quegli anni, una crescita di interesse nell’adozione, implementazione ed effetti di tali tecnologie e, con essa, una conseguente crescita della ricerca ad essa correlata (Williams, Rice, Rogers, 1988: 16).

Ma quali sono in maniera più specifica questi “Nuovi Media”? Williams, Rice e Rogers indicano come “New Media”, “quelle tecnologie, perlopiù elettroniche e digitali, che sono in continua espansione nei nostri tempi. Le tecnologie chiave che stanno alla base dei nuovi media includono la microelettronica, i computer e le reti di telecomunicazione” (originale in inglese, 1988:3).

I tre autori scrivono quasi vent’anni fa e, pertanto, nella loro trattazione non hanno potuto includere i media che, da allora ad oggi, hanno fatto la loro comparsa o il cui uso si è diffuso alle masse. Naturalmente essi non parlano di internet, almeno nella forma in cui noi lo conosciamo oggi, dato che il testo è stato scritto prima della diffusione del world wide web; ma parlano di media tecnologici che sono stati, in un certo senso, i suoi antenati e che esistono tutt’ora, come i bulletin board system (BBS) diffusi in Usenet o i sistemi di teleconferenza.

Curiosamente essi trattano anche di media che allora sembravano destinati ad un enorme successo e che, per vari motivi politici e sociali, sono al contrario scomparsi quasi subito, come il videodisc13.

Oggi nel termine “New Media” generalmente si includono la microelettronica, i sistemi (hardware) per il trattamento dell’informazione, le tecnologie software, le telecomunicazioni e le architetture dei sistemi informativi (Fortunato in Lever, Rivoltella, Zanacchi, 2002: 814).
Sempre nello stesso testo i tre autori propongono un’esaustiva carrellata dei metodi e dei disegni di ricerca disponibili per studiare tali media. La classificazione dei metodi proposta da Williams, Rice e Rogers è tutt’ora valida, anche se l’avanzare della ricerca stessa e l’avanzare della tecnologia, come per esempio i sempre nuovi software per la ricerca sia quantitativa che qualitativa, hanno arricchito notevolmente il bagaglio degli studiosi.

Utilizzerò tale classificazione per fornire al lettore le coordinate generali dell’insieme dei disegni di ricerca possibili nello studio dei cosiddetti “New Media”.

I tre autori dividono i disegni di ricerca presentati in “Approcci Convenzionali” e “Alternative ai Metodi e ai Disegni di Ricerca Convenzionali”. Essi intendono per “convenzionali”, quei disegni che si situano all’interno dell’approccio quantitativo e positivista, presentandone undici, sistemati lungo un continuum dal più quantitativo al meno (Williams, Rice, Rogers, 1988: 33).

Modelli Matematici.
Si tratta di set di equazioni in grado di descrivere le relazioni che intercorrono all’interno di un insieme di fenomeni. Manipolando valori differenti si osservano le conseguenze del cambio delle assunzioni preliminari sul fenomeno studiato.
I punti di forza di tale metodo sono il rendere esplicite le assunzioni e descrivere i fenomeni con un linguaggio non ambiguo. Le sue debolezze sono nel suo essere fortemente dipendente dalle assunzioni iniziali e nella necessità di avere una notevole conoscenza pregressa del fenomeno.

Esperimenti Controllati.
Gli esperimenti manipolano una o più variabili indipendenti conosciute, per vedere come una o più variabili dipendenti varino di conseguenza. Tale metodo utilizza anche strumenti per la diminuzione dell’errore e l’aumento del controllo, come l’assegnazione casuale dei rispondenti alle diverse condizioni di trattamento o l’uso del “double blind-experiment”, in cui anche gli stessi studiosi non sono a conoscenza di quali rispondenti siano assegnati al gruppo di trattamento e quali a quello di controllo.
I punti di forza di tale metodo sono la minimizzazione dell’errore, la prevenzione di possibili spiegazioni alternative, un’alta spiegazione della varianza nei fenomeni grazie al controllo, la possibilità di enfatizzare la teoria tramite la scelta di variabili e condizioni e, per finire, una forte validità14 interna.
I punti deboli sono la troppa semplificazione della situazione reale, necessaria a rendere possibile il controllo su determinate variabili; ma la vera debolezza, soprattutto nello studio dei nuovi media, è una mancanza di realismo dovuta al fatto che i risultati sono troppo legati ai rispondenti specifici dell’esperimento e al medium scelto.

Quasi-Esperimento.
Sono esperimenti che avvengono sul campo, in una situazione solo parzialmente controllata. Presuppongono un controllo sul tempo di misurazione e la scelta dei rispondenti, ma non l’assegnazione di essi a gruppi diversi, in quanto il gruppo di controllo non esiste, dato che si tratta di fenomeni che accadono naturalmente. Proprio per tale motivo, essi possono effettivamente far vedere alcuni dei contesti, delle realtà sociali e storiche che influenzano l’uso e l’interpretazione dei nuovi media. La validità esterna è più alta di quella degli esperimenti controllati.
I punti deboli sono la difficoltà a trovare appropriati siti di ricerca sul campo, a mantenere il proprio disegno di ricerca di fronte ai continui mutamenti della situazione naturale sul campo e, soprattutto,  l’essere sicuri che tali mutamenti non siano poi le vere spiegazioni dei risultati sperimentali. Nell’ambito della ricerca sui nuovi media, tale metodo, rischia il bias di studiare solo il comportamento di rispondenti innovativi ma non tipici.

Survey (Inchiesta Campionaria).
Le survey utilizzano questionari, più o meno strutturati, che possono essere somministrati dai ricercatori tramite lettera o telefono, o attraverso interviste online o face-to-face, generalmente ad un alto numero di rispondenti. Tipicamente esse sono cross-sectional (trasversali), cioè la raccolta dati avviene una volta sola nel tempo; anche se una variante molto utile, a detta di Williams, Rice e Rogers, è la “group feedback analysis”, la quale prevede che i membri di un gruppo rispondano alla survey per poi far avere loro i risultati, in modo che essi li possano interpretare e pronunciarsi sul loro significato e sulle assunzioni che sono dietro alle domande e alle risposte.
I punti di forza sono la possibilità di misurare molte variabili, permettendo analisi statistiche di relazioni multiple e complesse. Le survey possono essere usate interattivamente per ridefinire ipotesi e domande.
Tra i punti deboli delle survey ci sono il non rivelare le differenze di motivazione ed interpretazione che sottostanno a risposte simili e l’enfatizzare l’analisi di un set aggregato di individui. Spesso l’obiettivo è la spiegazione della varianza in un certo momento e non la spiegazione del processo. L’uso della survey, inoltre, presuppone l’interpretazione dell’associazione statistica tra due variabili come un’evidenza della relazione causale tra di loro.

Studi Longitudinali.
Gli studi longitudinali sono delle survey che organizzano la raccolta dei dati in unità d’analisi. Tale raccolta può avvenire sia in periodi di tempo discreti che in maniera continua per un certo periodo.  Le unità possono essere rappresentate sempre dallo stesso campione di rispondenti (studio panel), da campioni differenti (inchieste cross-sectional replicate), da una singola variabile o da set diversi di persone che si muovono attraverso gli stessi stadi di un processo (studio di coorte).
La forza degli studi longitudinali sta nel permettere intuizioni su processi che potrebbero impiegare tempo a svilupparsi, nell’identificare modelli d’uso dei nuovi media di breve e lungo periodo, trend di diffusione e cambiamenti nelle realtà sociali in cui i media si inseriscono.
Le debolezza sta, invece, nel costo e nel tempo necessario per attuarli. Inoltre un disegno di ricerca troppo rigido potrebbe non essere in grado di adattarsi ai cambiamenti di contesto e condizioni, come lo sviluppo, durante lo studio, di nuovi usi o forme del medium.

Studi di Campo.
Queste ricerche consistono nell’osservazione e nella misurazione di fenomeni che accadono naturalmente, e non prevedono controlli di nessun tipo. Gli studi di campo possono utilizzare una combinazione di metodi convenzionali (case studies, survey e dati d’archivio).
I punti di forza sono che le variabili dipendenti sono misurate sistematicamente in un contesto naturale, offrendo intuizioni sul fenomeno naturale studiato.
La debolezza sta nel fatto di non permettere ai ricercatori di isolare tra tutte le possibili spiegazioni processi specifici o influenze. Non è inoltre possibile alcun controllo sulle condizioni di ricerca e sulle caratteristiche dei rispondenti. La validità interna è spesso bassa.

Ricerche Secondarie e d’Archivio.
Sono ricerche che si basano sulla raccolta e analisi di dati storici o sulla ri-analisi di dati raccolti in ricerche precedenti. In tutte e due i casi i dati possono essere stati raccolti per propositi diversi da quelli che spingono i ricercatori impegnati nella ricerca secondaria o d’archivio.
I punti di forza sono i costi bassi, la possibilità di comprendere i processi storici, di definire i trend passati per confrontarli con i presenti, la garanzia che il ricercatore non possa manipolare le condizioni sotto cui vengono raccolti i dati.
I punti deboli sono che i dati posso non presentarsi nella forma più adatta alla ricerca, tali dati possono contenere dei bias nel campionamento, nella fase di raccolta o archiviazione. Inoltre il modo in cui gli indici sono calcolati può essere cambiato nel tempo e, pertanto, le variabili disponibili possono non corrispondere esattamente a quello a cui i ricercatori sono interessati.

Previsioni e Ricerche sugli Scenari Futuri.
Tali studi hanno lo scopo di definire le direzioni plausibili che il fenomeno studiato seguirà in futuro. Essi si basano su tecniche come l’analisi dei trend di mercato, la definizione di scenari, l’analisi del contenuto dei mass-media.
La forza di questo tipo di studi sta nell’obbligare a riflettere sulle possibili conseguenze delle politiche correnti e nel rivelare i presupposti che sono dietro le previsioni.
La debolezza sta nell’incapacità di specificare tutti i fattori rilevanti, nel sovrastimare i primi sintomi di cambiamento, mentre si sottovalutano le conseguenze a lungo termine, e nel fraintendere le relazioni tra le variabili relative alle previsioni.

Analisi del Contenuto.
Si tratta della codificazione sistematica del contenuto della comunicazione in un set di categorie teoricamente significativo, il più possibile esaustivo e mutuamente esclusivo. Il contenuto del messaggio può provenire da programmi televisivi (contenuto verbale, scene-setting, relazioni materiali, tecniche visive o sonore), dalle trascrizioni di programmi radio e testi scritti (come articoli di giornale, corrispondenza tradizionale o scambio di e-mail e dialoghi online).
Tale contenuto può essere analizzato qualitativamente, in modo da arrivare ad una comprensione dell’uso e della forma di tale svariato contenuto, o quantitativamente, come frequenze o percentuali di una categoria confrontata ad un’altra. Il testo disponibile online può essere monitorato automaticamente e il suo contenuto analizzato da specifici software che, ad esempio, identificano gli argomenti più comuni.
I punti di forza di questo metodo sono il descrivere nel tempo i trend nei contenuti, il fornire una connessione teorica tra le intenzioni degli individui e delle organizzazioni che producono il contenuto dei media e le possibili conseguenze sociali relative all’uso che l’audience fa di tale contenuto; la possibilità di testare le teorie sul significato del messaggio.
I punti deboli sono rappresentati dal fatto che spesso il contenuto è spogliato sia del suo contesto, che del processo di sviluppo del significato che avviene nelle relazioni tra i partecipanti alla comunicazione. Inoltre, l’analisi del contenuto potrebbe portare ad assumere che il contenuto del messaggio abbia effetti specifici, i quali al contrario potrebbero non esserci. Trascrivere e codificare i messaggi, poi, è generalmente un’attività lunga e costosa.

Studi di Caso.
Generalmente uno studio di caso include l’osservazione e la descrizione, o ricostruzione, di un fenomeno di interesse. Convenzionalmente il ricercatore non interviene sul fenomeno studiato. Altre forme di studio di caso, però, prevedono che il ricercatore diventi parte del contesto sociale del fenomeno per comprenderlo meglio, come nel caso degli studi che utilizzano l’osservazione partecipante.
Williams, Rice e Rogers fanno l’esempio di un ricercatore che diventa un utente di un newsgroup aziendale con lo scopo di capire come si sviluppano le forme di netiquette al suo interno e come esse differiscano da quelle utilizzate nelle relazioni FtF.
Un punto di forza dello studio di caso è il poter descrivere le relazioni complesse, le interpretazioni personali e le narrative storiche del fenomeno.
La debolezza sta nella limitatezza dei risultati a un singolo gruppo di individui e a una singola situazione, spesso dipendenti dalla ricostruzione di eventi passati e suscettibili di interpretazioni multiple. Inoltre se i ricercatori intervengono nel campo di ricerca, potrebbero influenzare in maniera eccessiva l’azione e l’interpretazione dei rispondenti.

Focus Group.
Consiste nel riunire da due a circa dieci persone per discutere insieme le loro reazioni a una serie, limitata ma non esplicitamente chiusa da confini, di concetti, prodotti, problemi, considerazioni, opinioni etc. Un moderatore guida la discussione in modo da trattare gli argomenti interessanti per la ricerca e in maniera da far emergere i responsi emozionali e cognitivi dei partecipanti.
Un analista esperto può riuscire a trarre da queste discussioni nuovi concetti e nuova comprensione del fenomeno in esame. I focus group, inoltre, offrono l’opportunità di osservare i partecipanti mentre discutono, individuando i modi di dialogare, di negoziare il significato, di appoggiare o scoraggiare certe espressioni o certi atteggiamenti.
I punti deboli sono che il focus group potrebbe essere dominato da un particolare partecipante, potrebbero insorgere bias dovuti al moderatore che guida in maniera eccessiva la discussione. A ciò si aggiunge che i partecipanti ai focus group sono spesso atipici rispetto alla popolazione di riferimento dello studio. Questo porta al fatto che, generalmente, i risultati delle discussioni di focus group sono qualitativi e inadatti all’analisi statistica.

I disegni di ricerca fin qui presentati sono stati indicati da Williams, Rice e Rogers come “approcci convenzionali” in quanto i tre autori li hanno intesi come un’espressione dei principi dell’approccio positivista. Alcuni di essi, soprattutto gli ultimi, si allontanano, anche notevolmente, dalle caratteristiche richieste da tale approccio. Probabilmente la scelta degli autori, che non viene argomentata nel testo, di inserire anche questi disegni di ricerca nell’approccio quantitativo-positivista deve spiegarsi con il fatto che anche questi, seppur qualitativi, possono essere definiti “convenzionali”.

I tre autori, infatti, differenziano questa prima serie di disegni di ricerca dalla successiva, che chiamano “Alternative ai Metodi e ai Disegni di Ricerca Convenzionali”, individuando nell’approccio positivista alcuni limiti che hanno portato alla necessità di sviluppare metodi alternativi nuovi.
Questi metodi, che nel 1988 potevano essere solo una minoranza e un’alternativa, oggi si sono notevolmente sviluppati, tanto da ritagliarsi uno spazio pari ai metodi più positivisti.

I limiti individuati da Williams, Rice e Rogers (1988: 39) nel paradigma positivista sono quattro e sono quelli già individuati in tanta letteratura:

  1. Il paradigma positivista non è adatto ai primi stadi di una disciplina o di una teoria, in quanto la sua rigidità, il suo rigore e l’utilizzo di metodi predefiniti possono precludere la possibilità di scoprire aspetti che non sono misurabili o analizzabili con tali metodi.
  2. I metodi tipici dell’approccio scientifico-positivista spesso non sono adeguati allo studio di aspetti legati all’attività umana, in quanto distaccano l’oggetto di studio dal suo contesto storico e sociale. Tale approccio assume che esistano degli “effetti” che sono “causati” unidirezionalmente da determinate variabili indipendenti, piuttosto che da realtà sociali create, negoziate nel loro significato ed interpretate dai partecipanti stessi attraverso le loro interazioni. Per quanto riguarda lo studio della comunicazione umana, tale limite è ancora più accentuato dato che tale campo di ricerca coinvolge spesso l’analisi del significato.
  3. L’approccio “convenzionale” non riesce a generare facilmente alternative esplicite alle proprie assunzioni e prospettive. Esso è focalizzato a identificare e falsificare spiegazioni alternative all’interno della propria prospettiva.
  4. L’operazionalizzazione della maggioranza delle variabili è una misura indiretta del fenomeno o del concetto studiato. Molti studi riescono a spiegare solo una piccola parte di varianza e, dato che solo pochi rapporti di ricerca sono confrontabili, l’assunzione della replicabilità e cumulatività della scienza nella pratica non è soddisfatta. Per finire, i fenomeni che non sono suscettibili ai metodi convenzionali delle scienze sociali non vengono studiati.

Per tentare di dare risposta a questi limiti si sono sviluppati paradigmi e teorie alternative che, portando avanti la tradizione fondata dalla sociologia comprendente (Verstehen) di Weber (1922), si possono riunire sotto il nome di ricerca interpretativa e critica.

Tale approccio è centrato sull’importanza del significato soggettivo ed è primariamente induttivo, muovendo la propria attenzione dal livello empirico verso il livello teorico. La teoria non viene testata ma è emergente, cioè si forma, muta, si evolve con la ricerca stessa. L’approccio critico-interpretativo è inoltre olistico, nel senso che considera di primaria importanza il contesto, non come semplice ambiente che circonda l’azione o il fenomeno, ma come elemento che contribuisce a creare il significato dell’azione.

Non esiste una metodologia unificata, associata all’approccio interpretativo e critico, ma ci sono dei principi comuni:

  1. Sono gli individui a creare la propria realtà e ad interpretarla. Le interpretazioni sono quindi soggettive e relative, costruite in interazione con gli altri individui nei processi comunicativi che avvengono nella realtà sociale.
  2. Gli elementi di tale realtà non sono isolati o separabili: l’azione individuale e le condizioni strutturali si influenzano a vicenda. Sotto la realtà di superficie, sotto le condizioni materiali e formali, ci sono significati più profondi.
  3. Gli approcci all’interno di tale corrente possono essere più o meno critici: se gli approcci convenzionali supportano acriticamente le status quo, gli approcci interpretativi sono più critici e si possono distinguere, appunto, in naturalistici e critici15. I primi sono tesi a capire come la società sia regolata attraverso la negoziazione e la creazione del significato, i secondi si dedicano ad identificare, valutare e rimuovere l’inequità sociale e la dominazione.

Naturalmente anche l’approccio interpretativo presenta a sua volta dei limiti: la difficoltà nel gestire ed organizzare le enormi quantità di dati qualitativi derivanti dalle interviste e dalle osservazioni sul campo, a cui si aggiunge una dichiarata soggettività nel raccogliere ed integrare tra loro i vari materiali, fornendo le basi per le proprie conclusioni, inevitabilmente soggettive a loro volta.

Inoltre Williams, Rice e Rogers (1988: 42) registrano una certa riluttanza nell’uso degli strumenti informatici, in quanto essi apparirebbero troppo tecnocratici e de-personalizzati. Se quest’affermazione poteva essere valida alla fine degli anni ottanta del secolo scorso, oggi la realtà della ricerca, anche interpretativa, è molto differente: esistono e sono diffusi software creati appositamente per condurre ricerche qualitative16.

Come già detto in precedenza, Williams, Rice e Rogers non individuano nell’approccio interpretativo e critico una metodologia ben definita, forse perché avevano già esaurito gran parte dei metodi possibili classificandoli come “convenzionali”. Non a caso la ricerca qualitativo-interpretativa fa uso degli ultimi metodi e disegni di ricerca presentati in precedenza, come gli studi sul campo, gli studi di caso, le ricerche secondarie e d’archivio, l’analisi del contenuto e i focus group, per raccogliere ed analizzare i propri dati usando una prospettiva etnometodologica ed etnografica piuttosto che positivista.

Pur non individuando metodi specifici, i tre autori propongono tre “direzioni” lungo la quale l’approccio critico-interpretativo si muove nello studio dei nuovi media: l’approccio interpretativo, il contestualismo e l’Action Research.

A mio avviso se le prime due direzioni possono essere viste come apparati teorici da utilizzare per la ricerca, senza però imporre delle specifiche dimensioni operative, l’ultimo propone esplicitamente delle direttive operative da seguire, come l’intervento del ricercatore e la partecipazione di tutti i gruppi di attori rilevanti.

Approccio Interpretativo.
L’approccio interpretativo alla ricerca sulla comunicazione pone l’attenzione sul significato soggettivo dei messaggi comunicativi degli attori (Geertz, 1973), e si basa sulle seguenti linee principali:

  • Considera i ruoli come l’insieme delle aspettative, i diritti e i doveri e i contratti sociali che governano il comportamento sociale degli individui, spingendoli ad adattarsi alle fonti e ai contenuti delle credenze correnti in quella determinata società.
  • Vede il processo di decisione come un processo di analisi del problema e creazione di significato, basato sia sull’evidenza e sull’analisi, ma anche sull’intuizione, sulla negoziazione e sulla attribuzione di valore.
  • Ha lo scopo di comprendere le transazione coinvolte nell’acquisizione, nello scambio e nella distribuzione dell’informazione e le fonti collettive o gerarchiche (come le politiche, i rituali e le cerimonie) del sistema di comunicazione.
  • Studia come la comunicazione media le intenzioni e i comportamenti individuali, sia tramite ragioni valide, che tramite interessi particolari e convenienze.

Contestualismo.
Il contestualismo sostiene che gli individui, le organizzazioni, gli eventi e le strutture oggetto di studio non debbano essere isolati da tutte quelle interdipendenze che essi hanno con il contesto in cui sono inseriti, in quanto tale contesto ne influenza il cambiamento e l’azione. Il contestualismo è una reazione alla tendenza della ricerca positivista ad indagare il comportamento umano come una specie di psicologia individualistica.
Nella ricerca sulla comunicazione il contesto, il contenuto e il cambiamento vengono descritti come parte di un unico processo continuo che fa sia da sfondo che da struttura.
All’interno di tale filone vengono spesso utilizzati studi di caso comparativi dei nuovi media in situazioni diverse, in fasi diverse della comunicazione, in tempi diversi.
Per esempio, sostengono Williams, Rice e Rogers (1988: 45), un’analisti contestuale di un sistema per l’invio elettronico di messaggi dovrebbe considerare anche il design del sistema, il processo di adozione da parte dell’organizzazione e degli individui, l’implementazione continua e la continua re-invenzione del nuovo medium17, i conflitti sul possesso, le possibili applicazioni e le loro implicazioni a breve e lungo termine.
Nell’argomentare ulteriormente la necessità dell’approccio contestualista, i tre autori riportano anche l’esempio della delusione seguita alle promesse dell’utilità per il Terzo Mondo delle nuove tecnologie della telecomunicazione. Delusione attribuibile al fatto che alla base di tali aspettative ci sono stati i risultati decontestualizzati di ricerche svolte nei paesi sviluppati.

Action Research.
La definizione forse più citata di Action Research è quella di Rapoport: “L’Action Research ha lo scopo di contribuire sia a risolvere i problemi pratici delle persone in una situazione contingente, che di raggiungere gli obiettivi delle scienze sociali tramite la collaborazione unitaria [tra ricercatori e le persone coinvolte] all’interno di una cornice etica mutuamente accettata” (originale in inglese, Rapoport, 1970 in Susman e Everet, 1978).
I ricercatori, quindi, seguono il disegno dell’Action Research mettendo esplicitamente in discussione lo status quo, i modelli di controllo, le scelte normative sulla tecnologia.
Williams, Rice e Rogers sostengono che, alla fine degli anni ottanta, la maggior parte dei fondi per la ricerca sui sistemi informativi era controllata da ricercatori di stampo positivista, da progettisti e da manager. L’Action Research cerca di bilanciare questo bias, considerando gli attori come partecipanti e non come oggetti di studio, fornendo un feedback a tutti gli attori rilevanti del sistema e a tutti quelli coinvolti nella ricerca, facendo partecipare i ricercatori al processo di cambiamento e sviluppando azioni alternative per gli attori del sistema, cercando di bilanciare gli interessi dei ricercatori con i bisogni degli attori.

A conclusione della trattazione sui possibili metodi e disegni di ricerca per lo studio dei Nuovi Media, Williams, Rice e Rogers (1988: 47) propongono come via da percorrere quella dell’unione degli approcci quantitativi e convenzionali con quelli interpretativi, in modo da cercare di limitare gli svantaggi e prendere tutti i vantaggi di entrambi.

Essi auspicano l’uso di più metodi diversi tra loro e la raccolta di tipi differenti di dati, per arrivare a quella che loro chiamano “triangolazione”, ricalcando il termine nautico che indica il sistema di punti di riferimento multipli, usato per localizzare la posizione esatta dell’imbarcazione in mare. La triangolazione porterebbe, infatti, ad un’operazionalizzazione più accurata dei concetti, proprio basandosi su più metodi di riferimento.

Gli autori non sembrano però tenere conto che alcuni oggetti di ricerca e alcuni quesiti di ricerca, semplicemente non possono essere indagati e non possono trovare risposta con metodi quantitativi o, viceversa, qualitativi, e che, spesso, i risultati dei due approcci sono difficilmente comparabili e confrontabili.

Una proposta simile di unione e completamento tra i risultati quantitativi e qualitativi verrà fatta circa un decennio più tardi anche da Sudweeks e Simoff (1999) con il loro schema di ricerca CEDA, che verrà illustrato più in là nel capitolo.

In merito al presente lavoro di tesi, esso si situa in una prospettiva fortemente qualitativo-interpretativista, in quanto tale prospettiva si adatta maggiormente al tipo di contesto e ai quesiti della ricerca, come verrà spiegato in modo più dettagliato in seguito.




12  Il videodisc è un disco a lettura ottica, detto anche laserdisc. E’ infatti un raggio laser a consentire sia la registrazione (possibile esclusivamente nella fase di produzione) che la lettura. Realizzato negli anni settanta, è un disco di 30 cm di diametro, suddiviso in tracce concentriche nella quale sono memorizzati i fotogrammi. (Definizione tratta da Lever, Rivoltella e Zanacchi, 2002).
La sua vita è durata poco in quanto è stato soppiantato dalla tecnologia concorrente VHS che permetteva non solo di acquistare film per la riproduzione domestica ma, soprattutto, di registrare la programmazione televisiva, possibilità che il videodisc non offriva. I videodisc sono stati impiegati nel campo dell’istruzione e del turismo, per le guide audiovisive.
13  Williams, F., Rice, R.E., Rogers, E.M., 1988, Research Methods and the New Media, Free Press, NY.
14  La validità è il grado in cui una misura o un indicatore operazionalizza adeguatamente il concetto che si intende misurare. La validità interna è il grado in cui una misura, operazionalizzando cosa si vuole studiare, esclude spiegazioni alternative dei risultati. La validità esterna, invece,  è il grado in cui i risultati della ricerca sono generalizzabili, significativi e applicabili anche ad altre situazioni rispetto a quelle studiate.
15  La differenziazione tra approcci interpretativi naturalistici e critici è di Putnam, 1983, “The Interpretative Perspective: An Alternative to Functionalism” in L. Putnam e M. Pacanowsky (a cura), Communication and Organizations: An Interpretative Approach, SAGE, Beverly Hills, CA, pp. 31-54.
16  Ad esempio si può citare ATLAS, che è un software utilizzato per l’analisi qualitativa di grandi quantità di dati testuali, grafici, audio e video. Offre una serie di strumenti per l’analisi sistematica di dati “soft”, cioè di quei dati che non possono essere analizzati tramite tecniche statistiche formali, cercando di carpire i “fenomeni nascosti” al loro interno (tratto dal sito: http://www.atlasti.com).
17  Per un approfondimento sul processo di re-invenzione continua della tecnologia, si veda il concetto di drift tecnologico in Ciborra, 1996.


Tesi di Laurea:
"Apprendimento e pratiche in una comunita’ virtuale di auto-mutuo aiuto. Ruolo della tecnologia nel sistema sociale di apprendimento di una comunità AMA online."

di Francesca Menegon


- Università degli Studi di Trento -
- Facoltà di Sociologia -
- Corso di Laurea Specialistica in Lavoro, Organizzazione e Sistemi Informativi -