PER UNA METODOLOGIA DELLA RICERCA QUALITATIVA

Roberto Cipriani


Premessa


                L’oggetto di ogni ricerca sociologica è così complesso da richiedere approcci multipli. Solitamente si preferisce una metodologia quantitativa, ma tale scelta comporta di dover dare per scontate alcune conseguenze, in primo luogo quella relativa allo scarso approfondimento della materia affrontata. Infatti a fronte di tematiche nuove, di dinamiche non facilmente controllabili, di soggetti sociali ancora in via di definizione in termini di status e ruolo, la procedura fondata essenzialmente sulle risposte chiuse ad un questionario predeterminato poco si adatta alle esigenze relative alla conoscenza scientifica in campo sociale, un ambito ancora in fieri e proteso alla ricerca di una risposta soddisfacente al suo ubi consistam?, comunque tuttora in attesa di più precisi riconoscimenti (anche normativi) sulla sua funzione, sui suoi compiti, sulle sue competenze di campo. Pertanto una struttura di inchiesta troppo rigida rischia di mortificare istanze ed attese, di sottacere problemi acuti e centrali, di enfatizzare qualche dato percentuale a danno della reale conoscenza, di fornire – grazie alla forza di convinzione dei numeri – un quadro deformato e deformante della situazione presa in considerazione.


                D’altra parte non a caso la metodologia qualitativa nasce e si sviluppa in relazione ad una fenomenologia dai contorni tendenzialmente patologici: l’immigrazione di vaste masse che attraversano l’oceano alla ricerca di un lavoro. Il polacco Znaniecki e l’americano Thomas ne fanno oggetto di studio a Chicago, pubblicano – a partire del 1918 e via di seguito sino al quinto ed ultimo volume – la celebre opera sul contadino polacco in America ed in Europa, che fa leva sui documenti personali come struttura portante di un’analisi sociologica che è rimasta unica, irripetibile, per vari decenni riuscendo a condizionare fortemente la storia del pensiero sociologico lungo le due opposte sponde del gran “lago” Atlantico.


                A lungo sociologi europei e statunitensi si sono soffermati a considerare la portata dell’opera classica di Thomas e Znaniecki, ma alla fine detrattori ed elogiatori si sono quasi equivalsi per numero e ragioni espresse. Tuttavia l’effetto perverso è stato quello di una stasi sul versante della metodologia qualitativa, ancora incerta sul da farsi mentre nel frattempo i quantitativisti hanno pensato bene di proseguire per la loro strada, senza cimentarsi nella querelle fra opposti schieramenti e quasi aspettando al varco della nuova era tecnologica dominata dal computer i colleghi qualitativisti, già svantaggiati per il fatto di non possedere un tool strategico della portata pervasiva del software denominato SPSS (Statistical Package for Social Sciences).


La nuova ventata qualitativista


In tempi piuttosto recenti sono state finalmente prospettate nuove soluzioni analitiche a livello qualitativo sulla scorta di strumenti idonei, difficili da commercializzare per il basso numero di potenziali utenti ma di notevole interesse per gli studi di content analysis (e non solo). Anche in questo caso si deve registrare una tendenziale resistenza delle forze accademiche ed intellettuali, poco proclivi a misurarsi con le novità della tecnica e piuttosto adagiate nel quieto vivere della tradizione e della routine. Invero solo grazie ad alcuni coraggiosi pionieri oggi disponiamo di molte alternative alla classica somministrazione del questionario e riusciamo a produrre letture piuttosto raffinate a livello di “analisi del discorso”, di prossemica (intesa come uso dello spazio), di sequenza nell’ordine di prendere la parola, di “analisi conversazionale” e così via.


                L’applicazione completa anche di uno solo di questi metodi operativi richiede un  impegno sovente impari e soprattutto non in linea con le esigenze della ricerca empirica. Si è preferito di solito perciò lavorare con il qualitativo presentando i risultati in forma discorsiva, non sempre in consonanza fra loro ma stimolanti ed illuminanti proprio in forza della loro presunta contraddittorietà.


                Sarebbe certo più agevole predisporre un questionario uguale per tutti gli intervistandi ma la ricchezza delle problematiche poi emerse andrebbe persa in gran parte, a seguito dell’appiattimento entro le categorie precodificate della griglia comune da somministrare a ciascun attore sociale da intervistare.


                D’altra parte occorre anche considerare che la logica e le risorse della ricerca sociale non consentono quasi mai un’indagine a tappeto o comunque su un campione rappresentativo totalmente affidabile. Se poi anche esistono dati presso vari enti, istituti e fondazioni, non sempre essi sono aggiornati ed in ogni caso sono il frutto di raccolte asistematiche, vagamente campionarie, limitate nello spazio e nel tempo. Dunque nel caso in cui si optasse per la prospettiva quantitativa non sempre si avrebbe a disposizione un universo certo di riferimento e si rischierebbe di offrire un repertorio parziale, forse anche piuttosto orientato in chiave ideologica. L’orientamento qualitativista è dunque apparso sempre più spesso anche come un percorso obbligato e nondimeno l’unico in grado di indagare sin nei minimi dettagli, difficilmente ipotizzabili e prevedibili al completo pur in una batteria di domande tendenzialmente onnicomprensive degli aspetti sotto esame.


                Il numero contenuto di intervistati previsti dalla metodologia qualitativa, peraltro, non permette elaborazioni statistiche raffinate, neanche quelle più semplici. Ogni tentativo in tal senso risulterebbe mistificante e privo di qualsiasi fondamento scientifico.


                Si pensa dunque ad un approccio qualitativo mirato, cioè finalizzato a trovare risposte ad alcuni interrogativi di fondo, attraverso interviste semistrutturate basate su poche ma decisive questioni, quelle di primaria importanza nell’ambito del settore in esame e debitamente affrontate a livello organizzativo, formativo, situazionale, strumentale, manageriale, contestuale, sia da parte  delle organizzazioni sia da parte degli utenti. In questo quadro si collocano altresì le problematiche di metodo delle attività, di politica sociale, di professionalità, di sviluppo, di occupazione, di valori operanti nell’agire sociale delle organizzazioni, dei singoli attori, degli esperti e degli osservatori, categorie particolarmente importanti queste ultime due perché esterne all’ambito delle attività da prendere in considerazione.


La metodologia qualitativa ed i metodi applicativi


Nell’impossibilità di condurre interviste a largo raggio, si sceglie solitamente una modalità che ha una lunga storia nel campo delle indagini sociali: si fa ricorso al know how dei cosiddetti testimoni privilegiati (o qualificati che dir si voglia). Si tratta di soggetti che per competenze acquisite, ruoli svolti, esperienze fatte, sapere accumulato, sono in grado – con l’aiuto e lo stimolo degli intervistatori – di guardare come dall’alto e dunque di valutare a ragion veduta, senza cedere a tecnicismi di maniera, a linguaggi da iniziati, a formule standardizzate.


                Il ruolo dei testimoni qualificati è cruciale nel lavoro sociologico. Ecco perché essi vanno scelti con cura ed in modo da rappresentare complessivamente (anche se non statisticamente) il variegato universo di riferimento dell’indagine. La loro resa sul piano conoscitivo e scientifico è disomogenea (né c’è da aspettarsi diversamente) ma proprio per questo consente di avere un quadro multiforme della realtà studiata, anche sulla base dell’impegno – più o meno accentuato – che ogni intervistato profonde nel corso dell’intervista.


                Di particolare rilevanza è poi l’interscambio che si realizza fra informazione orale e documentazione scritta. L’una rimanda all’altra e viceversa. Talora la prima anticipa la seconda e consente di prevedere sviluppi futuri e di intervenire in tempi adeguati, senza dover rincorrere continuamente ed aggiornare – per esempio – testi di legge, scadenze, prerogative, limitazioni.


                La corsa contro il tempo passa anche attraverso le accelerazioni possibili grazie ad Internet, fonte inesauribile di informazioni preziose, di segnalazioni indispensabili, di suggerimenti operativi. Soprattutto la forma del network, a rete, permette scambi rapidi e fruttuosi al massimo, data la tempestività dell’input.


                Si ricollega assai opportunamente alle interviste semistrutturate l’attività di focus group, che prevede la discussione in comune dei temi di indagine fra esponenti delle organizzazioni e delle associazioni coinvolte dall’indagine, nonché fra singoli intervistati che sono già stati ascoltati individualmente.


L’approccio biografico


                Furono soprattutto Thomas e Znaniecki (1918-20) a volere sperimentare degli strumenti qualitativi, a carattere personale e biografico, per conoscere la realtà della immigrazione polacca in America, insieme con i riscontri registrabili nella terra di origine, in Polonia. La consapevolezza metodologica dei due autori è piena e matura sin dagli inizi della loro ricerca empirica e non giunge solo post factum come lascerebbero supporre le date – piuttosto posteriori – di qualche approfondimento specifico (Znaniecki, 1924; Thomas, 1973).


                Fondamentale appare la corposa “Nota metodologica” premessa a Il contadino polacco. Da questo approccio teorico iniziale trae linfa vitale la metodologia qualitativa che rende possibile in modo peculiare la convergenza fra individuale e sociale, tra prevalenza della società e dominanza dell’attore sociale. Si passa così a mostrare (e dimostrare) “che una causa sociale non può essere semplice, come lo è una causa fisica, ma che essa è complessa e deve includere sia un elemento oggettivo sia un elemento soggettivo, cioè un valore e un atteggiamento” (Thomas, Znaniecki, 1918-20; ed. it., 1968: 39). A parte il ricorso – per noi oggi obsoleto e fuorviante – al concetto di causa, l’affermazione dei due autori ha una sua pregnanza se si considera, fra l’altro, che “un valore sociale, agendo sugli individui membri del gruppo, produce un effetto più o meno diverso su ciascuno; anche quando esso agisce sul medesimo individuo in momenti diversi, non lo influenza nello stesso modo”. Il che lascia supporre che per esempio una rilevazione estemporanea come quella attraverso questionario a mo’ di “intervista e fuggi” perde ampie quote di conoscenza se non raccoglie ed interpreta valori ed atteggiamenti nel tempo, lungo i diversi momenti storici di un’esperienza umana che non è mai uguale a se stessa ma transeunte, dinamica, controversa, contraddittoria, difficilmente rispondente alla logica del sì e no una volta per tutte. Certo anche un racconto biografico è una narrazione hic et nunc, corre cioè il rischio di una immediatezza che è in pari tempo fuggevole e sfuggente, ma offre uno sguardo d’assieme sulle “attività” del soggetto che altrimenti resterebbero insondate. Inoltre il rapporto interlocutorio libero, non vincolato da items precisi, consente recuperi di ritagli, scampoli, dettagli, indizi talora ben più signficativi, da soli, di un’intera batteria di domande con risposta precodificata.


                Il nucleo essenziale della metodologia thomas-znanieckiana è condensato in quattro pagine della loro “Nota” (Thomas, Znaniecki, 1918-20; ed. it., 1968: 42-46). Ne riportiamo i passi più significativi.


                “Il fatto semplice e ben noto è che i risultati sociali dell’attività individuale dipendono non soltanto dall’azione in sé, ma anche dalle condizioni sociali in cui essa si svolge; e di conseguenza la causa di un mutamento sociale deve comprendere sia elementi individuali sia elementi sociali. Ignorando questo fatto, la teoria sociale si trova di fronte a un compito infinito ogni qual volta vuol spiegare il più semplice dei mutamenti sociali. Infatti la medesima azione produce, in condizioni sociali diverse, risultati del tutto differenti… Inoltre, la teoria sociale dimentica anche che l’uniformità dei risultati di certe azioni è essa stessa un problema, e richiede una spiegazione esattamente quanto la richiedono le variazioni.”


                Per risolvere i vari dubbi metodologici Thomas e Znaniecki partono allora da un presupposto che orienta tutta la loro attività scientifico-conoscitiva: “la causa di un fenomeno sociale o individuale non è mai un altro fenomeno sociale o individuale isolato, ma è sempre una combinazione di un fenomeno sociale e un fenomeno individuale”. Quindi individuo e società sono elementi che si ritrovano insieme nella spiegazione dei fenomeni.


                Si tratta dunque di tutto un lavoro di ricostruzione del passato, di ritorno a ciò che ha preceduto il presente, al fine di cercare i fattori generativi di un evento, di un fenomeno. Un tale procedimento non è dissimile da quello riepilogativo e riordinativo compiuto attraverso una storia di vita, raccontata in prima persona ma coinvolgente anche altri nel cimento di spiegare l’esistente rimontando al preesistente.


La definizione della situazione


                Un’esemplificazione messa in campo dai due autori aiuta molto a cogliere il senso del loro punto di vista. “Due individui, sotto l’influenza di un comportamento tirannico dei loro padri, sviluppano atteggiamenti completamente diversi: l’uno mostra sottomissione, l’altro una segreta rivolta e risentimento. Se la tirannia del padre viene considerata come causa di questi atteggiamenti opposti, dobbiamo conoscere completamente il carattere di questi individui e tutto il loro passato allo scopo di spiegare la differenza di effetto. Se però comprendiamo che la tirannia non è l’unica causa di entrambi i fatti, ma soltanto un elemento comune che entra nella composizione di due cause diverse, il nostro compito diventerà semplice, cioè sarà quello di trovare gli altri elementi di queste cause.”


                Dunque gli indizi emergenti, i dati fenomenici da soli non bastano a fornire la via d’uscita per la comprensione-spiegazione. Tutto va contestualizzato e storicizzato, cioè incastonato in un quadro complessivo che presiede ad ogni comportamento, ad ogni scelta individuale o di gruppo. In questo scavo all’intorno dell’oggetto di studio sembrano convergere sotto molti aspetti la psicologia (come pure la psicanalisi) e la sociologia, ma quest’ultima non può mai prescindere dalla stretta relazione fra il soggetto ed il suo ambiente sociale.


                Lo sbocco naturale dell’interazione fra atteggiamento e valore, tra individuale e sociale è la situazione (Thomas. Znaniecki, 1918-20; ed. it., 1968: 61-62) come “insieme di valori e di atteggiamenti con cui l’individuo o il gruppo ha rapporti in un processo di attività, e rispetto ai quali è progettata quest’attività e vengono valutati i suoi risultati. Ogni attività concreta è la soluzione di una situazione. La situazione comprende tre tipi di dati: 1) le condizioni oggettive entro le quali devono agire l’individuo o la società, cioè la totalità dei valori – economici, sociali, religiosi, intellettuali ecc. – che al momento dato influenzano direttamente o indirettamente lo stato cosciente dell’individuo o del gruppo; 2) gli atteggiamenti preesistenti dell’individuo o del gruppo che al momento dato esercitano un’influenza reale sul suo comportamento: 3) la definizione della situazione, cioè la concezione più o meno chiara delle condizioni e la consapevolezza degli atteggiamenti”. Quindi a monte si collocano valori ed atteggiamenti, che insieme operano ed interagiscono al momento definito come situazione, cioè nella fase che precede l’attività. Prima però di assumere una qualunque decisione, si tende a definire la situazione, a valutarla nelle sue potenzialità, nei suoi rischi o vantaggi. L’agire non giunge come un operare privo di senso, immotivato. Ogni azione ha alla sua base una serie di considerazioni valutative, che si incentrano sul tornaconto personale, sull’opportunità del momento, sulle conseguenze ipotizzabili post factum. Ecco infatti che “la definizione della situazione è un presupposto necessario di ogni atto della volontà, poiché in date condizioni e con un dato insieme di atteggiamenti è possibile una pluralità indefinita di azioni, e un’azione determinata può apparire solamente se queste condizioni vengono selezionate, interpretate e combinate in un certo modo, e se si raggiunge una sistemazione di questi atteggiamenti in modo tale che uno di essi divenga predominante e subordini a sé gli altri… Ma in genere c’è un processo di riflessione in seguito al quale o si applica una definizione sociale già pronta o viene elaborata una nuova definizione personale”.


L’individuo ed il suo agire sociale


                Molto lucida è la precisazione che Znaniecki (1924; 1996: 35) fornisce più tardi nella sua introduzione all’Autobiografia di Wadyslaw Berkan: “l’individuo dal punto di vista sociologico non è un complesso di sensazioni che possiede un’esistenza a parte, bensì esiste solo a condizione che dette sensazioni siano attuali e coscienti al soggetto. Egli è piuttosto un insieme composito di azioni, ciascuna delle quali si riferisce agli oggetti dell’ambiente circostante, e che è possibile comprendere e definire unicamente in rapporto a tali oggetti, su cui agisce o tenta di agire”. In pratica l’approccio sociologico si diversifica da quello psicologico in quanto non si restringe all’ambito delle “sensazioni” ma si rapporta a tutto l’ambiente circostante per giungere alla comprensione. Soprattutto l’individuo in situazione sociale interessa al sociologo.


Filoni diversi di analisi qualitativa hanno dato luogo a sviluppi interessanti ma parziali. Si prenda il caso dell’analisi linguistica, che ha visto susseguirsi numerose proposte nel campo della content analysis, dell’analisi del discorso e della successione nel prendere la parola, ma in sostanza con innovazioni più a carattere tecnico che di livello teorico alto.


                Solo più di recente si è potuto registrare qualcosa di più significativo, per esempio con la proposta della grounded theory e la serie di nuovi sussidi per la ricerca assistita dall’elaborazione elettronica. Si può dire di essere giunti ad una sorta di nuova frontiera nell’ambito dell’analisi qualitativa in generale e di quella applicata alla storia di vita in particolare.


Superiorità dell’approccio qualitativo?


                Per risolvere i quattro problemi della rappresentatività, della reattività, della “regolarità”, della replicabilità, Katz ricorre ad una rivisitazione dell’induzione analitica, che consiste nel mantenere una stretta relazione fra dati e spiegazione, sicché quando emerga un elemento che contraddice la spiegazione vigente occorre tenere conto proprio della contraddizione trasformandola in un caso positivo, cioè di conferma di una spiegazione alternativa rispetto a quella in uso.


                Si parla correttamente di induzione analitica in quanto il procedimento parte dai dati, come livello particolare, e giunge alla spiegazione, come livello generale. Dunque si va dal particolare al generale attraverso l’analisi: da qui appunto il concetto di induzione analitica. L’intento di Katz è di proporre una soluzione con un carattere grounded, cioè fondato sui dati (Glaser e Strauss 1967).


                Invece la prospettiva abduttivistica, preferita da altri, non accoglie né la posizione induttivistica né quella deduttivistica (dal generale al particolare, dunque dalla teoria e dalle ipotesi per passare alla verifica attraverso i dati). Lo stesso Katz peralto non sembra condividere l’apporto di Peirce (1984) sull’abduzione come soluzione intermedia che si muove a mezza strada fra il generale ed il particolare come punti di partenza.


                Anche per Katz la falsifica di un’ipotesi non è la fine di un’indagine ma un nuovo inizio che porta a modificare la spiegazione di partenza. Soprattutto Katz non si prende cura della quantità dei dati, anzi la giudica priva di evidence, senza rilevanza per la logica dell’induzione analitica, che anzi presuppone una grande variabilità dei dati qualitativi per scoprire le risultanze negatrici della spiegazione usata come non definitiva. Questa logica induttiva respinge ogni tentativo di conciliazione fra quantitativisti e qualitativisti, in quanto a trovarne scapito sarebbe la metodologia qualitativa che non riesce a trovare in se stessa le ragioni fondanti della propria autonomia scientifica (Katz, 1988:131).


                Nell’induzione analitica mancano quadri teorici pre-definiti in assoluto. Quindi la ricerca è completamente aperta alle suggestioni desumibili dai dati empirici. Seguendo questa prospettiva metodologica “non si comincia con un’ipotesi e poi si incontrano le eccezioni una per volta. Invece, si comincia con ipotesi multiple che vengono messe a confronto con una massa di risultati in senso contrario. L’induzione analitica consente al ricercatore di dibattersi senza sosta fra le scelte di: quale ipotesi preferire e sostenere; poi quale dato scegliere come una “eccezione” nella massa di quelli in senso contrario, ignorando consapevolmente in via temporanea il carattere invalidante degli altri dati; e poi se cambiare ciò che spiega o ciò che deve essere spiegato…” (Katz, 1988: 132). Si tratta comunque più di una tensione metodologica che non di una pretesa di voler attingere gli universali sociologici, poiché la spiegazione perfetta ed ultima non esiste. Resta quindi appena una strategia complessiva, non vincente aprioristicamente ed anzi destinata più volte ad essere fallimentare. In questo senso Katz non ambisce a sostenere la superiorità dell’approccio qualitativo nei confronti del quantitativo. Gli obiettivi sono assai più modesti ma sufficientemente chiari.


Il confronto fra le due metodologie


                Innanzitutto entrambe le metodologie, la qualitativa e la quantitativa, sono accomunate dal fatto di ottenere risultati non assoluti, instabili, soggetti a verifiche continue, condizionati da fattori non sempre individuabili. Ad esempio il probabilismo delle relazioni statistiche da una parte e la forzatura di inserimento dei casi limite entro una categoria sociologica piuttosto che in un’altra sono i punti deboli di entrambi gli approcci.


                Katz è contrario a qualunque esaltazione del processo induttivo e perciò critica aspramente i fautori di una epistemologia dell’induzione, che anzi definirebbe – d’accordo con alcuni filosofi – una sorta di “retroduzione”, in quanto si è di fronte solamente ad un’alternanza di osservazione e spiegazione, invece di passare alla scoperta della spiegazione unicamente dopo l’osservazione dei fatti.


                Fin qui la posizione descritta dall’autore come analytic fieldwork, indagine analitica sul campo. Indubbiamente la sua è una prospettiva degna di attenzione, ma parca di indicazioni operative, forse sin troppo aperta, libera, senza costrizioni metodologiche rigorose. Può anche risultare convincente ma quasi solo per i già convinti della possibile qualità scientifica della metodologia non quantitativa. Né giova all’insieme del discorso la ripetizione, talora letterale, di alcuni concetti e motivi ritenuti strategici (Katz, 1988: 134, secondo capoverso e 148, ultimo capoverso). Nondimeno rimane il significato di un invito pressante a fondare tutto o quasi sui dati.


La grounded theory


                Anche la più innovativa delle teorie qualitative, la grounded theory di Glaser e Strauss (1967), si basa essenzialmente sui dati, tanto che una traduzione italiana che possa renderne appieno il significato sarebbe proprio “teoria a base dati” o meglio ancora “teoria basata sui dati”. Sebbene formalizzata da oltre un trentennio essa ha stentato a trovare larga accoglienza sia in America che in Europa. Le prime formulazioni potevano suscitare perplessità e riserve, ma col passare del tempo i due autori hanno meglio precisato il senso della loro proposta, approfondendo aspetti e procedure, per poi giungere ad una sostanziale diversificazione fra di loro, con Glaser autore free lance a svolgere singolarmente il ruolo dell’accademico più rigoroso e con Strauss, universitario di professione, più propenso alla serendipity, all’improvvisazione feconda nell’approccio qualitativo. Forse è ancora presto per avere un quadro chiaro delle ragioni scientifiche che hanno portato i due autori a dividere le loro strade. La polemica in proposito non mancherà di fornire ulteriori spunti specialmente a livello di implementazione nella fase di ricerca empirica.


                Appunto in questo ambito applicativo la teoria di Glaser e Strauss si è rivelata particolarmente feconda, segnatamente a partire dallo sviluppo di metodi assistiti da programmi per computer. Anzi un intero settore di software “dedicato” alla costruzione di teorie ha registrato notevoli progressi, proprio grazie all’input della teorizzazione basata sui dati. In effetti come in ogni scienza anche in campo sociologico i miglioramenti, le scoperte, le nuove soluzioni si possono raggiungere più facilmente quanto più numerosi sono i ricercatori impegnati su un medesimo ambito di problemi. Ecco dunque che l’esperienza quotidiana sul campo della ricerca aiuta ad individuare difetti e malfunzionamenti, a segnalarli ai creatori di programmi in modo da provvedervi adeguatamente in vista di un aggiornamento, di una nuova release. Tutto questo non era possibile in precedenza in quanto ancora non erano disponibili strumenti computazionali specifici per la metodologia qualitativa. Quando successivamente essi hanno fatto la loro comparsa il numero degli utenti non era sufficientemente numeroso da richiamare l’attenzione e gli investimenti delle grandi case produttrici e distributrici di programmi per computer. Per questo l’iniziativa è ricaduta sulle spalle (non forti economicamente) di ricercatori universitari isolati, di appassionati della ricerca qualitativa, di teorici con una formazione qualitativistica di lunga durata e di comprovata esperienza empirica.


                Da tutto questo è facile desumere che Glaser e Strauss in primis rispetto ad altri hanno lanciato il “manifesto” della scoperta basata sui dati, persino in anticipo sui tempi. Infatti solo con l’avvento degli elaboratori a carattere personale e domestico è stato possibile pensare a programmi peculiari di ricerca qualitativa in grado di reggere il confronto con i più prestigiosi e noti strumenti a carattere statistico (SPSS, in primo luogo).


                Dopo i primi tentativi di connubio con gli approcci di tipo numerico (conteggio delle parole presenti in un testo, co-occorrenze di vocaboli, gerarchizzazione statistica dei concetti principali e di altri ad essi strettamente collegati) si è giunti a formule più complesse e talora all’impostazione di un intero programma di computer-assistenza esplicitamente congegnato per rispondere alle istanze avanzate dalla grounded theory: per esempio Kwalitan, appositamente realizzato per questo scopo da Vincent Peters e Fred Wester (1995).


                Non sono mancate critiche anche abbastanza serrate e motivate, che hanno rimproverato alla grounded theory una scarsa attenzione alla qualità dei dati raccolti, quasi che le tecniche di raccolta fossero più importanti del valore intrinseco delle informazioni. Non era certo nelle intenzioni di Strauss e Glaser proporre un’accumulazione indiscriminata di elementi, nondimeno l’impressione che si ricava dal loro approccio sembra dar ragione alle riserve avanzate. Gli appunti poi mossi da Katz hanno qualche fondamento in relazione alla tendenziale separatezza fra scoperta e verifica che traspare dalla teoria a basata sui dati, quasi a sottolineare una sudditanza dell’analisi qualitativa rispetto ad un livello più alto di rigore scientifico e di teoresi. La sudditanza è anche terminologica quando si parla di codifica, campionamento teoretico, comparazione ed altro ancora. Si ha quasi l’impressione – osserva giustamente Kathy Charmaz (1988: 109-110), cui si devono anche le riflessioni sopra riportate – che non si abbia più a che fare con un procedimento induttivo ma con un tipico andamento quantitativistico di logica deduttiva.


                Alla stessa Kathy Charmaz si deve forse la migliore “volgarizzazione” della teoria di Glaser e Strauss, con dettagli ed esemplificazioni che aiutano la comprensione dei vari passaggi nei loro significati impliciti. Tuttavia va precisato che la Charmaz risponde debitamente alle varie obiezioni avanzate rispetto ai punti critici dell’approccio glaser-straussiano: in primo luogo ella precisa che la raccolta dei dati e l’analisi procedono di pari passo e che i dati utilizzati per le finalità di theory building (costruzione della teoria) non possono non essere qualitativamente ineccepibili; in secondo luogo le procedure ed i risultati sono conformi ai dati e non invece a rigidi schemi precostituiti, dunque mantengono un carattere induttivo e non certo deduttivo (come sarebbe se si facesse ricorso a pre-requisiti già definiti); in terza istanza i grounded theorists non si adeguano ai criteri formali tipici della metodologia quantitativa, anzi ne rifuggono, pur senza dimenticare l’importanza della continua verifica dei dati e dei collegamenti possibili fra di essi, per non dire di un eventuale sconfinamento dal terreno peculiare di ricerca per sondare altre potenziali tracce indiziarie; da ultimo Strauss e Glaser non trascurano il dinamismo processuale della realtà sociale, anzi lo presuppongono e sono consapevoli della probabilità di un superamento dei risultati raggiunti in un primo momento (in pratica, altri ricercatori potrebbero far scaturire interpretazioni diverse dai medesimi dati, in quanto non è fissata una volta per tutte l’unica lettura possibile della realtà esaminata).


L’analisi computer-assistita


                La grounded theory non solo evolve attraverso i suoi stessi ideatori ma consente percorsi personali a quanti si cimentino con essa per condurre ricerche qualitative, raccogliere storie di vita, analizzare biografie. Del resto gli strumenti tecnici non mancano ed hanno raggiunto un livello di perfezione e di familiarità tra i ricercatori che ormai è l’imbarazzo della scelta quasi l’unico, vero problema. A tutt’oggi si contano almeno una trentina di programmi per computer utilizzabili nell’analisi qualitativa e quindi applicabili anche alle storie di vita.


                Nell’impossibilità di render conto in questa sede di tutta la serie del software per la ricerca qualitativa, ci si limita a segnalare tre programmi: il primo, The Ethnograph, oggi giunto alla versione v5.0, è stato un po’ l’antesignano della nuova generazione di programmi qualitativisti che provvedono alla codifica prima e poi al “recupero” (gestibile) del materiale codificato; il secondo, HyperRESEARCH, è più mirato alla costruzione di teorie; il terzo, QSR NUD·IST, è finalizzato alla gerarchizzazione delle categorie analitiche ed ha ora una nuovissima versione: Nvivo.


                Già da questa prima elencazione si comprende che i programmi non rispondono tutti alle medesime esigenze. Invero le caratteristiche del software rappresentano esse stesse il primo problema da affrontare.


                Alla categoria di The Ethnograph appartengono anche QUALPRO, il già citato KwalitanHyperQual2Textbase Alpha (con possibilità di applicazioni statistiche riportabili in SPSS).


                Fra i programmi destinati alla costruzione di teorie si possono annoverare oltre HyperRESEARCH anche ATLASti (con caratteri da ipertesto e rappresentazione grafica, come pure Hypersoft), AQUAD ed il suo vecchio antesignano del 1985 Qualog (entrambi simili a HyperRESEARCH in quanto usano sistemi logici per la verifica di ipotesi) e QCA (Qualitative Comparative Analysis).


                In realtà anche QSR NUD·IST torna utile per la costruzione di teorie ma offre in più la possibilità di creare un albero gerarchico mediante i legami categoriali. Con l’aggiunta poi di QSR NUD·IST MERGE è dato unire insieme due o più ricerche condotte con QSR NUD·IST.


                Nel frattempo qualche programma, pur promettente come TAP (Text Analysis Package), è uscito fuori del mercato. Qualche altro appare abbastanza datato, come i “recuperatori” di testo WordCruncher (complesso, ma di grandi capacità per le frequenze e le concordanze) e ZyINDEX (adatto soprattutto all’indicizzazione, permette molte revisioni e qualche funzione di ipertesto).


                MAX ed il suo epigono WinMAX servono alla gestione dei testi e generano variabili specifiche con dati sia qualitativi che quantitativi (quest’ultima caratteristica della combinazione fra qualità e quantità si ritrova anche in Intext/PC e nel già noto ma superato TEXTPACK PC, entrambi adatti per l’analisi del contenuto).


                Non è facile descrivere e valutare i singoli programmi. La loro obsolescenza è una costante, soprattutto per i packages migliori e perciò più richiesti. Si rischia di parlare di qualcosa che nel frattempo è già stato risolto in modo diverso e di fatto superato con gli aggiornamenti.


                Ancora nel recente passato vi era una netta distinzione fra i programmi per il DOS (su macchine IBM o IBM-compatibili) e quelli per il sistema Macintosh. Ora i pacchetti sono ancora disponibili solo per l’uno o l’altro sistema operativo, ma taluni (ancora pochi invero) sono disegnati apposta anche per Windows (sia per vecchie che nuove releases ed anche per Windows 95 98).


                Il software tende comunque a collocarsi entro un unico sistema operativo, soprattutto entro il DOS. Nel caso di Windows l’opzione è unica o condivisa con il sistema Macintosh. Ma ormai anche le barriere di incompatibilità fra i programmi tendono a cadere, un po’ come quelle fra qualitativo e quantitativo: si va verso il massimo di compenetrabilità mutua possibile.


                I tre programmi che vengono illustrati qui di seguito sono in lingua inglese (lo stesso dicasi per i rispettivi manuali) ed usano sistemi specifici di basi di dati testuali non formattati. Di fatto, una volta effettuata la codifica, i codici sono collegati a dei puntatori che contengono gli indirizzi delle parti di testo utilizzate. Il che consente facilmente ed immediatamente il recupero dei testi o delle loro parti che interessano il ricercatore.


                La codifica, in particolare, consiste nell’attribuire dei codici (concetti, categorie analitiche, termini di sintesi od altro ancora) alle porzioni di testo (dette perciò segmenti). Tali codici sono scelti dal ricercatore in modo assolutamente libero (in questo consiste peraltro la responsabilità – e la capacità – del soggetto umano a fronte della macchina che svolge solo il ruolo di supina elaboratrice). Ovviamente la scelta dei codici dipende dai temi oggetto di indagine e dalle eventuali ipotesi da verificare (le ipotesi sono eventuali perché per esempio la grounded theory non ne prevede esplicitamente).


                Il recupero (retrieval) più semplice dei segmenti avviene con la ricerca e la comparsa sullo schermo di tutte quelle parti di testo cui è stato attribuito in precedenza un medesimo codice.


                Appunto l’attribuzione di un codice è la parte più delicata di ogni programma di computer-assistenza.


                L’inconveniente maggiore, in qualche programma, è rappresentato dal fatto che ogni segmento appare fuori di contesto, giacché non compare sullo schermo ciò che precede e segue la parte di testo recuperata. In ogni caso il contesto è sempre ricostruibile in qualche misura, in modo da cogliere meglio il senso del passo considerato.


                Sono di grande rilevanza sia le caratteristiche della codifica che quelle del recupero.


                Per la codifica è importante che essa avvenga sullo schermo, in modo da poter controllare direttamente le operazioni in corso di svolgimento. Con testi aventi già una strutturazione definita dal ricercatore la codifica può avvenire in modo automatico. Torna utile poi disporre della possibilità di aggiungere dei memos (promemoria, note, appunti, ipotesi interpretative) da collegare ai codici e quindi ai segmenti di riferimento. Gli stessi legami fra i codici vanno definiti, così da avere una struttura di flusso, una gerarchia fra le categorie di codici. Altra possibilità interessante è quella di prescindere dalla codifica dei segmenti affinché questi siano collegabili fra di loro per altre ragioni non legate necessariamente alla loro codifica: si tratta di creare dei legami (links) che superano la rete dei codici per poter usare nessi di livello più alto, più generale, cioè gli hyperlinks. Successivamente si può passare pure ad una rete che colleghi fra loro i memos, i codici ed i segmenti. Un’ulteriore operazione è quella di definire delle variabili (di sesso, occupazione, età, scolarizzazione, residenza o altro) che possono essere connesse ai vari testi. Da ultimo si perviene in alcuni programmi ad una classificazione delle categorie di codici collegate alle suddette variabili.


                Per la fase di recupero è determinante l’opzione, la capacità di fare selezione, specialmente con lo scopo di individuare le cosiddette co-occorrenze, cioè la compresenza di elementi diversi. Ci si può trovare dinanzi ad una sovrapponibilità di segmenti (per una porzione del testo si hanno due o più segmenti con altrettanti codici) o ad una sequenza di segmenti (per esempio nel corso del testo si ha prima un segmento con il codice x, poi uno con il codice y, quindi ancora un segmento con il codice x, seguito da un altro con il codice y – od altre possibili combinazioni sequenziali come x, y, y, x – ) od infine ad una prossimità di segmenti (due o più segmenti con i relativi codici sono abbastanza vicini nel testo, per esempio a distanza di qualche frase o di poche parole).


                Altre soluzioni, non sempre accessibili in via automatica, possono far reperire parti di testo che affrontano lo stesso argomento o in cui si trovano riferimenti di confronto (per esempio a conferma o in contraddizione), oppure due o più segmenti che ricostruiscono in successione più o meno cronologica i vari periodi all’interno di una medesima biografia, oppure segmenti correlabili fra loro per l’affinità dei temi affrontati od anche per la contemporaneità dei fatti narrati.


                Un’operazione più semplice, che ormai è presente anche in diversi elaboratori di testi (wordprocessors) – almeno quelli con versioni più recenti -, riguarda il calcolo delle frequenze delle parole. Un’altra elaborazione usuale è quella del calcolo delle frequenze dei codici e – talora – delle co-occorrenze fra parole e codici.


Conclusione


                Non più tardi di una decina di anni fa si lamentava che l’analisi qualitativa, la metodologia delle storie di vita, la storia orale, la sociologia non numerica avessero scarse possibilità di risalire la china della scientificità nel campo delle scienze sociali, largamente surclassate dai metodi quantitativi, dalle elaborazioni statistiche più raffinate, dal diffondersi di strumenti computeristici tutti orientati ad accrescere le capacità, già notevoli, dei ricercatori impegnati nell’indagine sui dati hard forniti da tabelle e percentuali, medie e scarti quadratici medi, indici di correlazione e coefficienti di contingenza.


                Dopo i primi timidi tentativi a metà degli anni ottanta, si dispone ora di qualche teorizzazione più sistematica ed articolata (prima fra tutte la grounded theory, le cui origini risalgono già agli anni sessanta), finalmente accompagnata e messa alla prova da supporti computazionali che non si limitano al puro e semplice calcolo delle frequenze o, al massimo, delle co-occorrenze.


                Sarebbe ovviamente errato e fuorviante credere che l’ausilio di una macchina algoritmica risolva tutti i problemi irrisolti della sociologia qualitativa. Il fatto è che anche nelle migliori condizioni, con un laboratorio ben attrezzato di hardware e software, il ricercatore resta il fattore primo di ogni ricerca. Egli ne è l’artefice, semmai il realizzatore compartecipe unito con il soggetto dell’indagine (non mancano esempi di autori che hanno preposto in copertina come co-autore il nome del loro biografato), comunque il decisore primo che orienta, incanala i flussi interpretativi entro l’alveo delle categorie condizionali di un fenomeno sociologicamente rilevante. Anche con il migliore dei programmi in uso oggi come pure nel futuro rimarrà al ricercatore la responsabilità (e la libertà) di stabilire ciò che è significativo rispetto a quanto è succedaneo, pur entro la cogenza dei dati.


                L’analisi computer-assistita non è il toccasana di una metodologia “inferma”, tutt’al più appare ora come una nuova frontiera da esplorare, nella ricerca di un confronto alla pari con i vicini del territorio quantitativista.


RIFERIMENTI BIBLIOGRAFICI


– Herbert Blumer, An Appraisal of Thomas and Znaniecki’s “The Polish Peasant in Europe and America”, Social Science Research Council, New York, 1939, bulletin n. 44.


– Herbert Blumer, “Introduction”, An Appraisal of Thomas and Znaniecki’s “The Polish Peasant in Europe and America” (reprint), Transaction Books, New Brunswick (NJ), 1979.


– Kathy Charmaz, “The Grounded Theory Method: An Explication and Interpretation”, in Robert M. Emerson, Contemporary Field Research, Waveland Press, Prospect Heights (IL), 1988, pp. 109-126.


– Roberto Cipriani (a cura di), La metodologia delle storie di vita. Dall’autobiografia alla life history, Euroma Editrice Universitaria di Roma – La Goliardica, Roma, 1995 (3.a edizione).


– Roberto Cipriani, Sergio Bolasco (a cura di), Ricerca qualitativa e computer. Teorie, metodi e applicazioni, Angeli, Milano, 1995.


– Roberto Cipriani, “L’analisi computerassistita delle storie di vita”, in Luca Ricolfi (a cura di), La ricerca qualitativa, La Nuova Italia Scientifica, Roma, 1997, pp. 205-242 (riprende ampiamente il presente saggio e ne amplia i contenuti tecnici ed operativi).


– Consuelo Corradi, Metodo biografico come metodo ermeneutico. Una rilettura de “Il contadino polacco”, Angeli, Milano, 1988.


– Current Sociology, 1996, numero monografico dedicato alla ricerca biografica.


– Norman K. Denzin, Yvonna S. Lincoln (edited by), Handbook of Qualitative Research, Sage, Londra, 1994.


– Norman K. Denzin, Interpretive Biography, Sage, Beverly-Hills, 1989.


– Franco Ferrarotti, Storia e storie di vita, Laterza, Roma-Bari, 1981.


– Barney G. Glaser, Anselm L. Strauss, The Discovery of Grounded Theory: Strategies for Qualitative Research, Aldine, Chicago, 1967.


– Jack Katz, “A Theory of Qualitative Methodology: The Social System of Analytic Fieldwork”, in Robert M. Emerson, Contemporary Field Research, Waveland Press, Prospect Heights (IL), 1988, pp. 127-148.


– Maria I. Macioti (a cura di), Biografia, storia e società: l’uso delle storie di vita nelle scienze sociali, Liguori, Napoli, 1985.


– Maria I. Macioti (a cura di), Oralità e vissuto: l’uso delle storie di vita nelle scienze sociali, Liguori, Napoli, 1986.


– Matthew B. Miles, A. M. Huberman, Qualitative Data Analysis: An Expanded Sourcebook, Thousand Oaks (CA), 1994.


– Charles S. Peirce, Le leggi dell’ipotesi, Bompiani, Milano, 1984.


– Vincent Peters, Fred Wester, “Fasi analitiche nella grounded theory e uso del computer“, in Roberto Cipriani, Sergio Bolasco (a cura di), Ricerca qualitativa e computer. Teorie, metodi e applicazioni, Angeli, Milano, 1995, pp. 287-307.


– W. S. Robinson, “The Logical Structure of Analytic Induction”, American Sociological Review, XVI, 6, 1951, pp. 812-818.


– Anselm L. Strauss, Janet Corbin, “Grounded Theory Methodology: An Overview”, in Norman K. Denzin, Yvonna S. Lincoln (edited by), Handbook of Qualitative Research, Sage, Londra, 1994.


– William I. Thomas, Florian Znaniecki, The Polish Peasant in Europe and America, University of Chicago Press, Chicago, 1918, 2 voll.; Badger, Boston, 1918-20, 5 voll.; Knopf, New York, 1927, 2 voll. (ed. it., Il contadino polacco in Europa e in America, Comunità, Milano, 1968, 2 voll.).


– William I. Thomas, “Life History”, American Sociological Journal, 79, 1973, pp. 245-250.


– Florian Znaniecki, “Il valore sociologico dell’autobiografia”, in R. Cipriani (a cura di), La metodologia delle storie di vita. Dall’autobiografia alla life history, Euroma Editrice Universitaria di Roma – La Goliardica, Roma, 1995, 3.a edizione, pp.33-42 (è un brano tratto dall’introduzione di Znaniecki al volume Zycioris wlasny (Autobiografia) di Wladyslaw Berkan, pubblicato a Poznan dall’Instytut Socjologiczny, presso la casa editrice Fiszer e Majewski, nel 1924, pp. III-XII).


AGGIORNAMENTI SUL SOFTWARE DI ANALISI QUALITATIVA COMPUTER ASSISTITA


         – The Ethnograph: Il programma ed il manuale sono distribuiti da Qualis Research Associate, P.O. Box 2070, Amherst, MA 01004, USA, tel.: 001-413-2568835, fax: 001-413-2568472, posta elettronica: Qualis@QualisResearch.com oppure Qualis@MCIMail.com, sito WWW – da cui è possibile caricare anche una demonstration – : http://www.QualisResearch.com


La nuova release chiamata Ethnograph v5.0 costa 185 sterline inglesi e può essere ordinata presso Scolari, Sage Publications, 6 Bonhill Street, London, EC2A 4PU, UK, tel.: 0044-171-3301222, fax: 0044-171-3748741, posta eletronica: info@scolari.co.uk


         – HyperRESEARCH: Il programma ed il manuale sono distribuiti da Research Ware, P.O. Box 1258, Randolph, MA 02368-1258, USA, tel. e fax: 001-617-9613909, posta elettronica: researchwr@aol.com, sito WWW: http://members.aol.com/researchwr


– QSR NUD·IST e QSR NUD·IST MERGE: Il programma ed il manuale sono distribuiti da Sage Publications, 6 Bonhill Street, London EC2A 4PU, UK, tel.: 0044-171-3740645, fax: 0044-171-3748741, posta elettronica: nudist@sagepub.co.uk, sito WWW: http//www.sagepub.co.uk


La nuova release chiamata NVivo costa 255 sterline inglesi ed è applicabile anche ai dati visuali.


N. B.: Per questi ed altri programmi ci si può rivolgere anche a Scolari, Sage Publications, 6 Bonhill Street, London EC2A 4PU, United Kingdom, tel.: 0044-171-3301222, fax: 0044-171-3748741, posta elettronica: info@scolari.co.uk