L’attenzione alla qualità in ambito statistico è andata sempre più crescendo in questi anni, parallelamente a quanto, del resto, è accaduto in tutte le altre scienze. Un tale accrescimento dell’attenzione verso la qualità, definito da molti come la quality revolution della società (Biemer e Lyberg, 2003), ha portato a sperimentare forme organizzative innovative, a rivedere, ciascuno nel proprio ambito, il prodotto offerto e a cercare nuovi canali di contatto e di sintonia con l’utenza cui rivolgersi. In linea del tutto generale, nell’ambito statistico è possibile evidenziare come l’attenzione sia andata sempre più spostandosi dal processo di produzione del dato e dalle sue caratteristiche intrinseche ai bisogni e alla soddisfazione dell’utente finale. Accanto a questo cambiamento registratosi nell’approccio filosofico al problema, è opportuno ricordare le profonde trasformazioni che si sono verificate nell’uso e nella divulgazione del dato statistico offerte dall’evoluzione delle tecnologie informatiche, che hanno portato all’affermarsi della società dell’informazione: la presenza delle tecnologie di rete ha permesso di distribuire i database e di condividere le risorse in modo esponenziale, aumentando la diversificazione degli utenti, ma aprendo anche la strada alle necessità di utilizzo dei dati più disparate. Contestualmente, il crescere delle applicazioni statistiche e la sempre maggiore diffusione che i dati statistici stessi hanno avuto con l’avvento delle nuove tecnologie e delle opportunità offerte dalla rete e, più in generale, dalla telematica, è aumentata la produzione di statistiche e del pubblico potenziale, ovvero l’insieme di persone che si affidano ai dati statistici. Tutto ciò ha prodotto, da una parte, un minore controllo della qualità delle statistiche, data la proliferazione di enti, più o meno accreditati e professionali, che le realizzano; dall’altra è andato sempre crescendo l’impatto che qualsiasi informazione, passata come statistica, può avere sulla comunità in generale. Nella prima parte del lavoro, pertanto, si indagherà sui diversi aspetti e accezioni di qualità in ambito statistico, focalizzando in particolare l’attenzione sui nuovi strumenti offerti dalla tecnologia e a cui si fa riferimento per assicurare la qualità in ambito statistico e sulle nuove sfide che, a tutt’oggi, restano ancora aperte, ponendo di volta in volta in evidenza la multidisciplinarietà della materia e la complessità delle relazioni e degli aspetti che ne risultano inevitabilmente coinvolti. Si cercherà, inoltre, di riassumere le tappe fondamentali che hanno condotto, storicamente, alla situazione odierna, tentando di accompagnare tale descrizione teorica con un approccio critico, innovativo, volto ad evidenziare le problematiche, ma, soprattutto, le opportunità in termini di conoscenza che mai come in questi anni si prospettano allo studioso. La seconda parte del lavoro è dedicata all’approfondimento di un aspetto specifico della qualità, connesso con il problema delle mancate risposte parziali nelle indagini statistiche. Dopo aver esposto la complessità delle cause da cui esse possono originare ed i possibili effetti che esse possono provocare sulle informazioni finali, vengono descritte le tecniche maggiormente adoperate per il loro trattamento, in particolare quelle di imputazione e, nell’ambito delle stesse, l’imputazione multipla, soffermandosi sulle caratteristiche che la rendono tra le più adatte nel trattamento di tali problematiche. Inoltre, vengono approfondite teoricamente le metodologie di imputazione basate sulle catene di Markov secondo il metodo Monte Carlo, sui modelli di misture e sui propensity score. Nella terza parte, viene descritta, nelle sue caratteristiche essenziali, l’Indagine campionaria Istat sulle Piccole e Medie Imprese, esercizio di arti e professioni, sul cui dataset finale si è proceduto con l’applicazione di una sperimentazione delle tecniche di imputazione su indicate, basata su una simulazione di una percentuale pari al 30% di mancate risposte nelle variabili Fatturato e Costo per il Personale secondo un meccanismo Missing At Random rispetto alla dimensione aziendale misurata attraverso il carattere numero di addetti. I risultati ottenuti sono illustrati nella quarta ed ultima parte del lavoro.
Rilevazioni complesse e qualità dei dati economici: un’applicazione dell’imputazione multipla all’Indagine sulle PMI
ROCCA, Antonella
2008-01-01
Abstract
L’attenzione alla qualità in ambito statistico è andata sempre più crescendo in questi anni, parallelamente a quanto, del resto, è accaduto in tutte le altre scienze. Un tale accrescimento dell’attenzione verso la qualità, definito da molti come la quality revolution della società (Biemer e Lyberg, 2003), ha portato a sperimentare forme organizzative innovative, a rivedere, ciascuno nel proprio ambito, il prodotto offerto e a cercare nuovi canali di contatto e di sintonia con l’utenza cui rivolgersi. In linea del tutto generale, nell’ambito statistico è possibile evidenziare come l’attenzione sia andata sempre più spostandosi dal processo di produzione del dato e dalle sue caratteristiche intrinseche ai bisogni e alla soddisfazione dell’utente finale. Accanto a questo cambiamento registratosi nell’approccio filosofico al problema, è opportuno ricordare le profonde trasformazioni che si sono verificate nell’uso e nella divulgazione del dato statistico offerte dall’evoluzione delle tecnologie informatiche, che hanno portato all’affermarsi della società dell’informazione: la presenza delle tecnologie di rete ha permesso di distribuire i database e di condividere le risorse in modo esponenziale, aumentando la diversificazione degli utenti, ma aprendo anche la strada alle necessità di utilizzo dei dati più disparate. Contestualmente, il crescere delle applicazioni statistiche e la sempre maggiore diffusione che i dati statistici stessi hanno avuto con l’avvento delle nuove tecnologie e delle opportunità offerte dalla rete e, più in generale, dalla telematica, è aumentata la produzione di statistiche e del pubblico potenziale, ovvero l’insieme di persone che si affidano ai dati statistici. Tutto ciò ha prodotto, da una parte, un minore controllo della qualità delle statistiche, data la proliferazione di enti, più o meno accreditati e professionali, che le realizzano; dall’altra è andato sempre crescendo l’impatto che qualsiasi informazione, passata come statistica, può avere sulla comunità in generale. Nella prima parte del lavoro, pertanto, si indagherà sui diversi aspetti e accezioni di qualità in ambito statistico, focalizzando in particolare l’attenzione sui nuovi strumenti offerti dalla tecnologia e a cui si fa riferimento per assicurare la qualità in ambito statistico e sulle nuove sfide che, a tutt’oggi, restano ancora aperte, ponendo di volta in volta in evidenza la multidisciplinarietà della materia e la complessità delle relazioni e degli aspetti che ne risultano inevitabilmente coinvolti. Si cercherà, inoltre, di riassumere le tappe fondamentali che hanno condotto, storicamente, alla situazione odierna, tentando di accompagnare tale descrizione teorica con un approccio critico, innovativo, volto ad evidenziare le problematiche, ma, soprattutto, le opportunità in termini di conoscenza che mai come in questi anni si prospettano allo studioso. La seconda parte del lavoro è dedicata all’approfondimento di un aspetto specifico della qualità, connesso con il problema delle mancate risposte parziali nelle indagini statistiche. Dopo aver esposto la complessità delle cause da cui esse possono originare ed i possibili effetti che esse possono provocare sulle informazioni finali, vengono descritte le tecniche maggiormente adoperate per il loro trattamento, in particolare quelle di imputazione e, nell’ambito delle stesse, l’imputazione multipla, soffermandosi sulle caratteristiche che la rendono tra le più adatte nel trattamento di tali problematiche. Inoltre, vengono approfondite teoricamente le metodologie di imputazione basate sulle catene di Markov secondo il metodo Monte Carlo, sui modelli di misture e sui propensity score. Nella terza parte, viene descritta, nelle sue caratteristiche essenziali, l’Indagine campionaria Istat sulle Piccole e Medie Imprese, esercizio di arti e professioni, sul cui dataset finale si è proceduto con l’applicazione di una sperimentazione delle tecniche di imputazione su indicate, basata su una simulazione di una percentuale pari al 30% di mancate risposte nelle variabili Fatturato e Costo per il Personale secondo un meccanismo Missing At Random rispetto alla dimensione aziendale misurata attraverso il carattere numero di addetti. I risultati ottenuti sono illustrati nella quarta ed ultima parte del lavoro.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.