Home

Naturalmente c’è la valutazione ex ante, quella in itinere e quella ex post che sono diversissime, lo dice la parola stessa, e chi ha fatto il liceo conosce quantomeno la consecutio temporum. Che poi, a volere essere pignoli, c’è pure una differenza fra valutazione intermedia e valutazione a medio termine… Poi - andando su vette più elevate - c’è la famosa zuppa di Stake che ci insegna simpaticamente a distinguere fra valutazione sommativa e formativa, che ancorché fuorvianti traduzioni dall’inglese sommative e formative, che vogliono dire altro, restano comunque una suddivisione fondamentale nella Grande Teoria Della Valutazione. E attenzione! Perché se è vero che ogni valutazione è un po’ formativa e un po’ sommativa (si tratta di una zuppa, tutto sommato, no?) resta il fatto che se siete compresi da un’ottica sommativa siete più temuti e andate al sodo della validità dei programmi, mentre se siete formativi siete simpatici e inclusivi e alla fine, diciamolo, chi se ne importa se il programma ha fatto schifo, l’importante e che abbiamo imparato qualcosa. Qualunque cosa. E questo ci porta alla grande famiglia delle valutazioni democratiche e capacitanti, a partire dall’Empowerment evaluation sulla quale Fetterman ha costruito una brillante e solida carriera. E se l’ha costruita una ragione ci sarà, non vi pare? D’altronde bisogna anche conoscere la Realistic evaluation di Pawson, che ha avuto una ventata di grande rinomanza anche in Italia, alcuni anni fa, grazie alla commendabile iniziativa di alcuni padri e madri della valutazione italiana che l’hanno introdotta nella nostra accogliente comunità, la quale nel frattempo aveva - giustamente, diciamolo - dimenticato la “Quarta generazione valutativa” di Guba e Lincoln, roba vecchia… E della Program-Theory Evaluation vogliamo parlare?

Ma se la Grande Teoria Della Valutazione vi fa un po’ girare la testa, e preferite lasciarla ai Grandi Teorizzatori Della Valutazione, quanto meno non potete, assolutamente non potete, esimervi dal conoscere le differenze fra risultati e impatti, e conseguentemente organizzare le analisi valutative differentemente, come Valutazione dei risultati oppure come Valutazione degli impatti; un po’ frigidi i primi ma così eccitanti i secondi! Talmente eccitanti che se ne parla con voce tremula, la si annuncia nei bandi valutativi, spesso a sproposito, la si brama, la si reclama! Diciamolo: cosa può valere di più di una buona valutazione degli impatti? E non venite ora a cavillare su cosa siano esattamente “gli impatti”, cercateveli su Google!

E ho taciuto della valutazione di processo contrapposta a quella di risultato, della valutazione distinta dal monitoraggio (mancanza imperdonabile!) della valutazione controfattuale distinta dai buchi neri e ho taciuto di molte altre dozzine di distinzioni, classificazioni, suddivisioni tutte più o meno note a seconda di come i proponenti abbiano saputo o meno far la loro fortuna cavalcando quelle che sono, e che restano, invenzioni linguistiche la cui importanza è assolutamente pari a zero.

La empowerment evaluation non esisterebbe senza Fetterman, ma Fetterman non esisterebbe senza la sua cavatina; Stake non sarebbe noto ai più senza la sua zuppa, Guba e Lincoln senza l’inutile quarta generazione, e così via. Solo gli autori di più spessore (Patton, Pawson…) hanno avuto anche altro da dire, oltre all’utilizzabilità valutativa il primo e al realismo il secondo. E quello di altro che hanno avuto da dire, e che li rende autori di spessore, è ciò che attraversa tutte, assolutamente tutte, le proposte e suddivisioni valutative qui citate: il metodo.

L’empowerment, la realistic, la sommative, la ex ante come la ex post, la democratica (diomio, come si fa a pensare, definire e teorizzare una “valutazione democratica”?) e tutte le altre quisquilie di cui si occupa la Grande Teoria Della Valutazione evaporano nella loro insignificanza appena si evoca il metodo.

C’è bisogno di spiegarsi?

La valutazione - a volere essere semanticamente pignoli - è l’esito di un processo di ricerca valutativa. Altrimenti è mero asserire da Bar Sport. La ricerca “valutativa” è una forma particolare, applicata, di ricerca sociale, e le differenze sono secondarie, operative, e non interessano il fondamento che le accomuna, che è il metodo della ricerca sociale, che ha un senso nell’alveo del generale metodo della ricerca scientifica contemporanea.

Quindi: l’empowerment, il realismo, la teoria del programma, l’ex ante, l’ex post, l’attenzione sui risultati o sugli impatti, le differenze col monitoraggio e ogni e ciascuna specificazione che volete proporre, evaporano di fronte all’unica riflessione che rende la valutazione un ambito professionale, tecnico e scientifico degno di essere discusso: il metodo della ricerca sociale. E, effettivamente, molte di queste proposte risultano totalmente inconsistenti proprio sotto questo profilo; e quindi inutili, anzi dannose, perché distraggono l’attenzione verso altri luoghi, verso altri concetti, verso altre pratiche che - essendo aliene al metodo - non sono ricerca valutativa, e di conseguenza non possono produrre dati validi e informazioni affidabili e pertinenti, non possono essere utili alla programmazione e alla decisione (che è ciò che caratterizza la valutazione, senza la quale diventa inutile), inquinano l’ambiente (professionale, culturale, politico, decisionale…) con aria fritta.

Diverse sono le (in realtà pochissime) distinzioni e classificazioni nell’ambito del metodo (le uniche che ci possono interessare). In pratica esiste una principale distinzione che ha un fondamento epistemologico e riguarda la ricerca (valutativa e non) controfattuale rispetto a tutte le altre forme di ricerca. Sorvoliamo qui sul fatto che nella grande famiglia controfattuale le proposte realmente costitutive di una episteme coerente, differente da quella non controfattuale, sono pochissime, e che nella realtà pratica moltissime proposte valutative si propongono controfattuali senza esserlo, con una di quelle faticose (per chi le subisce) concessioni a mode che nella nostra comunità di pratiche hanno solitamente la durata di un lustro circa (prima c’è stata la valutazione basata sulla qualità percepita, poi il realismo, poi la teoria del programma, poi il controfattuale e oggi la valutazione d’impatto - elementi spuri, certo). Messa da parte la scelta controfattuale (raramente possibile in pratica), si può discutere su approcci partecipati oppure no solo se la differenza discende direttamente da questioni di metodo, e non da ridicole presunzioni ideologiche (ne abbiamo parlato in un post precedente); si possono distinguere approcci standard e non standard, includendo nella discussione anche gli approcci misti (mixed method), e direi poche altre questioni realmente utili in una distinzioni fra approcci metodologici.

Questa terminologia, queste distinzioni metodologiche, hanno a che fare con l’epistemologia, ovvero la natura delle tecniche di fronte alla realtà fattuale da analizzare; è un problema altissimo, riguarda il modo in cui affrontiamo il mondo per capirlo, e se abbiamo voglia di alzare ancor più lo sguardo potremmo interrogarci sulla possibilità stessa di conoscerlo, quel mondo. Tornando bruscamente a terra, possiamo lasciare ai metodologi e agli epistemologi il compito di raggiungere quelle vette supreme, ma al contempo dobbiamo restare ancorati al metodo: ciò che ci deve interessare come scienziati sociali, come valutatori, come professionisti dell’analisi delle politiche inizia col metodo e finisce col metodo. Parliamo di mandato valutativo, per esempio, perché ha strettamente a che fare col metodo; parliamo di eventuale partecipazione se e in quanto incide su scelte di metodo; porgiamo attenzione agli approcci standard e non standard perché incidono pesantemente sui risultati del nostro metodo. E non ci deve interessare nulla - a meno che si debba presentare una relazione a un Convegno titolato - se la nostra valutazione è formativa o sommativa, di risultati o di impatti, realista o basata sulla teoria del programma o della quarta o della quinta generazione.

La valutazione che chiamiamo pragmatica, che viene considerata positivamente nell’ambito della Centrale Valutativa, è una riflessione metodologica. Non si contrappone né all’empowerment di Fetterman, né al realismo di Pawson né alla zuppa di Stake. È un approccio di ricerca, con una sua riflessione epistemologica, una sua coerenza metodologica, delle sue definizioni operative.

E non è di moda, il che la rende una gran cosa, davvero interessante.

Claudio Bezzi 

Il mio mestiere è la valutazione [dell’efficacia, dell’efficienza…] delle politiche pubbliche [programmi, progetti, pubblici o di ONG]. Mi chiamano perché dica, ai responsabili di una politica, se hanno fatto o stanno facendo bene, cosa non ha funzionato e perché. Qualche volta, anziché essere chiamato, partecipo a bandi. E questa era la premessa per contestualizzare.

Qualche giorno fa ero a Roma con i colleghi della Centrale per rispondere a due bandi particolari, con le seguenti prerogative:

  • ampi, anzi: amplissimi come popolazione target e territorio coinvolto;
  • oscuri, anzi proprio confusi, come accade quando per qualche motivo un Ente mette dei soldi non sa bene perché, per fare cose benemerite che non si sa affatto se funzioneranno;
  • urgenti; come sempre ci siamo trovati pochi giorni a disposizione per scrivere.

L’ultimo punto è un mix di colpe amministrative dell’Ente appaltatore e ritardi cronici del soggetto proponente e non vale la pena parlarne. I primi due punti, invece, sono tipici dei programmi complessi che sono, di regola, programmi di intervento sociale (in senso lato: welfare, sanità, lavoro, formazione…), come nel caso che vi sto raccontando.

sintesi creativa 1La figura (a sinistra) intende mostrare simbolicamente il problema: aree percepite e aree (che ci sono anche se non sono chiaramente percepite) che possono avere molta rilevanza; concetti sovrapposti e altri poco definibili; effetti intervenienti difficili da identificare.
La risposta del valutatore affronta quindi una duplice barriera:
•quella della complessità insita in ogni contesto sociale;
•quella dell’interpretazione che di quella complessità ha già dato l’Ente banditore, interpretazione che si evince dalle descrizione (più o meno buona) dell’oggetto di valutazione, dai vincoli e dalle indicazioni proposte, che non possono essere ignorate dal valutatore. 

Di fronte a questa [confusa] complessità, il valutatore deve dare - al contrario - una risposta organica, addirittura schematica, razionalista, causalista (dato il problema A con l’intervento B si otterrà la soluzione C). Insomma, qualcosa così. 

La risposta analitica
La figura (a destra) intende sottolineare un approccio analitico al problema della progettazione: si vedono tutti i pezzi indicati dal committente (e - se si ha un po’ di esperienza - anche altri), e ad ognuno di questi si dà una risposta specifica. Il macro-problema che ha generato il bando riceve delle risposte parcellizzate: un’indagine (per esempio) su un aspetto rilevante, un’altra fase di ricerca su un secondo aspetto rilevante e così via, a seconda delle richieste del bando, del budget disponibile e delle capacità ideative del proponente (il valutatore che scrive il progetto cercando di vincere il bando). sintesi creativa 2

Ammettendo subito di avere partecipato a molte gare con progetti scritti così, occorre dire che l’approccio analitico non è il massimo per questo motivi:
• essendo di tipo logico-razionalista è solitamente ripetitivo; questo pensiero tende a cristallizzarsi su determinati schemi, nel senso che “vede” sempre le stesse cose tendendo a dare le stesse risposte;
• i vari “pezzi” potrebbero non coprire [semanticamente] l’intero problema oggetto dell’intervento; anzi, non succede proprio, è impossibile, e nessuno può sapere il peso - nel complesso del problema - di quelle parti trascurate;
• è illusorio considerare la somma delle parti esplorate (anche se coprissero tutto il problema) come coincidente alla risposta globale, d’insieme. Tutto è parcellizzato; abbiamo risposte specifiche che potrebbero funzionare tutte nella distinzione, ma non funzionare come insieme.
Non si sta dicendo che il pensiero analitico sia errato, o anche semplicemente inferiore a quello sintetico. Questo è il tipico processo di problem solving, che riguarda, per esempio, anche il quadro logico e il paradigma lazasferdiano. 

La risposta sintetica
La risposta sintetica (a torto chiamata anche “intuitiva”, “convergente” e in altri modi) è ovviamente il contrario e si pone come sistemico, olistico, organico (concetti differenti, sia chiaro). Vale a dire che cerca di cogliere, al di là dei singoli elementi evidenti (sui quali è attratta la nostra attenzione, e quindi diventano confusivi) i fattori trasversali che li collegano e - si badi - che danno un senso unitario al progetto e quindi alla capacità di valutarlo e gestirlo nella sua unitarietà.
La figura che segue propone - sempre simbolicamente - il pensiero sintetico e i suoi principali risultati, assai meno significativi nell’aproccio analitico:
Il pensiero sintetico, a differenza di quello analitico, è meno “logico”, è più difficilmente oggetto di un apprendimento razionale. È abduttivo. È creativo. “Pesca” sulle conoscenze pregresse, anche tacite, e solitamente appare alla coscienza in modo subitaneo. Nel processo elaborativo di cui parlavo all’inizio questo è successo: leggere la proposta messa a bando, girarci con circospezione attorno, avere l’idea, quasi la visione, direi, per poi approfondirla con approccio analitico, per poi tornare alla visione d’insieme…
sintesi creativa 3La qualità progettuale ne risente. Nel senso che diventa stupenda, sistemica, organica, capace di rivelare allo stesso committente elementi e aspetti sottotraccia e non pienamente chiari. La qualità progettuale diventa, paradossalmente, rischiosa, perché occorre un esaminatore capace di cogliere questa visione complessiva, e che voglia realizzare quindi una valutazione non banale.



 

 

 

 

È noto che il concetto di ‘valutazione’ è – come tanti in ambito scientifico e professionale – tendenzialmente ambiguo. È sia termine del linguaggio ordinario che tecnico, ma anche in questo secondo caso sconta il fatto che la valutazione è un ampio e diversificato campo di studio e intervento di recente costituzione al quale contribuiscono economisti, sociologi, statistici, pedagogisti, giuristi, esperti di amministrazione pubblica e vari altri.

 

Ciascuna categoria professionale, ciascuna comunità di pratiche e scientifica, ha “importato” il proprio linguaggio, le proprie consuetudini, la propria visione di contesto, e questo contribuisce a creare confusione malgrado il dibattito internazionale aiuti a limare le differenze più eclatanti e a sedimentare alcuni punti fermi. Anche se non senza oscillazioni di significato anche importanti, è per esempio ormai chiara a tutti, e sostanzialmente da tutti accettata, la differenza fra “valutazione” e “monitoraggio”, oppure fra “dati”, “informazioni” e “indicatori”, e chi utilizza in modo improprio questi termini deve renderne conto.

 

Uno dei concetti valutativi maggiormente utilizzati da un decennio a questa parte è quello di ‘partecipazione’, che compare assai spesso in ampia parte della letteratura valutativa (da oltre un ventennio in quella americana), che viene sovente evocata da professionisti ma che è anche oggetto di equivoci che possono avere pesanti riflessi nella pratica operativa. In modo generico possiamo intendere ‘partecipazione’ come il contributo che gli attori sociali rilevanti (stakeholder, ma abbiamo l’equivalente italiano ed è meglio usare quello) possono dare alla pratica valutativa. Vale a dire che il valutatore, in una logica partecipata, non è considerato come un solitario indagatore che costruisce i suoi metodi nel suo studio, li applica secondo criteri a lui solo noti, li analizza in segreto per poi rivelare, alla fine, il risultato della sua indagine. Questa idea di separazione del ricercatore dal contesto indagato, molto ottocentesca, di sapore positivista, funziona poco nelle scienze accademiche, figurarsi in valutazione che si caratterizza per il desiderio di praticità e utilità e che quindi deve, necessariamente, essere una pratica sporca, in cui si cerca il contatto con gli attori sociali, in cui ci si sporge inevitabilmente nella programmazione, formazione e consulenza.

 

L’idea di ‘partecipazione’ può però essere intesa in una grande varietà di significati. Alcuni, eccessivamente ristretti e ormai quasi più da nessuno invocati, riguardano la semplice necessità di reperire dati presso terzi (per esempio: con un questionario sull’efficacia di un determinato programma somministrato ai beneficiari), ma il filone principale che in valutazione propugna la partecipazione intende, ovviamente, qualcosa di più: partecipazione, per esempio, nella costruzione dello strumento valutativo; partecipazione nell’analisi dei risultati; partecipazione come condivisione del progetto valutativo e delle sue finalità. Assodato che sia questo secondo il concetto di ‘partecipazione’ di cui stiamo parlando occorre porsi la fondamentale domanda: perché mai sarebbe utile fare una cosa di questo genere, ovviamente più faticosa e costosa per il valutatore?

 

Non porsi questa domanda significa non padroneggiare il metodo valutativo. Come per qualunque altro aspetto della valutazione (il disegno valutativo, la scelta delle tecniche e la loro analisi…) anche l’eventuale approccio partecipato deve discendere da scelte precise, chiare, consapevoli ed esplicitabili dal valutatore. In caso contrario tali scelte sembrerebbero (e forse sarebbero) conseguenze di una moda, di un’adesione acritica a procedure non ben comprese, e quindi sarebbe lecito dubitare della bontà del disegno valutativo, dell’opportunità del metodo adottato e della validità dei risultati raccolti (e quindi dei giudizi valutativi conseguenti).

 

Nella letteratura valutativa una delle principali motivazioni alla valutazione partecipata è la sua intrinseca democraticità. Far partecipare gli attori sociali è un veicolo di empowerment, capacitazione, comprensione del contesto, formazione dei partecipanti e quindi, in sostanza, è una cosa buona in sé. Naturalmente, laddove fosse vero che un certo tipo di valutazione fosse collegabile all’incremento di democrazia ed empowerment, non potremmo che rallegrarci, ma al contempo appare evidente come non sia questo lo scopo della valutazione. I propugnatori della valutazione partecipata in quanto democratica (esiste anche una valutazione etichettata proprio come “valutazione democratica”, ovviamente partecipata) compiono un fondamentale errore in buona fede: sovrastimano un epifenomeno (il fatto che un certo tipo di approccio induca democraticità) e perdono di vista l’obiettivo fondamentale, che per la valutazione è costruire giudizi su programmi e politiche sulla base di argomentazioni sostenute da dati e informazioni. La valutazione nasce nel mondo occidentale per aiutare i decisori a disambiguare una realtà di sempre più difficile comprensione nella società complessa in cui siamo immersi. Prendere decisioni (politiche, amministrative, gestionali…) è difficile a causa dell’incremento delle interconnessioni fra individui, gruppi, eventi e contesti. Il valutatore si affianca al decisore per de-complessificare gli elementi sottoposti a decisione e giudizio, e per fare questo affronta un percorso di ricerca sociale in grado di produrre dati e informazioni chiare. Lo scopo della valutazione non è la democrazia, anche se un’ovvia conseguenza della valutazione è la trasparenza e la rendicontazione, elementi indubbiamente importanti per i processi democratici. Riassumendo: bene, anzi benissimo, se la valutazione correttamente esercitata e utilizzata favorisce democrazia ed empowerment, auto-riflessione e consapevolezza degli operatori, ma non è questo il suo scopo principale.

Se lo scopo principale della valutazione è produrre argomentazioni utili per la decisione pubblica, argomentazioni corroborate da dati e informazioni ricavati da rigorosi percorsi di ricerca sociale, quale ruolo spetta alla partecipazione? La risposta ovvia, a questo punto, risiede strettamente nel metodo. La partecipazione in valutazione è utile o non è utile se è funzionale al metodo, se contribuisce a corroborare le informazioni, se aiuta il valutatore a meglio argomentare i risultati che dovranno servire al decisore. I fautori della partecipazione che non si misurano col metodo in realtà non sanno perché tale approccio sia utile oppure no, e quindi producono valutazioni che forse saranno utili o forse no.

Ciò premesso sì, la valutazione partecipata ha un ruolo importante sotto il profilo del metodo per molteplici ragioni, la principale delle quali risiede nella corretta identificazione del vero oggetto dell’analisi valutativa, che non è mai “la politica” o “il programma” o “l’organizzazione” ma le persone che tale politica, programma, organizzazione, agiscono. Un POR per esempio (Programma Operativo Regionale, per esempio relativo a fondi strutturali quali Fesr o Fse) non è il documento “POR” disponibile come volume cartaceo o come file scaricabile dal sito regionale. Il POR non è le dichiarazioni, solitamente ambigue e contraddittorie, che si possono ricavare da una lettura del testo; e non è neppure l’analisi finanziaria dei suoi aspetti economici. Il POR (come qualunque politica e programma, come qualunque organizzazione o servizio) è invece il combinato disposto delle persone che agiscono quel Programma e dei loro contesti. “Persone” è però troppo generico: bisogna intendere certo anche il livello individuale (personologico) ma specialmente, in valutazione, i ruoli agiti, le culture professionali, politiche, istituzionali trasmesse, le relazioni e le diverse finalità di gruppi a volte contrapposti che in quel Programma agiscono. E anche “contesti” deve essere inteso in senso più socio-antropologico che non meramente geografico e amministrativo, e quindi espressione locale di bisogni, esperienze pregresse, senso di identità e molto altro. Un qualunque programma, quindi, non può essere valutato in relazione a un inesistente algoritmo (azioni intese ingegneristicamente, in tempi certi, con denari chiari, su beneficiari evidenti…) bensì alla luce dei meccanismi sociali che questa platea di attori in situazione produce, ovverossia alla luce di come tali attori interpretano il programma, come lo rendono operativo, come lo sostengono oppure come vi oppongono una qualche frizione, semmai inconsapevole. I programmi (le politiche, etc.) funzionano o non funzionano alla luce del risultato finale di una grande quantità di interpretazioni, di relazioni, di aggiustamenti. Il valutatore deve entrare in tale complessità sociale e cercare di capirla per poter dire qualcosa di più di “il programma ha funzionato / non ha funzionato”; se si vogliono capire i meccanismi che hanno consentito al programma di funzionare o meno, e adempiere alla finalità valutativa dell’apprendimento organizzativo, le politiche e i programmi non possono essere trattati come cose, semplicemente perché non lo sono. Le politiche e i programmi sono le persone che tali politiche e programmi hanno pensato e implementato, sono le loro visioni politiche e organizzative, le finalità e gli obiettivi, anche impliciti, che hanno creduto di perseguire, salvo accorgersi che sussistono obiettivi anche contraddittori e contrapposti. Le politiche e i programmi sono i meccanismi sociali, che li fanno ben funzionare oppure no, prodotti da molteplici interazioni e volontà, in molti casi pianificati e consapevoli e in altri casi no. E il valutatore deve entrare in tale agone non già col compasso, col metro e colla bilancia bensì con una capacità di osservazione e interpretazione che solo il reale coinvolgimento degli attori sociali può dargli.

Ecco allora il significato della valutazione partecipata alla luce del metodo: poiché gli effetti delle politiche e programmi sono il prodotto di meccanismi sociali per lo più impliciti, non chiaramente espressi, a volte contraddittori, è solo dall’adesione convinta degli attori sociali alla valutazione che si può sperare di cogliere la portata di tali meccanismi, il ruolo delle comunità di pratiche, il senso attribuito alle indicazioni programmatiche. Il valutatore desidera un approccio partecipato perché:
• solo così ottiene la profondità informativa che altrimenti non raggiungerebbe;
• crea un contesto di fiducia reciproco che consente di ottenere tali informazioni;
• crea i presupposti per un uso della valutazione e dei suoi risultati.

Ma c’è di più. Questo contesto fluido e sfaccettato che abbiamo descritto propone, ovviamente, molteplici verità. Esiste un’idea di Programma (delle sue finalità, dei suoi obiettivi, degli effetti attesi) del decisore che forse assomiglia a quella del programmatore, del burocrate che ha materialmente redatto il testo, o forse no; ma che probabilmente è diversa dall’idea che di quello stesso programma hanno coloro che dovranno materialmente implementarlo e condurlo negli anni, e probabilmente molto diversa dall’idea che se ne fanno i beneficiari, la popolazione in generale, gruppi di pressione e di interesse specifici e così via. È inevitabile che sia così. Questa molteplice rappresentazione dello stesso programma è un vulnus valutativo non trascurabile. Se il valutatore rimane troppo appiattito sull’idea del programmatore potrebbe essere a un certo punto rifiutato (nel lessico, nelle operazioni di analisi) dall’operatore di front office o dal beneficiario, ma se si allinea troppo a questi ultimi sarà il decisore o il programmatore a non capirlo più, a percepirlo come non utile alla decisione che si deve prendere. La valutazione partecipata consente di superare questa grave difficoltà perché con tecniche e procedure opportune mette in circolo le idee, obbliga al confronto, induce comprensione e condivisione del lessico. Una valutazione partecipata ben fatta non modifica, ovviamente, le diverse idee che gli attori hanno del programma ma, almeno, riesce a cristallizzarne una versione trasversalmente accettata sulla quale lavorare; fissa i punti chiave, precisa i confini entro i quali tutti concordano di operare; acquisisce il lessico locale (di quelle comunità di pratiche) come patrimonio comune anche al valutatore. Non si tratta, quindi, solo di avere più informazioni, o migliori, ma di avere quelle informazioni che gli stessi attori coinvolti giudicano pertinenti, averle col loro lessico (i problemi semantici e pragmatici sono rilevantissimi anche se non li tratteremo in questa nota), espresse entro il quadro culturale che agisce in quel contesto e che sarà responsabile dei meccanismi sociali già detti, responsabili del funzionamento o meno del programma.

Una valutazione siffatta richiede un disegno particolare; tecniche e procedure ad hoc; capacità specifiche del valutatore. Ma soprattutto richiede, a monte, la disponibilità del committente. Tale disponibilità è essenziale per avviare un approccio partecipato, deve essere pattuita a monte, durante la fase di costruzione del mandato valutativo, può essere rinegoziabile e adattabile in corso d’opera ma, occorre essere chiari, se non c’è, se per qualunque motivo il committente, il suo staff e i principali attori sociali si rendono indisponibili, allora non c’è nulla da fare e si deve ricorrere ad altri disegni, ad altre tecniche, con evidenti altri risultati.

È solo a questo punto, dopo una riflessione sul metodo, che c’è bisogno di una riflessione sulle tecniche. Le tecniche seguono la riflessione sul metodo, e sono selezionate dal valutatore sulla base di una giustificazione metodologica (occorre segnalare che questo elemento, anche se fondamentale, non è ben compreso dai molti che utilizzano determinate tecniche, e non altre, per ragioni non note, legate semmai a loro personali preferenze e competenze). Il ventaglio di tecniche utili in una valutazione partecipata è estremamente vasto ma, naturalmente, le tecniche basate su gruppi di esperti sono quelle elettivamente più utili (anche se sarebbe improprio una connessione in qualche modo vincolante fra partecipazione e tecniche di gruppo). In questa ampia famiglia di tecniche ne troviamo alcune che facilitano la discussione di gruppo (composto da quegli attori rilevanti di cui abbiamo parlato fin qui) e la decisione consensuale; altre non mirano alla consensualità ma all’identificazione delle diverse articolazioni della visioni del programma; alcune aiutano il gruppo a decidere, altre consentono la costruzione condivisa di indicatori; alcune forniscono testi che il valutatore dovrà ulteriormente elaborare e altre forniscono matrici numeriche in qualche modo già pronte all’uso. Sapere quali tecniche e procedure siano più adatte alla luce degli obiettivi valutativi (e delle “domande valutative”), e come far interagire tali tecniche con altre azioni valutative, semmai non partecipate (raccolta di basi di dati, indagini, etc.), è naturalmente parte integrante della professionalità del valutatore.

La Centrale Valutativa è consapevole dell’importanza della partecipazione in valutazione. Ne conosce potenzialità e limiti e cerca di proporla nei suoi disegni valutativi in un quadro multimetodo (mixed method, ovvero approcci quali-quantitativi supportati da tecniche diverse). Su questi temi la Centrale Valutativa è impegnata in una costante formazione del proprio gruppo di lavoro.

La Centrale

cerchio finale

 Centrale Valutativa  

 P. IVA 13667401007

 

Ufficio del Registro delle Imprese di Roma, iscrizione n. RM 1464525
Capitale sociale 100.000 Euro i.v - Società a responsabilità limitata This email address is being protected from spambots. You need JavaScript enabled to view it.

Certificazione ISO 9001:2015 
NQA ISO9001 CMYK UKAS

 

 

 


Clicca qui
 
per scaricare il certificato

Informazioni obbligatorie di cui all’art.25 comma12 del D.l.179/2012

lazioinnovalogo-spazio-attivo-228x300

I VIDEO DELLA CENTRALE

 

L'ALBUM SU FLICKR

LE RETI

Centrale è socia sostenitrice di AIV

Logo-AIV


 Centrale è socia di Banca Etica

banca etica logo

CAMPAGNE

Centrale aderisce alla campagna

eval for Action


La valutazione a supporto delle politiche per raggiungere gli SdG

1goals-sconfiggere-la-poverta2goals-sconfiggere-la-fame-nel-mondo3goals-buona-salute

5goals-parita-di-genereGoal 6goals istruzione di qualita

 

I Tweet della Centrale

Questo sito utilizza cookies tecnici e "di profilazione". Sì, è pessimo italiano, ma non dipende da noialtri. Alcuni cookies ci permettono di avere statistiche sulle visite, su cosa viene letto, su quali link vengono usati. Altri ci consentono di usare servizi di terzi, come quando incorporiamo audio e video, o diamo la possibilità di condividere un articolo sui social media. Se ti va bene, puoi accettare i cookies cliccando sul bottone o, semplicemente, continuando a navigare. Se invece non ti va bene, ti vedremo allontanarti nel tramonto, e sarà comunque una gran bella scena. (credits wumingfoundation)