Titolo

Il secondo incubo del barone

2 commenti (espandi tutti)

Nn è vero che solo originalità, rilevanza, profondità dei risultati contano nelle selezioni dei matematici. Ci sono anche pregiudizi di scuola, ambizioni personali, clientelismo, e perfino nepotismo. Facendo però una media mobile su quattro cinque concorsi (per ogni settore) prevale, mi sembra, la valutazione della rilevanza dei risultati. Comunque accetto il consiglio di Michele. Rileggerò la proposta del milanese in modo meno superficiale, e cercherò di esprimere un parere più ragionato. Resta il fatto che sono convinto che "il merito" sia difficilmente riassumibile in una scala numerica, ci vorrebbe almeno un vettore in uno spazio ad n dimensioni, con n abbastanza grande. Per questo è opportuno che esistano diversi soggetti che compiono le scelte sulla base di diverse combinazioni (forse addirittura non lineari) delle coordinate. Almeno in matematica un risultato è rilevante se se ne parla (direttamente o indirettamente) ancora dopo trenta anni. Ma si scelgono i trentenni non i sessantenni. Pertanto, alla fine, il giudizio di merito scientifico è intrinsecamente incerto. Ma mi riprometto di leggere più attentamente la proposta.

 Vede professore, ho una certa esperienza anch'io di concorsi in Italia ed in settori dove la selezione è quasi sempre ispirata da criteri personalistici. Con tale parola intendo concorsi dove i candidati vengono scelti a priori dai commissari prima dell'inizio dei lavori (in genere come risultato di anni di rapporti personali).  Ciò non esclude che vincano anche candidati bravi, se qualche commissario decide di promuoverli. Il problema è che, una volta scelto a priori il candidato, le valutazioni scientifiche ed i relativi criteri vengono distorti per farlo apparire il migliore. Ci sono decine di trucchi, più o meno espliciti per farlo.  Temo che questi concorsi siano la maggioranza o comunque sono una minoranza così ampia da rovinare l'università ed anche la sua immagine esterna. In questi casi, l'invocazione alla palingenesi morale ("scegliete i migliori") è del tutto inutile. L'idea di fondo della proposta è far pagare ai Dipartimenti il costo di queste scelte, premiando quelli che scelgono i migliori (cioè i più produttivi in termini di ricerca scientifica) e penalizzando i  dipartimenti che invece scelgono incapaci. Ma come si fa per valutare la produttività ex-post? Non si può lasciare il compito ai professori italiani. Questo infatti porterebbe o ad una soluzione collusiva (tutti bravi, vanificando la riforma) o ad una guerra per bande (gli amici dei valutatori avrebbero punteggi altissimi e i nemici bassi). E ricorrere agli stranieri, oltre che umiliante, non risolverebbe il problema. Si rischierebbe di doversi affidare a studiosi di terz'ordine (Lei pensa che un luminare di Harvard abbia voglia di leggersi o valutare migliaia di prodotti?), scelti per amicizia dai baroni italiani. Saremmo punto e a capo

La soluzione proposta è di usare indici quantitativi. Nessuno pensa che l'IF sia ideale. Il Milanese parla esplicitamente di un comitato per disciplina che individui l'indice migliore. Se a Informatica l'indice della qualità è l'accettazione dei paper in alcuni convegni internazionale (come mi pare di ricordare da una vecchia discussione) usiamo il numero di paper accettati. Etc .L'indice però

i) deve essere il meno manipolabile possibile dai professori italiani (l'IF lo è molto poco) 

ii)  deve essere usato in maniera automatica senza eccezioni

 Il Milanese spiega anche che questa è una fase transitoria. Una volta cambiata la mentalità (il che richiede probabilmente un cambiamento radicale del corpo docente) si può tornare a metodi meno meccanicistici. Personalmente ritengo che il RAE inglese sia un'ottimo compromesso. Ma in Italia, purtroppo, bisogna prima fare una riforma MOLTO radicale