BARBACID: UNA VECCHIA DOMANDA CHE RITORNA

BARBACID: UNA VECCHIA DOMANDA CHE RITORNA

Fin dai primi casi in cui mi sono imbattuto, ho verificato che quando un illustre scienziato è messo di fronte a problemi nelle sue pubblicazioni, il più delle volte, per cercare di salvare la propria reputazione, peggiora il danno. Non è sempre così; mi sono capitati anche casi in cui si è subito fatta la “cosa giusta”, anche di fronte alla scoperta di decine e decine di propri articoli con manipolazioni evidenti, ma spessissimo, invece, lo è.

Da non meno di quindici anni mi chiedo come sia possibile.

Com’è possibile che una persona di grande levatura intellettuale e cognitiva – Mariano Barbacid, per fare un esempio recentissimo – non risponde intelligentemente nell’unico modo possibile, cioè assumendosi responsabilità e rimediando in modo accurato agli errori, e invece si infila in una situazione ancora peggiore? Perché, in altre parole, persone cognitivamente dotate e spesso di grande preparazione e intelligenza non vedono la via d’uscita migliore, che tale è anche se la si vuole adottare strumentalmente per coprire le proprie colpe pregresse, e invece si scavano la fossa con certe dichiarazioni palesemente assurde?

Anche ripensando all’ultimo libro che ho scritto con Gilberto Corbellini, credo che una risposta a questa domanda per me tormentosa si possa abbozzare così: perché l’intelligenza non protegge automaticamente dalla cattiva gestione dell’errore, una forma di comportamento disrazionale. Anzi, in certe condizioni può peggiorarla. Una persona molto intelligente dispone di più strumenti per costruire giustificazioni raffinate, per selezionare i fatti che la assolvono, per trasformare una violazione procedurale in un malinteso, per leggere la critica come attacco personale, per convincersi che il valore superiore del proprio lavoro renda secondario il modo in cui quel lavoro è stato presentato.

La cosa decisiva è che qui non entra in gioco solo l’intelligenza cognitiva. Entra in gioco l’identità. Per uno scienziato di grande prestigio, soprattutto a fine carriera o in una fase di forte esposizione pubblica, ammettere un errore non significa soltanto dire “ho sbagliato una disclosure”. Significa incrinare l’immagine di sé costruita in decenni: il ricercatore rigoroso, il maestro, il fondatore di scuola, l’uomo che combatte una malattia terribile, il protagonista di un possibile progresso terapeutico. L’errore procedurale diventa allora insopportabile non per la sua gravità tecnica, ma perché minaccia l’architettura narrativa della propria vita professionale.

A questo si aggiunge un meccanismo molto comune fra persone di alto livello: la confusione fra valore scientifico del risultato e correttezza della condotta. Barbacid, per citare sempre lui, può essere sinceramente convinto che il dato biologico sia forte, che la terapia meriti di avanzare, che il lavoro sia importante per i pazienti. Da questa convinzione può derivare una conclusione sbagliata: se il risultato è importante, allora chi insiste sul conflitto di interessi (o su qualunque altro problema) sta ostacolando la scienza.

Ma il punto è esattamente l’opposto. Proprio perché il risultato è importante, la procedura dovrebbe essere impeccabile. Più alta è la posta, più rigorosa deve essere la trasparenza.

C’è poi la trappola del fine nobile. Quando uno scienziato lavora su una malattia devastante, può iniziare a percepire le regole non come condizioni della fiducia, ma come ostacoli alla velocità. Il ragionamento, spesso non esplicito, diventa: stiamo cercando di portare una terapia ai pazienti; chi solleva dubbi su conflitti, brevetti, quote, fondazioni, procedure editoriali, sta rallentando un bene più grande. È una forma di autoassoluzione molto potente, perché trasforma una responsabilità propria in un danno prodotto dagli altri. In quel momento, chi chiede trasparenza non appare più come chi difende il metodo, ma come chi intralcia la cura.

Un altro fattore è la pressione legale e reputazionale. In una crisi del genere, gli avvocati possono spingere a evitare qualunque ammissione esplicita di errore, perché temono conseguenze disciplinari, patrimoniali, istituzionali o contrattuali. Così nasce una risposta formalmente difensiva: “non volevo arricchirmi”, “le quote valgono poco”, “sono insinuazioni”, “il lavoro resta valido”, “i pazienti rischiano di essere danneggiati”. Dal punto di vista legale immediato può sembrare prudente; dal punto di vista della fiducia scientifica è spesso disastroso, perché il pubblico non chiede una confessione penale, chiede una cosa molto più semplice: riconoscere che una regola essenziale è stata violata e spiegare come si intende rimediare.

Poi c’è il problema dello status. Le persone molto prestigiose vivono spesso dentro ambienti che, per anni, hanno rinforzato la loro autorevolezza. Colleghi, istituzioni, fondazioni, media, collaboratori e pazienti possono aver restituito loro un’immagine quasi intoccabile. Quando arriva una critica esterna, soprattutto se pubblica e giornalistica, la reazione istintiva non è: forse devo rivedere la mia condotta. È: chi sono costoro per mettere in discussione ciò che abbiamo fatto? Questo isolamento cognitivo è pericoloso perché riduce la capacità di vedere l’errore come lo vedrebbe un osservatore indipendente.

Il paradosso è che la via d’uscita migliore è quasi sempre evidente dall’esterno. In tutti i casi che ho trattato sarebbe stata, ed è ancora, abbastanza lineare.

Guardiamo al caso Barbacid: si doveva riconoscere che la submission Contributed a PNAS non doveva essere usata in presenza di quei conflitti; dichiarare che la disclosure era incompleta; spiegare perché l’errore è avvenuto; chiarire tutti i conflitti individuali e istituzionali, compresi quelli dei coautori, del CNIO e di CRIS; chiedere spontaneamente a PNAS di riesaminare anche l’altro articolo del 2025; avviare una revisione interna indipendente su figure, dati grezzi, citometrie, comunicazioni pubbliche e fundraising. Una risposta così non distruggerebbe il lavoro scientifico. Al contrario, lo proteggerebbe.

Ma dall’interno della crisi quella via può apparire come resa. Chi è sotto accusa spesso non vede che l’ammissione controllata dell’errore è l’unico modo per riprendere il governo della vicenda. La interpreta come un cedimento al nemico. E allora sceglie la strada opposta: minimizzare, contrattaccare, presentarsi come vittima, denunciare insinuazioni, evocare il danno ai pazienti. È una scelta psicologicamente comprensibile, ma strategicamente pessima, perché aggiunge al problema originario un secondo problema: l’incapacità di correggersi.

In fondo, è una lezione molto dura sulla differenza fra intelligenza da una parte, razionalità e integrità epistemica dall’altra. L’intelligenza permette di produrre buone ipotesi, costruire esperimenti, interpretare dati complessi, guidare gruppi di ricerca. L’integrità epistemica e la razionalità richiedono altro: la capacità di guardare un fatto sfavorevole senza deformarlo, di separare il proprio valore personale dal proprio errore, di non usare il fine nobile come scudo, di capire che la fiducia pubblica non si conserva difendendo la reputazione, ma mostrando che si è disposti a correggersi. In una parola, di individuare il miglior comportamento razionalmente possibile, sia per sanare la propria reputazione che per rimediare al danno fatto, senza lasciare che bias comunissimi nei nostri cervelli offuschino il pensiero critico razionale.

Le persone intelligenti “si scavano la fossa” proprio perché, in quel momento, non stanno usando l’intelligenza per cercare la verità della situazione; la stanno usando per proteggere un’identità minacciata.

Ed è qui che la vicenda di Barbacid diventa esemplare dei moltissimi casi simili che ho incontrato: non mostra che gli scienziati siano meno affidabili degli altri, ma che anche gli scienziati migliori hanno bisogno di regole esterne, disclosure obbligatorie, revisione indipendente e controllo pubblico.

Il metodo scientifico esiste anche per questo: perché nessuna intelligenza individuale, per quanto grande, basta a garantire da sola la lucidità quando sono in gioco prestigio, denaro, speranza dei pazienti e reputazione di una vita.

Enrico Bucci

Data lover, Science passionate, Fraud buster (when lucky...)

Rispondi

Scopri di più da Cattivi Scienziati

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere