Francesca Buffa è full professor di Computer Sciences e Computational Biology presso il dipartimento di Computing Sciences dell’Università Bocconi di Milano e titolare del laboratorio di Intelligenza Artificiale e Biologia dei Sistemi presso IFOM. Dopo una laurea in Fisica Teorica all’università di Torino e un dottorato di ricerca in Biofisica e Matematica applicata all’Institute of Cancer Research di Londra, è stata sedici anni all’università di Oxford dove, nel 2016, ha fondato il Computational Biology and Integrative Genomics Lab. Mentre in Bocconi, oltre l’insegnamento, ha un programma di ricerca sull’applicazione dell’Intelligenza Artificiale nelle Scienze della Vita, in IFOM la sua ricerca riunisce scienze informatiche e omiche per comprendere malattie complesse come il cancro. Per i nostri Dialoghi su Responsabilità e Intelligenza Artificiale, abbiamo parlato dell’impatto dei dati su ricerca e conoscenza scientifica.
- In termini generali, può spiegarci quale apporto dà l’intelligenza artificiale alla ricerca sul cancro?
Il cancro è una malattia complessa, il cui esito clinico è determinato da molti fattori, sia biologici che clinici, demografici e ambientali. Tuttavia, le scienze biomediche moderne sono in grado di produrre dati di alta qualità, che se utilizzati correttamente possono aiutare a decifrare la complessità di questa malattia. In questo contesto, l’intelligenza artificiale offre nuove opportunità. In particolare, l’IA fornisce uno strumento sofisticato che consente analisi avanzate e l’integrazione di dati biomedici, favorendo una diagnosi precoce, cure personalizzate e lo sviluppo di nuovi farmaci.
- Il suo lavoro comprende sia la ricerca e lo sviluppo che l’applicazione…
Si, il nostro è un team multidisciplinare che sviluppa e applica metodi computazionali alle scienze della vita e mediche. In Bocconi svolgiamo ricerca in biologia computazionale, ovvero sviluppiamo metodi computazionali e di intelligenza artificiale in grado di tradurre dati biomedici in conoscenza. In IFOM applichiamo questi metodi a dati sperimentali e clinici per studiare il cancro come sistema complesso, dinamico ed eterogeneo. In sintesi, utilizziamo l’intelligenza artificiale per capire come i network molecolari delle cellule si modificano quando queste ultime diventano tumorali, e come percepiscono e dialogano con il loro microambiente. I dati, omici e fenotipici prodotti dal nostro e altri laboratori, e quelli ottenuti negli studi clinici e collezionati nella biobank di IFOM, servono per risolvere questi network di segnali cellulari dentro l’ecosistema tumore, e arrivare alla creazione di modelli che ci consentano, per esempio, di studiare e capire l’inizio della malattia, la sua evoluzione o la sua risposta a un trattamento farmacologico.
- Lei sostiene che il futuro della ricerca sarà l’integromica. Può spiegarci di cosa si tratta?
Oggi possiamo ottenere dati omici, da genomica, trascrittomica, proteomica, metabolomica e fenotipici, per esempio immagini provenienti da risonanze o pet, in grande quantità. Io credo che sarà dall’integrazione di questi dati, usando metodi computazionali molto avanzati, che arriverà il grande salto di conoscenza. L’integromica è un termine nuovo che si riferisce all’integrazione delle diverse scienze omiche, che oggi ci consentono di osservare la funzione della cellula a più livelli, dal DNA alla produzione di RNA, proteine e metaboliti, e di misurare come una cellula risponde alle perturbazioni dell’ambiente circostante. Questi dati sono molto informativi, ma in pratica difficili da mettere insieme. Attraverso tecniche computazionali molto avanzate, tra le quali anche l’intelligenza artificiale generativa, questi dati potranno invece essere integrati e usati per migliorare la risposta clinica e individuare nuovi trattamenti per quei tumori oggi difficili da curare.
L’integromica è un termine nuovo che si riferisce all’integrazione delle diverse scienze omiche, che oggi ci consentono di osservare la funzione della cellula a più livelli, dal DNA alla produzione di RNA, proteine e metaboliti, e di misurare come una cellula risponde alle perturbazioni dell’ambiente circostante.
- È grazie quindi alla grande quantità di dati a disposizione e alle tecniche computazionali avanzate che si assiste a un’accelerazione della ricerca, e forse anche alla modifica dell’approccio del ricercatore o ricercatrice. È in corso una modifica del modo di produrre sapere scientifico?
Assolutamente sì. Se penso ai miei inizi, oggi non solo i ritmi sono più veloci, ma anche la collaborazione e la condivisione dei risultati è aumentata in modo significativo: nel tempo, perché passano molti meno mesi dal momento della “scoperta” alla pubblicazione, ma anche nella quantità, perché ormai si pubblica con assoluta trasparenza rendendo accessibile ogni dato di sequenziamento o programmazione di codice in grandi portali come quelli dell’EBI (European Bioinformatics Institute) o del National Institutes of Health (USA) per i dati, o la piattaforma GitHub per la pubblicazione dei codici. In caso contrario, del resto, con una ricerca così accelerata, ci sarebbe il rischio di non riuscire a replicare i risultati. Ed è cambiata la mentalità: oggi la scienza procede meno in modo individuale e molto di più attraverso gruppi di studio interdisciplinari.
- Una delle domande ricorrenti in Fondazione Bassetti è “A quale sapere andrà il potere?”…. il che da un lato porta a chiedersi chi detiene la capacità di generare quel salto di sapere, dall’altra quale tipo di formazione, di approccio ai saperi, sono e saranno necessari per “maneggiare” questa conoscenza via via più complessa…
Verrebbe spontaneo indicare un esperto o esperta di scienze computazionali o intelligenza artificiale, e in parte è vero, ma è altrettanto vero che da soli non sapranno applicare questo sapere a tutti i campi della conoscenza. Quindi, più ci si avvicina all’applicazione concreta di questi metodi nel reale, più ci sarà bisogno di un contesto interdisciplinare. Gli stessi risultati a cui assistiamo nella ricerca medica non sarebbero possibili senza gruppi interdisciplinari di ricerca composti da informatici, biologi, fisici, chimici, matematici e medici, e anche esperti di aspetti etici o legali. Dal punto di vista della progettazione dei metodi e delle tecniche computazionali invece, da docente, posso dire che c’è e ci sarà bisogno di una generazione Stem capace di capire in profondità metodologie e applicazioni, e che un certo tipo di competenze informatiche saranno utili anche a chi di solito è distante da queste discipline, e viceversa. In gruppi di lavoro così interdisciplinari è indispensabile una comprensione vicendevole, una comunicazione produttiva, e infatti le facoltà e i corsi di laurea stanno man mano cambiando.
La verità è che siamo in un campo in evoluzione, e se da una parte la standardizzazione è necessaria, quindi qualche freno calcolato ci vuole, dall’altra è importante non inceppare la macchina e non limitare la possibilità di innovare.
- Veniamo alla risorsa della ricerca genetica: i dati. Ci sono diverse biobanche che fungono da database biomedico contenente informazioni genetiche, sullo stile di vita e sulla salute. Un esempio è la UK Biobank che ha campioni biologici di mezzo milione di partecipanti del Regno Unito… Questo pone delle riflessioni sulla tutela della privacy, e anche di sicurezza per evitare che gli stessi non siano usati in altri ambiti… Come questo aspetto impatta sulla ricerca?
Le linee guida etiche ci sono e consentono di trattare i dati in modo lecito differenziandone, per esempio, l’uso primario da quello secondario. Nelle fasi di raccolta i dati, le tecniche di de-identificazione consentono poi di rendere anonimi i dati e procedere nella ricerca. Bisogna anche ammettere che il concetto di privacy non è lo stesso tra Paese e Paese, e non ci si può aspettare una totale uniformità nella normativa. Ma anche a livello tecnico è difficile che i vari “sistemi” si parlino sempre. Mettiamo il caso che un ente o un ospedale possa dotarsi di una macchina molto potente per l’archiviazione e il trattamento dei dati dei pazienti, e lo stesso non possa fare un’altra struttura sanitaria… Ecco che, inevitabilmente, l’interoperabilità viene meno. La verità è che siamo in un campo in evoluzione, e se da una parte la standardizzazione è necessaria, quindi qualche freno calcolato ci vuole, dall’altra è importante non inceppare la macchina e non limitare la possibilità di innovare. Senza considerare che quando appare un “dato nuovo”, pensiamo al Covid, la sua definizione all’interno di uno standard non è possibile immediatamente, richiede tempo. Certo, man mano che ci si avvicina all’applicazione della ricerca, abbiamo bisogno di regole e standard certi, ma la tensione del ricercatore è quella di spostare il confine, di cercare un risultato che ci possa far compiere un passo avanti.
- In Europa sono presenti iniziative come GenoMED4ALL, un hub di dati open source per le malattie ematologiche o SYnTHEMA, la cui missione è quella di creare un hub transfrontaliero per sviluppare e convalidare le tecniche di intelligenza artificiale per l’anonimizzazione e la generazione di dati sintetici nelle malattie ematologiche rare, visto che la scarsità che la frammentazione dei dati disponibili è evidentemente una mancanza per portare avanti la ricerca di base e clinica. In questo senso, L’European Health Data Space (EHDS), che mira anche a dare accesso, in un quadro normativo rigoroso, a grandi quantità di dati sanitari di alta qualità, può essere un’ulteriore spinta alla ricerca?
Sicuramente si, sono progetti importanti, e sin dall’inizio della mia carriera ho lavorato con molti hub simili a quelli citati. Ci sono infatti molti modi di affrontare la questione, e certamente molte iniziative e stimoli nuovi, considerando che, essendo tutto in evoluzione, non si può mai mettere la parola fine o pretendere di trovare una risposta a tutto, per tutti. La regolamentazione e standardizzazione sono necessarie per poter avere accesso a dati sicuri, etici e utili, anche se bisogna stare attenti al rischio della burocratizzazione eccessiva che non aiuta. Alla fine, io sono molto pragmatica e sono convinta che le soluzioni arriveranno dal fare, dal discutere e dal capire insieme le nuove tecnologie e come applicarle al meglio, come è successo nel passato. Senza dimenticare il dialogo con tutti gli addetti ai lavori e il paziente.