Gli esperimenti in laboratorio lasciano il posto alle simulazioni informatiche. Che ormai i ricercatori considerano più sicure.
Di Federico Ferrazza – L’Espresso, 21 Aprile 2005
Benvenuti nell’era dell’e-science, l’era della scienza elettronica. Dove la maggior parte degli esperimenti non si basa più su microscopi, provette o test su cavie di laboratorio. Ma vengono fatti tutti (o quasi) al computer. Si, perché la crescente capacità di calcolo dei computer e la sempre maggiore diffusione di Internet, nonché la creazione di nuovi software ad hoc, hanno consentito agli scienziati di tutte le discipline di creare dei veri laboratori virtuali, dove eseguire esperimenti non più “in vitro” o “in vivo”, ma “in silicio” (il materiale con cui sono fatti i microprocessori dei computer). Con il vantaggio, usando i dati sotto forma di bit, di guadagnare tempo e denaro grazie alle simulazioni che rendono più accurate e ricche di dati le ricerche.
I campi di applicazione dell’informatica alla scienza sono innumerevoli. Per esempio la medicina, e in particolarela farmacologia. Oggi, infatti, molti esperimenti “in vivo”, ovvero sugli animali, vengono rimpiazzati da simulazioni al computer che permettono di realizzare e visualizzare in tre dimensioni le proteine che formeranno futuri medicinali, e quindi di studiare tutte le interazioni che avranno con il nostro corpo, compresi i possibili effetti collaterali.”per un biologo servirsi dell’information technology vuol dire creare dei linguaggi informatici così complessi da consentire previsioni sull’evoluzione di un organismo vivente”, spiega Corrado Priami, professore e direttore del Laboratorio di bioinformatica dell’Università di Trento. Proprio il team di Priami, in collaborazione con i laboratori di Cambridge della Microsoft, ha messo ha punto un modello informatico per studiare la sclerosi multipla. Grazie a questo algoritmo gli studiosi hanno constatato, per esempio, che il reclutamento dei glbuli bianchi mobilitati dal nostro sistema immunitario per difendere i vasi sanguigni infammiati, non è proporzionale alla dimensione dei vasi. “Una scoperta”, dice Priami, “che potrebbe far luce su molti meccanismi alla base di questa malattia neurodegenerativa”.
Un’altra branca della scienza elettronica è l’ecological informatics. Al computer è infatti possibile creare dei modelli che predicano, grazie a informazioni sul clima (temperatura, precipitazioni e così via), sull’ambiente e sulla presenza umana, le migrazioni degli animali e la densità delle specie che popolano una determinata zona del mondo. Sempre a livello predittivo, poi, si possono applicare le scienze computazionali anche alla diffusione di grandi epidemie, al settore agroalimentare, per monitorare la produzione di cibi, o all’economia, realizzando software per calcolare l’evoluzione dei mercati e dei processi produttivi.
Far convergere i dati provenienti da diversi campi scientifici su un computer offre anche l’opportunità di fare passi in avanti in quelle discipline che sono al confine tra due settori. “se vogliamo rimanere competitivi con i risultati della ricerca scientifica che oggi si ottengono negli Stati Uniti e nel Far East Asiatico, l’Europa deve puntare sulla convergenza di più scienze”, spiega a “L”Espresso” Umberto Paolucci, vicepresidente Corporate di Microsoft. “ E il dialogo tra le varie discipline deve essere assicurato dalle scienze computazionali che hanno la capacità attraverso software dedicati, di far parlare la medicina e la biologia, la chimica e l’astronomia, la fisica e l’ingegneria. Prendiamo, per esempio, il caso della Sars (l’epidemia influenzale che ha colpito una paio di anni fa l’Asia orientale, ndr.). Certo, ha fatto molte vittime, ma sarebbero state molte di più se non ci fosse stata Internet, che ha consentito agli scienziati di tutto il mondo di collaborare in tempo reale prima all’identificazione del virus e quindi alla ricerca di una terapia d’emergenza.
E se si pensa che Internet è solamente uno strumento grezzo che permette attraverso una semplice email di comunicare o con un sito Web di consultare dei dati, molto ancora si può (e si deve fare), magari realizzando specifiche piattaforme per lo scambio di informazioni”.
Sono tre le cose importanti della scienza in bit, fatta al computer”, spiega Wanda Andreoni, manager computational biochemistry and material Science presso i laboratori di ricerca dell’Ibm di Zurigo: “La prima è l’acquisizione di dati con notevole facilità, integrandoli tra loro, la seconda è la simulazione e quindi la predizione di alcuni fenomeni (biologici, chimici, per esempio) e infine la possibilità di visualizzare sul monitor di un computer tutti gli esperimenti, rendendo la consultazione dei dati e degli più esperimenti più semplice.
Insomma, grazie all’informatica si riescono a fare delle cose che con la tradizionale scienza empirica non sarebbero possibili “.
Per spiegarsi Andreoni porta l’esempio di Lofar, Low Frequency Array: un progetto (operativo dal 2006) messo a punto dall’organizzazione astronomica olandese Astron, in collaborazione con la stessa Ibm, in grado di analizzare, grazie alle informazioni catturate da una rete di telescopi software, l’universo come era 13 miliardi di anni fa. Tutto il sistema (composto da più di 12 mila microprocessori) sarà capace di ricevere 320 Gigabit di dati ogni secondo e al tempo stesso di eseguire 10 trilioni di operazioni aritmetiche.
È quindi proprio l’alto numero di informazioni che impongono le attuali ricerche scientifiche a obbligare i ricercatori a far uso del computer. Secondo Bob Hertzberger, docente all’Università di Amsterdam, un centro medico che esegue risonanze magnetiche registra ogni giorno circa un Gigabit di dati, un database di bioinformatica necessita almeno di 500 Gigabit e un archivio di immagini satellitari riceve almeno 5 Terabit (5000miliardi di bit) di informazioni ogni anno. “Come sarebbe gestibile tutta questa mole di dati se non ci fosse il computer?”, si chiede Hertzberger: “non sarebbe concepibile archiviare tutto su carta: diventerebbe difficilissimo fare delle sperimentazioni e soprattutto confrontare i dati”. La mole di dati naturalmente è destinata a crescere, in una spirale virtuosa in cui nuovi computer consentiranno nuove ricerche che esigeranno nuovi computer, e cosi via.
In futuro l’e-science potrebbe sfruttare il potenziale di calcolo nascosto dentro le cellule umane per eseguire le operazioni necessarie a mettere a punto terapie adeguate anche per le malattie più difficili da curare. Anche la cellula, infatti, è un processore in grado di eseguire algoritmi: la sua potenza di calcolo è di un Mips (milioni di istruzioni per secondo). E il nostro organismo può essere visto come un mega computer vivente capace di essere “riprogrammato” quando c’è qualcosa che non va. Per questo la simulazione dei meccanismi biologici con computer sempre più potenti (e quindi più simili al corpo umano) apre scenari potenzialmente sterminati.
venerdì 20 luglio 2007
Iscriviti a:
Commenti sul post (Atom)
Nessun commento:
Posta un commento