Alberto Oliverio

Dove ci porta la scienza. Laterza, Roma e Bari, 2003.

I punti principali del saggio

 

La Big science

Per un paio di secoli a partire dall’Illuminismo, la natura, i fini e gli ideali della scienza e della tecnologia non sono drasticamente mutati: la fiducia in un modello di crescita continua ha fatto sì che l’impresa scientifica fosse una delle istituzioni portanti di una società certa del progresso, anche se attraversata da ricorrenti movimenti di critica. Le istituzioni scientifiche sono perciò cresciute con un ritmo quasi geometrico e le grandi imprese della scienza, soprattutto quelle relative alla fisica delle particelle e all’esplorazione spaziale, sono state vere e proprie cattedrali al centro di un ricco immaginario che ha investito il cinema, la letteratura e gli stessi fumetti. Con la fine della guerra fredda, scienza e tecnologie hanno però perduto parte del loro ruolo, quello di costituire una specie di vetrina dell’Occidente e di assicurare una superiorità in diversi settori chiave, tra cui, ovviamente, quello militare. A partire dalla fine degli anni Ottanta, con la caduta del muro di Berlino, la grande impresa scientifica pubblica, la cosiddetta «Big Science», è entrata in crisi; la fisica ha ceduto il passo alla biologia; il pubblico al privato. Con la crisi dell’impresa scientifica si è anche verificato un ridimensionamento dell’immagine della scienza, il che è avvenuto, paradossalmente, proprio nel momento in cui le scienze della vita hanno raggiunto i maggiori successi.

 

Nuova genetica

Le scienze della vita si presentano quindi al giorno d’oggi con un volto duplice: da un lato quello positivo, comune ad altre scienze dotate di connotazioni sia conoscitive che applicative, volte a fare luce e a razionalizzare la realtà, ma anche a ridare la salute, a migliorare la vita, ad abbracciare quasi il mito di Faust, attraverso la clonazione; dall’altro quello negativo o inquietante, sia in termini etici che in quelli più materiali di una possibile carica distruttiva nei confronti della natura e della stessa essenza umana.

I progressi nella genetica hanno aperto la strada a una serie di problemi che non riguardano soltanto le loro ricadute applicative – vale a dire correggere eventuali difetti o migliorare le difese dell’organismo –, ma anche gli aspetti conoscitivi, legati, ad esempio, alla possibilità di riconoscere gli individui più fragili o di poter predire con certezza che una persona si ammalerà di una determinata malattia quando essa è ancora in perfetta salute. Queste due possibilità suscitano problemi di ordine etico: nel primo caso c’è il rischio che una persona possa essere discriminata – sul lavoro, da società assicuratrici, ecc. – sulla base di una maggior possibilità, ma non certezza, che egli un giorno si ammali. Nel secondo caso esiste il problema che deriva da una scissione tra la nostra capacità di diagnosticare una malattia e la nostra attuale incapacità di curarla, il che può avere gravi conseguenze psicologiche sulla persona al centro di questo dilemma.

Esistono però problemi d’altro genere, ad esempio quelli che riguardano l’estensione della correzione genetica a forme patologiche di media gravità o addirittura a variazioni di tipo fisiologico. Quest’ultima eventualità ci pone di fronte al secondo aspetto critico delle ricerche nel campo della biologia molecolare, quello connesso ai criteri di normalità e devianza, di fisiologia e patologia e quindi all’incerto limite tra interventi a carattere terapeutico e interventi a carattere migliorativo.

 

Il numero di nati grazie alla fecondazione assistita è in continuo aumento e si calcola che oggi essi si aggirino intorno ai 250.000 all’anno.

 

 

Cellule staminali

Al momento nella Comunità Europea sono in corso diversi tipi di ricerca: a fianco del già citato progetto Eurocord (basato sulla formazione di una banca di cellule staminali estratte da cordoni ombelicali) si possono annoverare il progetto Enfet (centrato sul trapianto di cellule staminali in feti in cui sia diagnosticata precocemente una malattia genetica), il progetto Dance (che punta a una banca di cellule staminali dopaminergiche utili nella terapia del morbo di Parkinson) o il progetto Ectins, fondato sullo sviluppo di linee di cellule staminali a rapida crescita, producibili a livello industriale. Tutti questi progetti si basano su approcci diversi: dall’uso di cellule staminali estratte da organismi maturi (ma come si è detto caratterizzate da una minore capacità riparativa) a quello di cellule estratte da feti abortiti all’uso di cellule di origine embrionale (derivanti da embrioni soprannumerari o prodotti attraverso la clonazione terapeutica).

 

Authority ?

Un altro elemento che rende più complessa la strada normativa è la difficoltà di interpretare con le stesse norme le situazioni singole: la via di un’authority, dotata di poteri decisionali e in grado di esaminare celermente caso per caso appare probabilmente la strategia migliore, in linea con il parere di numerosi giuristi che paventano norme «pesanti» in un campo in cui sono in gioco valutazioni individuali, dinamiche emotive e desideri difficilmente comprimibili nell’ambito di rigide norme. Gli esempi più indicativi in quest’ambito sono quelli relativi al desiderio di generare un figlio sano, privo di una malattia genetica a carattere familiare, o di poter salvare la vita di un bambino attraverso un trapianto di cellule staminali ombelicali o di cellule staminali estratte dal sangue di un fratello sano. È evidente che la nascita di un bambino che venga alla luce per curare un fratello malato risponde a una logica strumentale, ma essa risponde anche alla logica dell’amore dei genitori nei confronti dei figli ed è spesso ben difficile, dall’esterno, formulare un giudizio drastico.

 

Riduzionismo e immagini dell’uomo.

France Quéré (2001), esperta dei rapporti tra neuroscienze ed etica, ci ricorda come, nei tempi, i filosofi abbiano individuato un unico principio all’origine delle immense capacità e potenzialità umane, definendo l’uomo come l’essere che conosce se stesso, secondo Socrate, l’essere che sfida gli dèi, secondo Eschilo, l’essere che parla degli dei, secondo Platone, l’essere che parla a Dio, secondo Agostino, la coscienza che riflette su se stessa, secondo Cartesio o che ha la facoltà di non coincidere con se stesso, secondo Merleau-Ponty. Lo stesso linguaggio comune attesta questa facoltà di sdoppiamento tra il soggetto e l’oggetto o, in termini di filosofia della mente, tra le funzioni cerebrali e la coscienza riflessa, quando distingue tra l’io e il me, l’io istanza del giudizio e il me teatro degli avvenimenti psichici: un io che può guardare se stesso, interrogarsi su se stesso, modificare se stesso.

Una delle tante definizioni della coscienza potrebbe risiedere in questa capacità di dissociazione, in una struttura dialogizzante in cui si svolge una conversazione interna tra sé e sé: ciò è possibile proprio in quanto il cervello umano non risponde a un rigido determinismo, non è programmato per ogni sua funzione, non è istruito dai geni in ogni suo dettaglio. È questa struttura non deterministica ad essere alla base delle nostra libertà che non è necessariamente sinonimo di moralità. La libertà è infatti il potere di poter fare qualcosa di sé, di trascendere quel rigido programma che in numerose specie animali si traduce negli istinti; la moralità è invece legata alla possibilità di scegliere tra queste possibilità, di giudicare ciò che è preferibile. In altri termini, stiamo parlando della capacità di giudicare e di giudicarsi, di essere al tempo stesso il soggetto e l’oggetto.

 

 

Nell’antichità, ad esempio nell’antica Grecia descritta da Omero, le azioni umane venivano attribuite al volere degli dei o alla magia, anche se ciò non implicava che il singolo individuo non venisse ritenuto responsabile delle azioni commesse. Il Fato, tuttavia, era una forza superiore a quella della volontà umana. Oggi sottolineiamo invece una fondamentale dimensione dell’agire umano, il libero arbitrio: riteniamo che ognuno di noi sia all’origine delle proprie azioni, responsabile di ciò che fa, benché psicologia, antropologia e sociologia ci cautelino, sottolineando che le nostre azioni sono anche il frutto di condizionamenti, culture, tradizioni. Anche il biologo potrebbe dirci che il nostro cervello, pur avendo un enorme potenziale, ha i suoi limiti: che vede ciò che i sensi gli lasciano vedere, che le sue emozioni sono condizionate dalla loro essenza biologica, che il suo pensiero dipende da regole e va incontro a frequenti trappole logiche. Ma lo studioso del cervello può anche dirci che il nostro cervello ha un’enorme plasticità, una grande capacità di rispondere alle sollecitazioni dell’ambiente, persino dal punto di vista strutturale: accanto ai limiti del cervello, le neuroscienze ne individuano quindi anche i gradi di libertà.

 

Plasticità

A livello cerebrale tutto è quindi soggetto ad essere rimaneggiato, plasmato, modificato nel tempo, a differenza di quanto avviene nelle macchine. Se il cervello è una «macchina» si tratta di una macchina ben particolare ed è perciò falsificante affermare che una funzione è localizzata in una particolare struttura, che dipenda esclusivamente da quell’area della corteccia o da quel nucleo sottocorticale. Oggi sta lentamente tramontando una concezione dei rapporti tra mente e cervello basata sulla coincidenza di una funzione mentale con micro-organi specializzati: i processi mentali vengono invece considerati come complesse attività di analisi dell’informazione, in grado di riflettere la realtà. Nell’ambito dell’attività mentale le singole informazioni vengono collegate tra di loro e combinate per costruire dei progetti o programmi comportamentali che aderiscono a degli scopi: ogni funzione del cervello umano, dalla percezione alle stesse emozioni, rappresenta una sorta di attività funzionale che riflette il mondo esterno attraverso una continua analisi e un continuo riaggiornamento dell’informazione e che contribuisce a elaborare progetti e programmi.

 

Una o più medicine ?

La stessa cultura della postmodernità, priva di unitarietà, favorisce la compresenza nella stessa società di fautori della medicina tradizionale e di seguaci delle medicine alternative, il ricorso a strutture sanitarie di elevata specializzazione o a maghi e guaritori d’ogni tipo. In alcuni casi, le stesse persone fanno ricorso a terapie tradizionali, soprattutto se veramente malate, e a terapie alternative, quando si tratti di fronteggiare acciacchi o malesseri minori. Non è motivo di stupore dunque che da un lato si rafforzi quello spirito di onnipotenza e di fiduciosa aspettativa che deriva dallo sviluppo di potenti tecnologie e che dall’altro la violazione della «sacralità della natura» susciti perplessità e opposizioni. In realtà anche nel passato gli uomini interferivano con le cosiddette «leggi della natura» e si opponevano ai loro aspetti negativi: d’altronde, se essi avessero ritenuto che la nascita e la vecchiaia dovessero avere un loro corso naturale o che le malattie dovessero avere un decorso immodificabile la specie umana si sarebbe probabilmente estinta. Per tale motivo soccorrere, curare, modificare, migliorare, intervenire, sono stati al centro dell’usuale rapporto terapeutico: ma esistono dei limiti a questi interventi? Se, ad esempio, è lecito ed auspicabile curare e migliorare, è altrettanto lecito innovare e stravolgere?

 

La scienza, insomma, ci si presenta oggi in una dimensione diversa rispetto al passato, né potrebbe essere altrimenti. Essa rispecchia infatti alcuni principi antichi quanto gli esseri umani: la curiosità, la sfida dell’ignoto, il desiderio di controllo, ma anche i diversi valori di una società disomogenea, dal punto di vista della cultura, dell’etica, delle scelte politiche, una società multietnica, che deve sempre più fare i conti con credenze e valori disomogenei. Anche nel passato, come vedremo, l’immagine collettiva della scienza non era omogenea come si potrebbe ritenere. La propensione o l’avversità nei confronti della scienza e delle tecnologie hanno conosciuto fasi alterne. Oggi, tuttavia, la straordinaria capacità della scienza di analizzare e incidere sulla natura ha creato una nuova situazione, sia per quanto riguarda l’universalità dell’ottica scientifica – la sua superiorità nell’interpretare la realtà e nel dare spiegazioni ultime – sia per quanto riguarda l’opportunità di alcune sue applicazioni, sia infine per quanto riguarda la sua autonomia e le sue priorità.

 

I dubbi nella scienza?

Per quali motivi si contesta spesso alla scienza e alle tecnologie di non avere un carattere universale, condivisibile tra le varie culture, e di essere improntate a un’ottica riduzionistica e parcellare, inadeguata a fronteggiare fenomeni complessi come, ad esempio, quelli climatici o quelli legati allo sviluppo di risorse alimentari? Perché, da un lato, si guarda all’ingegneria genetica come alla medicina del futuro e dall’altro se ne temono gli effetti sulla natura umana? Ma soprattutto, per quali motivi si dubita della natura universale della scienza, in grado di fornire «la» spiegazione ultima della realtà e di risolvere i problemi attraverso opportune tecnologie, come sostiene un fronte variegato, costituito dai movimenti fondamentalisti, dai critici della globalizzazione o da quanti, in altre culture o paesi del mondo, ritengono che scienza e tecnologia coincidano con gli interessi dell’Occidente? E infine, da cosa nasce la richiesta di uno sviluppo sostenibile e di una scienza solidale, al di là di lodabili ma superficiali utopie?

La scienza, come spesso si dice, è una delle istituzioni sociali e, come tale, al di là di alcuni principi ben saldi, rispecchia i cambiamenti del clima sociale in cui essa opera: per rispondere quindi agli interrogativi che ci siamo posti è necessario considerare le trasformazioni politico-sociali con cui ha dovuto confrontarsi l’istituzione scientifica, in particolare quelle che si sono verificate negli ultimi decenni negli USA – il massimo apparato mondiale di produzione scientifico-tecnologica –, in cui, a partire dagli anni Ottanta, il sistema scientifico-tecnologico pubblico ha subito un notevole ridimensionamento, sia dal punto di vista degli investimenti, sia da quello della sua logica e del suo significato.

 

La guerra fredda e la «Big Science»

Negli USA, negli anni che hanno fatto seguito alla seconda guerra mondiale, la scienza rappresentava l’incarnazione dei valori democratici su cui si fondava lo spirito americano e di quelli della razionalità. Pertanto, nella società statunitense, i valori della scienza – il fatto che fosse obbiettiva, disinteressata, orientata vero i fatti concreti – vennero considerati come un modello culturale generale. Nel pensiero di gran parte degli accademici americani, in primo luogo Robert Merton, la scienza veniva assimilata alle fondamenta dei valori dello spirito, dell’umanesimo democratico, al punto che in un documento elaborato all’Università di Harvard, che costituì una sorta di pietra miliare dell’educazione universitaria negli anni a seguire, si sottolineava come la democrazia americana avesse bisogno di cittadini dotati della capacità di formulare giudizi obbiettivi e disinteressati, basati su evidenze rigorose (Hollinger 1995). Gli anni della contestazione studentesca, in gran parte innescata dalla guerra nel Vietnam e dal potente apparato tecnologico militare messo in campo dagli USA, incrinarono la fiducia nel razionalismo e nella scienza come istituzione democratica: a partire dagli anni Sessanta, i movimenti della controcultura, ispirati al pensiero di Theodor Roszak, Herbert Marcuse ed altri, manifestarono una profonda avversione nei confronti della «tecnocultura», degli esperti scientifici, e dell’obbiettività della scienza (Roszak 1969).

 

La scienza sta diventando quindi sempre più competitiva e si sta trasformando in una forza produttiva che mira a risolvere i problemi del mondo reale attraverso gli investimenti di gruppi privati che individuano in alcune tecnologie della biologia molecolare, dei trapianti d’organo o della biologia della riproduzione un settore in rapido sviluppo. Il settore biotecnologico è perciò diventato uno di quelli di punta nella borsa valori di New York, di Londra e Francoforte, il che sancisce lo stretto intreccio che si è venuto a creare tra scienza e tecnologia e il predominio della ricerca applicata o «applicabile» su quella pura. Anche questa metamorfosi, però, non è un fatto del tutto nuovo, ma fa parte di quei pendolarismi che caratterizzano il rapporto tra scienza pura e scienza applicata, tra scienza e tecnologia (Castronovo 2000): un simile fenomeno, ad esempio, si era già verificato nell’Inghilterra della prima rivoluzione industriale, quando la scienza aveva ceduto buona parte del suo ruolo alla tecnologia.

 

Science wars

Intorno alla metà degli anni Settanta nell’ambito della sociologia e della storia della scienza ha cominciato a farsi strada il concetto secondo cui la scienza doveva essere considerata una «costruzione sociale», alla stregua di altri sistemi e forme di conoscenza. In questo nuovo approccio «costruttivista» della sociologia della conoscenza scientifica si postulava che dal punto di vista epistemologico la verità scientifica non fosse da preferirsi ad altre forme di verità: la scienza non sarebbe che uno dei tanti sistemi di credenza ed opinione, tutti spiegabili alla luce di interpretazioni sociali (Bruno Latour). A queste teorie hanno fatto seguito una serie di ricerche empiriche, i cui risultati avrebbero dimostrato che gli scienziati non seguono nella loro prassi quelle «norme della scienza» che erano al centro delle classiche concezioni della sociologia della scienza propugnata Robert Merton (1942).

 

Le «Science Wars», la battaglia sul significato della scienza, ha avuto grande rilievo non soltanto sulla carta stampata – una serie di articoli fu pubblicata sul «New York Times» a seguito di uno di Scott (1996) – ma anche su reti televisive come la CNN. Il momento culminante di questa guerra ha però avuto al suo centro la beffa perpetrata da un fisico della New York University, Alan Sokal, che inviò a una rivista di scienze sociali un articolo sulla complessità, improntato a un postmodernismo alla moda condito con teorie della fisica. L’articolo, totalmente insensato dal punto di vista scientifico, venne pubblicato dalla rivista dimostrando, come sostenne Sokal, che la scienza la devono fare gli scienziati e che le critiche delle scienze sociali, in particolare dei fautori della cosiddetta «costruzione sociale» della scienza, non avevano basi serie e credibili (Sokal 1996). Per aggiungere benzina sul fuoco, Sokal pubblicò un saggio insieme a Jean Bricmont intitolato Intellectual impostures, in cui venivano svillaneggiati diversi sociologi e intellettuali alla moda (soprattutto francesi), indicando i bizantinismi e i nonsense di molti passi dei loro saggi. Intellectual impostures, un bestseller in Francia e in Inghilterra, ha quindi rappresentato l’apice di un contrasto tra un gruppo di «razionalisti» da un lato e una parte degli scienziati sociali, critici nei confronti della scienza o del razionalismo scientifico, dall’altro (Segerstråle 2000).

 

Struttura dell’impresa scientifica moderna

Esiste, ad esempio, una diversità tra i paesi della cosiddetta «Triade» (Unione Europea, Stati Uniti d’America e Giappone) e gli altri paesi: basterà pensare che nel mondo vengono spesi ogni anno per la ricerca scientifica circa 350 miliardi di euro e che più dell’80% di questa spesa riguarda appunto la Triade. D’altronde anche il 90% delle pubblicazioni scientifiche appartengono a questi paesi, il che indica ulteriormente il divario che esiste oggi dal punto di vista degli investimenti in ricerca e sviluppo. Le differenze, tuttavia, sono ben evidenti anche all’interno dei paesi più sviluppati: nel 2000 gli USA hanno speso per la ricerca 125 miliardi di euro, circa 480 euro per abitante, pari al 2,7% del PIL; nello stesso anno l’Unione Europea ha speso 115 miliardi di euro, una cifra simile a quella americana ma decisamente inferiore in termini di spesa per abitante (315 euro) e di PIL (2%); il Giappone, infine, ha speso 80 miliardi di euro, circa 635 euro per abitante, il 2,8% del PIL. I dati sono analoghi se si considera la massa dei ricercatori e degli ingegneri: 900.000 negli USA, pari a 7,6 scienziati per mille, 670.000 nell’Unione Europea, 4,3 per mille, e 490.000 in Giappone, pari al 7,5 per mille. Un’ulteriore differenza riguarda il ruolo degli investimenti pubblici e privati: nell’Unione Europea e negli USA i finanziamenti per la ricerca dipendono per circa il 43% da fonti pubbliche e per il 57% dall’industria e dai privati; in Giappone invece la situazione è rovesciata, con le imprese che finanziano quasi il 77,4% della ricerca e i pubblici poteri che ne finanziano il 22,6%.

 

Corsi e ricorsi del concetto di crisi

Nelle prime fasi della rivoluzione industriale, le innovazioni che stavano trasformando il paesaggio, ormai punteggiato di fabbriche dove si lavorava anche di notte, alla luce artificiale, la presenza di macchine rumorose come i primi treni o dei primi mulini a vapore, suscitarono reazioni di segno contrario: da un lato vi erano gli entusiasti del progresso che scorgevano nelle nuove tecnologie una diversa dimensione della vita, dall’altro i critici, che guardavano con rammarico al paradiso perduto, la pace bucolica dei campi, e consideravano con allarme come il tempo avesse una nuova dimensione, scandita dalla rapidità dei viaggi in treno o dai ritmi del lavoro, non più legati alla presenza della luce solare. A quei tempi, i giornali riportavano i pareri opposti di letterati, filosofi e uomini comuni, divisi tra la fede nel progresso e la crisi che esso avrebbe invece indotto.

 

Gli storici delle idee, che hanno analizzato le radici della cosiddetta «ideologia della crisi» manifestatasi all’inizio del Novecento, hanno notato come questa non fosse soltanto legata a dubbi o avversioni nei confronti degli strascichi del positivismo e dell’affermarsi di nuove e sensazionali tecnologie – dal grammofono all’aeroplano, dal telefono al cinema, dall’automobile alla radio – ma rispecchiasse la crisi dell’Europa a seguito del tracollo di quell’impero austro-ungarico che, per molti, era apparso come una roccaforte della continuità storica

 

Limiti di un controllo “scientista” e democrazia

Al giorno d’oggi, però, la paura del nuovo o i timori per l’imbarbarimento dei costumi rappresentano un aspetto meno rilevante rispetto al passato. Le critiche sono invece rivolte nei confronti dei modelli di sviluppo, delle conseguenze di tecnologie potenzialmente più dissestanti, dello stesso concetto di «controllo», di una concezione scientista che può riflettersi sui valori alla base di una democrazia. La democrazia è l’antitesi dell’autoritarismo e si basa sulla continua competizione tra idee, concezioni del mondo, principi morali e una società ideale dovrebbe basarsi sui principi di libertà, giustizia, eguaglianza, tolleranza, condivisione, saggezza, compassione. Tuttavia nessuno ritiene che i rapporti e il giusto equilibrio tra questi principi possano essere fondati su una specie di equazione matematica, su «leggi» che ne cristallizzino le proporzioni ideali: le società che hanno ritenuto di fondarsi su un equilibrio perfetto e statico si sono poi rivelate oppressive e illiberali, basate su una fede anziché sul dubbio e sulla discussione. I conflitti che si verificano tra idee diverse, tra maggioranze e minoranze, tra il senso di giustizia e il senso di pietà, tra quello di libertà e quello di restrizione, sono infatti alla base di una società «aperta» e non «chiusa».

Popper e altri scienziati sociali hanno sottolineato come i valori democratici dipendano appunto dall’apertura della società nei confronti di idee diverse e come sia impossibile ipotizzare una «chiusura» definitiva che cristallizzi le regole sociali, poiché, come nota Selznick (1992), i valori riflettono condizioni esistenziali che saranno sempre soggette a cambiamenti e modifiche; l’indeterminatezza rispecchia un aspetto inevitabile ed essenziale di ogni democrazia. Scienza e tecnologia, all’origine del benessere materiale e delle infrastrutture da cui oggi dipende la democrazia, non soltanto continuano a trasformare profondamente la società in cui viviamo, ma sono anche uno strumento che viene utilizzato per «fluidificare» e migliorare il processo democratico, in quanto se ne assume l’imparzialità e si ritiene che dalla loro logica e razionalità possano derivare certezze.

 

 

I limiti del controllo

I critici del cosiddetto «programma illuministico» sottolineano oggi un aspetto che è stato sottovalutato in una concezione eccessivamente riduzionistica e meccanicistica della scienza e che invece è stato rivalutato dalle teorie della complessità, dei sistemi e del rischio: vale a dire che l’ottica con cui bisogna considerare i sistemi complessi non coincide con la somma delle loro parti e che man mano che aumenta il livello di controllo esercitato da scienza e tecnologia aumenta anche il livello di incertezza e di rischio potenziale. Al centro di questa posizione è il concetto che la nostra conoscenza di un sistema naturale è imperfetta e che i sistemi complessi – come l’ecosistema terrestre, il genoma umano o il cervello – non sono né completamente conoscibili né prevedibili con i tradizionali strumenti di analisi in quanto sono caratterizzati da proprietà emergenti (Kauffman 1993). Da ciò deriva la necessità di considerare i sistemi complessi in modo olistico, anziché scomporli nei loro singoli componenti ritenendo di poter influire separatamente su ciascuno di loro e di modificare di continuo le nostre conoscenze mettendo in atto adattamenti flessibili e plastici anziché rigidi, quali sono spesso quelli che caratterizzano la scienza «tradizionale» (Holling 1995).

 

La sfida della complessità è dunque un aspetto con cui la scienza deve confrontarsi e su cui hanno giustamente richiamato l’attenzione, anche se in modo non sempre condivisibile, i movimenti di contestazione nei riguardi della scienza. Spesso, alcuni di questi movimenti hanno sostituito un mito con un altro, ad esempio quello del controllo totale sulla natura con quello della saggezza della natura stessa, ma ciò è anche un indizio della molteplicità degli orientamenti e delle chiavi di lettura, dei timori nei confronti di una scienza «assolutista». Ma al di là del problema della difficoltà di confrontarsi con sfide complesse e globali, la scienza moderna si trova di fronte a prove e contraddizioni nuove rispetto al passato, quando il sapere scientifico e le applicazioni tecnologiche erano circoscritte a tematiche ed aree più limitate

 

Nord e sud del Mondo

Verso un diverso modo di fare scienza?

Adattare le tecnologie a sistemi diversi, utilizzare tecnologie compatibili con una determinata cultura oppure introdurre tecnologie sostenibili rappresenta una strategia intelligente e possibile: le tecnologie sono sempre state plastiche e sono state soggette a modifiche nel corso della storia o a seconda degli ambienti in cui sono state utilizzate. Ma se le tecnologie si trasformano è possibile che si trasformi anche la scienza? Che tipo di scienza propongono i sociologi o i filosofi che hanno criticato l’impianto della scienza «illuministica»?

Le critiche rivolte alla scienza come istituzione non implicano che nel campo della ricerca scientifica esistano metodi diversi. Il metodo, piaccia o non piaccia, ha dato ottime prove di sé e i successi raggiunti nei diversi settori lo stanno a dimostrare. Ciò su cui invece si discute criticamente sono alcuni aspetti della scienza e della tecnologia, come la fiducia quasi religiosa nella possibilità della scienza di trasformare la realtà per il meglio attraverso una continua evoluzione verso il benessere; l’universalità delle spiegazioni scientifiche; lo scollamento tra una scienza praticabile nei paesi ricchi e i problemi dei paesi poveri in cui è necessaria una scienza sostenibile; la penetrazione di alcune tecnologie che possono escludere alternative più convenienti e meno aggressive nei confronti dell’ambiente.

 

Il ruolo delle persone coinvolte : AIDS, Telethon

Nel 1990, in un articolo pubblicato su una rivista medica di indubbio prestigio, il «New England Journal of Medicine», un ricercatore nel settore dell’AIDS indicò che l’unione tra i pazienti, i loro sostenitori e i ricercatori in campo clinico rappresentava un approccio metodologico nuovo e promettente (Merigan 1990). Nell’articolo si sosteneva, ad esempio, che in ogni forma di sperimentazione clinica era necessario offrire lo stesso vantaggio potenziale ai pazienti – non si poteva cioè discriminare i malati in termini di farmaci più o meno attivi –, che nelle prove cliniche su un nuovo farmaco bisognava trattare le infezioni opportunistiche – e non lasciare che queste si manifestassero per studiare soltanto il meccanismo «centrale» del farmaco in via di sperimentazione –, che una sperimentazione non dovesse essere portata avanti sino in fondo solo sulla base di protocolli sperimentali teorici, ma che dovesse essere interrotta qualora si fosse dimostrata poco o per nulla efficace, e infine che i protocolli sperimentali dovessero tener conto del parere e dei consigli degli ammalati.

 

Un caso indicativo di questa trasformazione riguarda il cosiddetto «Jerry Lewis Telethon» (negli USA Telethon è quasi sinonimo del nome dell’attore che ha sponsorizzato la campagna): la campagna annuale di Telethon è stata contestata da un certo numero di attivisti che l’hanno definita «un vergognoso rito annuale» chiedendo che dalla pietà nei confronti delle vittime delle malattie degenerative si passasse a un maggior potere degli interessati.

 

OGM.

Per avere un’idea della situazione nel campo delle risorse alimentari è sufficiente notare che l’85% del commercio dei cereali dipende da sei grandi multinazionali e che attraverso silos, treni, navi e container la Cargill controlla l’80% della distribuzione mondiale di cereali, oltre ad essere al primo posto in quanto a commercio di olio di semi, produzione e commercio di fertilizzanti polifosfati, caffè, cacao, zucchero e pollame. Il fatturato di questa multinazionale nel 2000 è stato di 48 milioni di dollari, pari all’insieme dei PIL dei 28 paesi più poveri del mondo. Infine tre multinazionali del settore agricolo (Syngenta, DuPont e Monsanto) controllano quasi i due terzi del mercato dei pesticidi, un quarto del mercato totale delle semenze e pressoché il 100% del mercato di sementi geneticamente modificati o OGM. Questo regime di monopolio altera il dibattito sugli OGM spostandolo dal piano tecnico-scientifico a quello economico-politico. Non è infatti facile discutere sui vantaggi o gli svantaggi delle sementi ingegnerizzate quando non esistono le premesse per una discussione svincolata dal peso delle multinazionali in un settore chiave qual è quello del cibo.

 

Basti pensare che dal 1950 alla metà degli anni Ottanta la produzione di grano è aumentata di più del 250%, grazie a migliori varietà, all’irrigazione, ai concimi e ai pesticidi. Per avere un’idea della trasformazione dell’agricoltura basti pensare che da 2 milioni di tonnellate di fertilizzanti sintetici impiegati nel 1940 si è passati agli attuali 80 milioni di tonnellate. Nello stesso periodo, però, la popolazione mondiale è quasi raddoppiata e si accresce ogni anno al ritmo di 90 milioni di persone. Come far fronte alle crescenti necessità alimentari? Secondo buona parte dei tecnici una delle risposte possibili viene dagli OGM, organismi vegetali e animali in cui sono stati introdotti uno o più geni provenienti da un’altra specie (organismi transgenici) o in cui, più semplicemente, sono stati potenziati gli effetti di geni già presenti nel loro corredo ereditario.

 

La ricerca biotecnologica nei paesi in via di sviluppo è d’altronde più avanzata di quanto non si ritenga: in Brasile – che è il primo esportatore di succo d’arancia verso il resto del mondo – sono in corso ricerche per modificare geneticamente le arance e renderle resistenti a un parassita, la Xilella fastidiosa, che oggi riduce drasticamente la resa dei raccolti e obbliga gli agricoltori ad usare massicce quantità di pesticidi cancerogeni. In Kenya esistono patate e banani geneticamente modificati che assicurano una resa qualitativamente e quantitativamente superiore a quella delle piante naturali. In Messico, dove il suolo è ricco d’alluminio e molte piante commestibili crescono male, i vegetali sono stati geneticamente modificati incorporando geni di batteri che fanno produrre alle radici acido citrico, in grado di bloccare il legame con l’alluminio e facilitare la crescita delle piante. In Europa le ricerche sul «Golden Rice», un riso geneticamente modificato e arricchito di vitamina A, hanno portato al coinvolgimento dell’IRRI (International Rice Research Institute, l’Istituto internazionale di ricerca sul riso, situato a Manila), che sta sperimentando questo tipo di riso nelle risaie locali. Nei paesi in cui il riso è l’alimento prevalente, si verificano infatti gravi forme di mancanza di vitamina A, responsabili, secondo un rapporto dello stesso IRRI, di oltre 500.000 casi di cecità all’anno e di 1-2 milioni di morti in tutto il mondo. Il «Golden Rice» dovrebbe supplire almeno in parte a questa carenza vitaminica, anche se il suo consumo non copre totalmente il fabbisogno giornaliero. Va anche detto, come avviene per ogni innovazione «non sostenibile», che una parte dei critici nei confronti degli OGM sostengono che il «Golden Rice» disincentiverebbe il potenziamento di forme di agricoltura sostenibile e costituirebbe il cavallo di Troia per introdurre altri OGM nei paesi poveri (Brown 2001).

 

Agricoltura sostenibile

Nei paesi industrializzati il problema è invece spesso diverso. Al di là dei timori nei confronti di una possibile tossicità degli OGM, numerosi agricoltori hanno sottolineato che la produzione agro-zootecnica industrializzata ha portato all’abbandono di accorgimenti che possono migliorare la produzione senza costi elevati o senza indurre dipendenze dalle grandi imprese che operano nel settore. Paradossalmente, non è tanto nei paesi in via di sviluppo quanto negli USA, dove la pressione in favore di un’agricoltura industrializzata è molto forte, che un numero non indifferente di agricoltori sostiene che non sempre questa forma di agricoltura è conveniente, sia in termini di rapporti costi-benefici, sia di conseguenze ecologiche e sociali: le sementi ingegnerizzate sono costose, lo sfruttamento del terreno è elevato, cosicché la sua resa, se non si utilizzano fertilizzanti e correttori del suolo, decresce progressivamente.

 

Sviluppo di tecnologie locali

Un altro miglioramento del bassissimo tenore di vita di alcuni paesi può derivare sia dallo sviluppo di piccole tecnologie locali, sia dall’ibridazione tra tecnologie arcaiche e avanzate, come sta avvenendo in diverse regioni dell’India. Un esempio indicativo è quello dei pescatori dei villaggi del golfo del Bengala, a sud di Madras, dove gli uomini vanno a pesca a bordo di barche che sono poco più di zatteroni, un fascio di tronchi lavorati rozzamente e tenuti insieme da legacci di vimini o da avanzi di corde di nylon. Eppure, prima che essi prendano il mare, un altoparlante diffonde in alcuni di questi villaggi le previsioni sul tempo che farà e sulla situazione dell’oceano. Queste notizie, che possono salvare la vita dei pescatori, vengono ottenute via internet da un sito della marina statunitense cui si collegano numerosi villaggi della costa in cui le tecnologie informatiche convivono con tecnologie decisamente primordiali. I pescatori della regione di Madras, la cui sussistenza è estremamente precaria, beneficiano oggi di una rete che unisce tra di loro piccoli «centri» informatici gestiti in forma cooperativa dagli abitanti di lingua Tamil. È in questi centri che si ibridano la modernità dell’informatica e l’arretratezza della vita quotidiana del villaggio. Questo matrimonio funziona e sta modificando in meglio l’esistenza degli abitanti della regione, pescatori o contadini che siano. Presso questi centri gli abitanti dei villaggi possono infatti conoscere i prezzi del pesce, del riso o di altri prodotti da vendere e comprare al mercato, e possono informarsi su sovvenzioni governative, sulle malattie delle piante e sugli antiparassitari (Le Page 2002). I “Tarakendra”

 

Responsabilità politica della previsione

Una delle funzioni della scienza è quella di prevedere, per quanto possibile, alcuni eventi che riguardano l’ambiente in cui viviamo al fine di razionalizzare risorse e interventi. Entrare in questa dimensione previsionale comporterebbe grandi benefici in termini di vite umane e risorse, ma una simile iniziativa di vasto respiro e di notevole impegno economico richiede ad un tempo una «mutazione» politica in senso «science-oriented», che punti alla realtà dei fatti e si basi su analisi e soluzioni razionali (Antiseri 1999), e una trasformazione di mentalità: una «mutazione» politica in quanto i politici dovrebbero investire in un programma privo di immediate ricadute positive sulla loro immagine e, di conseguenza, sul loro elettorato, una trasformazione di mentalità in quanto gli esseri umani guardano con maggiore attenzione al presente che al lontano futuro.

 

La trasformazione in senso solidale che si sta delineando nel campo scientifico-tecnologico rappresenta un’importante innovazione nel campo della ricerca, proprio in quanto essa non punta a un astratto principio di beneficenza o alla molto improbabile destrutturazione delle istituzioni scientifiche, nel tentativo di orientarle in senso non competitivo. Le alternative della scienza solidale sono di due tipi: la prima è quella legata all’introduzione e al potenziamento di tecnologie sostenibili, la seconda implica che le associazioni, i gruppi di pressione, gli stessi paesi in via di sviluppo, trasformandosi in committenti di progetti scientifico-tecnologici, orientino la ricerca in una direzione solidaristica, vale a dire mirata alla soluzione di problemi specifici, spesso trascurati in quanto non attraenti dal punti di vista delle immediate ricadute economiche oppure troppo distanti dalle necessità della cultura dei paesi industrializzati.

Le tensioni degli ultimi anni e l’ondata terroristica internazionale hanno gettato luce sulla fragilità di un modello di sviluppo che ritenevamo ben più robusto nei confronti di diversi fattori di destabilizzazione, terrorismo incluso.