Pallinato da Frammenti, Gruppo AAA, 30 giugno 2008
L’ambientalista scettico
• L’ambientalista scettico.
Capitolo I "La situazione sta migliorando".
Quando si diffondo i dati sul pianeta e l’ambiente talvolta si commettono alcuni errori che fanno sembrare la situazione più grave di quanto sia in realtà. Ciò capita per esempio quando le tendenze globali sono descritte con dati parziali: il Global Environment Outlook Report 2000 diceva che l’erosione del suolo in Africa, procedendo ai ritmi attuali, nel giro di 40 anni avrebbe dimezzato la già scarsa produzione agricola. L’affermazione si basava su un unico studio del 1989 frutto di ricerche compiute solo su appezzamenti agricoli sudafricani. E infatti la Fao e Ifpri prevedono un aumento nella produzione dell’1,7% all’anno per i prossimi 20 anni. E negli anni Novanta la produzione assoluta di cereali è aumentata di oltre il 20%.
Quando il Wwf dichiara che la deforestazione in Amazzonia ha raggiunto 1.489.600 ettari all’anno, occorre chiedersi se la cifra sia davvero così mostruosa come sembra. In genere per rendere l’idea dell’area si fanno paragoni con un tot di campi di calcio. Ma quanti campi di calcio l’Amazzonia potrebbe contenere? E’ più significativo dire che dalla comparsa dell’uomo la deforestazione complessiva dell’Amazzonia è stata solo del 14%.
Nel 2000 la rivista Environment invitava ad acquistare uno speciale spazzolino riciclabile per ridurre il volume dei rifiuti nelle discariche. Environment calcolò che se tutti gli americani avessero sostituito il proprio spazzolino quattro volte all’anno come raccomandano i dentisti (non lo fanno: la media è di 1,7), la riduzione dei rifiuti sarebbe stata di 45.400 tonnellate. Nel 2000 i rifiuti prodotti negli Stati Uniti hanno superato i 200 milioni di tonnellate: se tutti gli americani usassero lo spazzolino riciclabile dunque la riduzione di rifiuti sarebbe pari allo 0,02%. Considerando che la produzione pro capite di rifiuti è di circa 2,0157 chilogrammi al giorno, il riciclaggio dello spazzolino diminuirebbe tale quantità di 0,000454 grammi (neanche mezzo grammo) portandola a 2,0153 chili.
I dati riportati negli studi possono anche essere errati. Sempre il Global Environment Outlook Report 2000 diceva: "Si stima che su scala mondiale l’inquinamento idrico influisca sulla salute di circa 1,2 miliardi di persone e contribuisca ogni anno alla morte di quasi 15 milioni di bambini al di sotto dei cinque anni di età". Secondo l’Oms tuttavia il numero totale di morti tra i bambini con meno di cinque anni è di circa 10 milioni.
Ecco una citazione catastrofista tratta da un testo del Worldwatch Institute: "La suddivisione delle terre arabili è talmente esasperata da rendere sempre più difficile il sostentamento". E’ sicuramente vero che un terreno troppo piccolo non permette una coltivazione sufficiente a sopravvivere, ma quanto piccolo deve essere questo terreno perché ciò accada? Il documento del Worldwatch non lo dice. E la maggior parte delle persone sarebbe probabilmente sorpresa nell’apprendere che, grazie alla luce artificiale, un individuo può sopravvivere con un appezzamento di 36 metri quadrati (un quadrato di sei metri di lato).
Secondo gli ambientalisti spesso le soluzioni ai problemi di inquinamento non sono altro che l’inizio di nuovi problemi. Come esempio si prenda il metodo in cui in Gran Bretagna si è tentato di ovviare all’inquinamento atmosferico di Londra. Dice Isaac Asimov: "Sono state costruite ciminieri altissime in modo che i fumi pulverulenti fossero emessi a un’altezza maggiore e ricadessero sul terreno solo in forma di fuliggine a centinaia di chilometri di distanza. Come la maggior parte delle soluzioni basate sulla tecnologia neanche questa ha risolto il problema: lo ha semplicemente trasferito altrove. In ultima analisi tutto ciò che Londra ha fatto è stato esportare il proprio smog, sotto forma di piogge acide, verso i laghi e le foreste della Scandinavia". Poi la Gran Bretagna ha anche cominciato a eliminare lo zolfo dalle emissioni delle ciminiere. Secondo gli ambientalisti, però, i depositi di fanghi solforosi costituiscono un grave pericolo per la salute. Però le cose non stanno davvero così: l’inquinamento dell’aria nell’area urbana di Londra è diminuito di più del 90% dal 1930. Nel Regno Unito l’inquinamento atmosferico uccideva forse 64.000 persone l’anno, mentre i fanghi di zolfo provocano meno di una morte per cancro in cinquant’anni.
"Come ha osservato un economista americano, quando laviamo i piatti, il nostro scopo non è renderli puliti ma diluire lo sporco a un livello accettabile. Se osservassimo al microscopio elettronico un piatto appena lavato, vedremmo una gran quantità si particelle di cibo e tracce di grasso". Ma abbiamo cose più importanti da fare che passare la giornata a rendere i piatti più puliti (comunque non saranno mai del tutto puliti). Così stabiliamo la priorità e scegliamo di convivere con qualche resto di grasso. La qualità di sporco residuo che si è disposti a tollerare dipende dalla valutazione personale dei vantaggi che si avrebbero passando più tempo a lavare i piatti piuttosto che fare altre cose. Di fatto, nel mondo reale non si esige mai il 100%. Allo stesso modo, bisogna individuare qual è il livello di inquinamento abbastanza basso da rendere più vantaggioso investire denaro, impegno e tempo in altri problemi. Per farlo dobbiamo basarci sulle migliori conoscenze possibili, non certo sui miti" (Bjørn Lomborg).
• L’ambientalista scettico.
Capitolo II: "Perché tante cattive notizie?"
Nel 1992 con un sondaggio (Health of the Planet) si misurò la preoccupazione delle persone per le questioni ambientali. Risultato: più del 50% delle risposte mostrava apprensione. Quasi ovunque l’impressione dei cittadini era che la situazione ambientale mondiale fosse pessima, quella nazionale leggermente migliore della prima e quella locale fosse la migliore in assoluto. In pratica è come se si pensasse che l’erba del nostro prato è più verde di quella del vicino. Ma si tratta chiaramente di una percezione errata: come è possibile che tutti gli ambienti locali siano buoni, se quello globale, che è la loro somma, è in pessimo stato?
Agli inizi degli anni Novanta il 70% degli americani pensava che l’opinione pubblica non fosse abbastanza interessata alla questione ambientale. Eppure almeno questo 70% di cittadini doveva necessariamente esserlo.
Se lo scienziato si imbatte in una questione che può dimostrarsi fonte di problemi, allora c’è interesse a investigarla con più attenzione e più investimenti. E questo non è un male, anzi: solo accumulando le conoscenze si può fare in modo che una questione non diventi un problema. Tuttavia spesso la mole di informazioni è percepita come il segnale di un incombente pericolo. Un buon esempio per descrivere il fenomeno è quello delle piogge acide. Tra gli anni 70 e 80 le foreste dell’Europa centrale subirono gravi perdite di fogliame. Un gruppo di ricercatori tedeschi collegò il fatto all’inquinamento industriale. Secondo loro tutte le foreste sottoposte alle piogge acide avrebbero subito gli stessi danni. La preoccupazione si diffuse e si moltiplicarono gli studi sull’argomento. Dieci anni più tardi si dimostrò che l’acidità danneggiava i tronchi degli alberi, ma solo in alcune rare circostanze. Però nel frattempo si erano moltiplicati gli studi e le dichiarazioni pessimiste.
Il fenomeno del ”cassetto degli inediti”. Un ricercatore trova che non ci sia relazione, per esempio, tra campi elettromagnetici a bassa frequenza e tumori umani. Presenta lo studio a un editore, che però non lo pubblica (perché farlo? Esso rivela soltanto che tra due fenomeni non c’è interdipendenza). Poco dopo un altro studio trova un legame, magari soltanto casuale, tra gli stessi elementi: l’editore lo pubblica. Solo a questo punto la prima ricerca viene considerata interessante. Sarebbe talvolta meglio, dunque, non riporre fede assoluta negli articoli di ricerca, perché in fondo a qualche cassetto di un editore potrebbe essercene un altro che dimostra il contrario.
La ricerca ha bisogno di finanziatori, e man mano che i finanziamenti aumentano la ricerca diventa un’industria. Il professor Aksel Wiin Nielsen, già segretario generale dell’Organizzazione meteorologica mondiale delle Nazioni Unite, ha scritto: "Il principale motivo per cui negli ultimi dieci anni c’è stato un lavoro teorico così vasto nello sviluppo di modelli climatici è che lo sviluppo di tali modelli garantisce finanziamenti e posti di lavoro nelle istituzioni di ricerca".
Dalle pagine della rivista Energy Policy un ricercatore ha sostenuto che il dibattito internazionale sul clima è stato avviato dai climatologi e dall’industria dei generatori di energia eolica. Si sa che ci sono diverse organizzazioni, anche di carattere politico, che premono sulla ricerca ambientale, come per esempio la National Federation of Independent Business (NFIB), l’American Farm Bureau (AFB), la Confederation of British Industry. Questi organismi difendono gli interessi dei propri iscritti. Se gli industriali britannici dicono che le norme ambientali per le aziende sono inutili, chi ascolta accoglie questi discorsi con scetticismo perché sa che potrebbero coprire altri interessi. Non ci si rende conto che anche i movimenti ambientalisti (come Wwf, Greenpeace, World Watch Institute) abbiamo interesse a dire che l’ambiente è in cattive condizioni. Più la situazione sembrerà negativa all’opinione pubblica, più facile sarà convincere tutti che è necessario investire per l’ambiente.
Rilevante è anche la tendenza dei mezzi di comunicazione a diffondere soprattutto le cattive notizie. Un caso esemplare è quello della comparsa, nel 1997-98, del Niño che finì per essere collegato a qualsiasi fenomeno meteorologico al mondo. I giornali si dilungarono sui suoi possibili effetti disastrosi del Niño, descritto come "l’evento climatico del secolo". In effetti gli fu attribuito di tutto: la crisi del turismo, l’aumento delle allergie, lo scioglimento delle piste da sci, le violente nevicate nell’Ohio. La Disney lo accusò addirittura di aver fatto crollare le quotazioni delle sue azioni (a causa del calo dei visitatori nei parchi). Un articolo pubblicato dal Bulletin of the American Meteorological Society ha tentato un bilancio di svantaggi e vantaggi imputabili al Niño. Tra i primi: tempeste in California, raccolti danneggiati, costi per i soccorsi, perdite umane ed economiche. Tra i secondi: le temperature invernali più miti hanno provocato 850 morti per assideramento in meno, i costi per il riscaldamento sono stati inferiori, ci sono stati minori danni da inondazioni primaverili. Si stima che le perdite totali siano state di 4 miliardi di dollari, i benefici di 19 miliardi.
• L’ambientalista scettico. Capitoli III-IV
Capitolo III: "Misurare il benessere umano"
Nel 1999 sul pianeta vivevano 6 miliardi di persone. La crescita demografica è iniziata nel 1950 e secondo le previsioni dovrebbe concludersi intorno al 2050. Come disse Peter Adamson, consulente della Nazioni Unite, "non è che gli uomini abbiano improvvisamente cominciato a riprodursi come conigli; il fatto è che non muoiono più come mosche". L’aumento della popolazione è dovuto dunque a un’eccezionale diminuzione del tasso di mortalità grazie a maggiore disponibilità di cibo, cure mediche, acqua potabile e infrastrutture igieniche. Non è invece imputabile a un’accresciuta natalità tra le popolazione dei paesi in via di sviluppo dove, all’inizio degli anni Cinquanta, la media era di oltre sei figli per donna, mentre oggi è di circa tre.
Nella società contadina tradizionale il reddito è basso e la mortalità alta. Tuttavia i figli, poiché lavorano e si prendono cura dei genitori anziani, rappresentano un beneficio superiore ai costi e quindi il tasso di natalità è alto. Quando le condizioni di vita, la qualità delle cure mediche, le infrastrutture igieniche e la prosperità economica migliorano, i tassi di mortalità diminuiscono? La transizione verso un’economia più urbanizzata e sviluppata aumenta le probabilità di sopravvivenza dei figli, che allo stesso tempo cominciano a costare alla famiglia più di quanto rendano poiché hanno maggiori esigenze di istruzione, lavorano meno e trasferiscono l’impegno a prendersi cura dei genitori anziani alle case di riposo. Di conseguenza il tasso di natalità diminuisce. Nel periodo compreso tra la diminuzione del tasso di mortalità e la diminuzione del tasso di natalità, la popolazione aumenta. In Svezia, per esempio, durante questo lasso di tempo la popolazione è quintuplicata. Una tendenza di questo tipo è in atto oggi nei paesi in via di sviluppo.
La popolazione si concentrerà sempre di più nelle metropoli. Si sente spesso affermare che la città abbassa la qualità della vita. Si tratta di un ragionamento sbagliato: è vero che secondo gli standard occidentali nelle baraccopoli la gente conduce una vita miserabile, ma la realtà è che perfino lì si vive meglio che nelle zone rurali. Nelle aree ad alta densità di popolazione si riduce l’incidenza delle malattie infettive più gravi, quali malaria e malattia del sonno, poiché gli edifici, sorgendo uno a fianco all’altro, lasciano meno spazio libero per gli acquitrini in cui prosperano mosche e zanzare. In città ci sono migliori sistemi fognari e servizi sanitari, e l’accesso all’istruzione è più semplice. Infine, gli abitanti delle città in media si alimentano meglio e in modo più equilibrato. Di fatto, il problema della povertà nel mondo interessa soprattutto le regioni rurali. Nei paesi in via di sviluppo le aree urbane, in cui vive appena un terzo della popolazione, producono il 60% del Pil.
Capitolo IV: "Aspettativa di vita e salute"
Dalle ricerche svolte sugli scheletri si sa che un cittadino medio dell’Impero romano viveva solo 22 anni. Fino al 1400 circa l’aspettativa di vita dell’umanità era bassissima: un neonato poteva sperare di vivere in media solo 20-30 anni. La causa principale era un tasso di mortalità infantile molto elevato: solo un bambino su due sopravviveva oltre il quinto compleanno. Ancora nell’Ottocento l’aspettativa di vita era di trent’anni circa. La stessa è più che raddoppiata nell’ultimo secolo.
All’inizio del XX secolo l’aspettativa di vita nei paesi in via di sviluppo era in media molto al di sotto dei 30 anni. Nel 1950 aveva raggiunto i 41 anni e nel 1998 era di 65. Il cinese medio che nel 1930 si aspettava di morire all’età di 24 anni, può ora prevedere di vivere fino a 70. Si prevede che la tendenza al miglioramento continuerà e che il mondo in via di sviluppo supererà il tetto dei 70 anni nel 2020.
Il miglioramento dell’aspettativa di vita è in gran parte risultato di una brusca diminuzione della mortalità infantile. L’allungamento della vita media rispetto a cento anni fa non è dovuto al fatto che tutti vivono più a lungo, bensì al fatto che molte meno persone muoiono giovani. A livello globale la diminuzione della mortalità infantile è stata stupefacente. Dall’esame di scheletri, è possibile dedurre che fino al 1400 un tasso di mortalità di circa 500 su 1000 nati era normale in Europa. Nei paesi in via di sviluppo la riduzione è stata straordinaria: mentre nel 1950 il 18% (uno su cinque) dei bambini moriva, nel 1995, nonostante la terribile epidemia di Aids, la percentuale era scesa al 6%.
Non solo si vive più a lungo, ma ci si ammala anche di meno. A partire dalla fine del XVIII secolo ovunque sono migliorate le condizioni di vita, le abitudini igieniche e alimentari. Inoltre è migliorata la medicina. Alcune malattie sono state quasi debellate: il vaiolo, la difterite, la peste. Altre sono diventate per lo più inoffensive: morbillo, varicella, colera ecc. Per questo motivo si muore più spesso di vecchiaia e malattie legate allo stile di vita, come disturbi cardiovascolari e tumori.
• L’ambientalista scettico.
Capitolo V: "Alimentazione e fame"
Paul Ehrlich nel libro The Population Bomb (1968) criticò gli "ottimisti di professione": "Sostengono che nei prossimi otto anni l’India sarà in grado di aumentare la produzione agricola e di dar da mangiare a circa a circa 120 milioni di persone in più". Otto anni più tardi la produzione alimentare indiana era sufficiente a sfamare ben 144 milioni di persone in più.
Secondo le Nazioni Unite dal 1961 la produzione alimentare è aumentata del 20% pro capite e nei paesi in via di sviluppo del 52%. In modo equivalente, la carne disponibile per persona è cresciuta del 122%, passando da 17,2 kg nel 1950 a 38,4 kg nel 2000.
La teoria di Malthus: la popolazione aumenta di una determinata percentuale ogni anno, in modo esponenziale (gli abitanti della Terra raddoppiano ogni 40 anni circa). La produzione alimentare invece aumenta più lentamente, secondo una funzione di crescita lineare. Risultato: la popolazione del futuro non avrà cibo a sufficienza. La teoria di Malthus, che ebbe tanto successo, però manca di prove. Di rado la popolazione aumenta in modo esponenziale e altrettanto di rado la quantità di cibo cresce con andamento lineare.
Oggi ogni individuo ha molto più cibo a disposizione di un tempo, anche se dal 1961 la popolazione è raddoppiata. L’apporto calorico è aumentato del 24% su base globale e nei paesi in via di sviluppo addirittura del 38%. Secondo le Nazioni Unite, una persona soffre la fame se non ha cibo a sufficienza per compiere una leggera attività fisica: a livello globale la percentuale che soffre la fame dal 1970 è diminuita dal 35 al 18%. Nei paesi in via di sviluppo la percentuale di bambini considerati denutriti è scesa dal 40 al 30% negli ultimi 15 anni e si prevede che nel 2020 sarà del 24%.
Nel 1971 quasi 920 milioni di persone nel Terzo Mondo erano sottonutriti, nel 1997 il totale era sceso sotto i 792 milioni.
E’ aumentata la domanda, eppure i prezzi dei cibi sono scesi: nel 2000 i generi alimentari costavano un terzo in meno rispetto al 1957. Il prezzo del grano ha registrato una tendenza al ribasso fin dal 1800, e la caduta dei prezzi è stata particolarmente pronunciata nel periodo successivo alla Seconda guerra mondiale. Poiché il prezzo riflette la scarsità di un determinato prodotto, ne consegue che in questo secolo i generi alimentari sono diventati meno scarsi benché la popolazione sia più che triplicata e la domanda sia aumentata in modo costante.
Come è stato possibile un simile sviluppo positivo? Grazie a un insieme si tecnologie conosciute come la ”rivoluzione verde”, i cui principali elementi sono: colture ad alta resa; irrigazione e rifornimento idrico controllato; fertilizzanti e pesticidi; capacità gestionale degli agricoltori. Grazie alla rivoluzione verde è stato possibile ricavare più cibo da ciascun ettaro di terreno. L’intuizione si deve a Norman Borlaug (poi premio Nobel per la pace) e al suo lavoro sulle colture ad alta resa. Le varietà moderne di riso, granturco e grano crescono più velocemente, maturano prima e sono più resistenti alle malattie e alla siccità. Così sono possibili più raccolti in un anno. E siccome le piante sono più forti, è aumentata anche la zona climatica favorevole alle colture. Risultato: dal 1960 le nuove varietà vegetali hanno portato a un aumento della resa massima di oltre il 30%.
I miglioramenti non hanno interessato solo le varietà cerealicole: la produzione di carne di pollo e di maiale è più che raddoppiata rispetto a sessant’anni fa e quella di latte è raddoppiata.
L’irrigazione e il controllo delle risorse idriche, come la costruzione di dighe, ha fatto aumentare la proporzione di campi irrigati dal 10,5% del 1961 a oltre il 18% nel 1997.
L’aumento nell’utilizzo di fertilizzanti e pesticidi ha reso possibile il miglioramento nella crescita delle piante, limitando la perdita di raccolto dovuta a malattie e insetti. Nel 1960 in Asia quasi un terzo del raccolto di riso veniva divorato da locuste e simili.
Le nuove varietà di colture selezionate dall’uomo offrono una maggiore resistenza alle malattie, consentendo così di ridurre il consumo di pesticidi.
Nei paesi in via di sviluppo la produzione di riso è cresciuta del 122%, quella di granturco del 159%, quella di grano addirittura del 229%.
Si sente dire spesso che pesticidi e agricoltura intensiva sono dannosi per l’ambiente. Ma qual è l’alternativa, considerando che sulla Terra ci sono più di 6 miliardi di persone? Se si abbandonassero agricoltura intensiva e pesticidi, gli agricoltori avrebbero bisogno di molto più spazio per fornire le stesse quantità di derrate, oppure finirebbero per produrne di meno.
C’è più cibo, dunque. Ma non è così ovunque. Per esempio c’è stato un grande aumento in America Latina, Asia e Vicino Oriente, ma l’Africa subsahariana è rimasta quasi ferma. Nelle coltivazioni non si usano fertilizzanti, i sistemi di irrigazione sono insufficienti, eppure l’Africa ha grandi potenzialità. Numerosi programmi agricoli gestiti dalla Fao hanno dimostrato che è possibile aumentare in modo considerevole le rese (è accaduto per esempio in Eritrea e in Burkina Faso). Le Nazioni Unite affermano che a bloccare la situazione è la mancanza "di slancio politico". In effetti dall’epoca della decolonizzazione, alla fine degli anni Cinquanta, l’Africa subsahariana è teatro di instabilità politica, corruzione, conflitti etnici, mancanza di infrastrutture, istruzione scadente: tutti aspetti che hanno ostacolato lo sviluppo dell’agricoltura e sui quali occorre intervenire in fretta.
• L’ambientalista scettico. Capitolo VI-VII: "Prosperità"
Stime dello sviluppo globale del Pil pro capite negli ultimi 2000 anni rivelano che, dopo un valore quasi costante di 400 dollari durante buona parte della storia umana, nel 1800 si è superata la soglia dei 700 dollari e duecento anni dopo siamo in media otto volte più ricchi.
In tutte le regioni del mondo si è verificata una crescita economica pro capite, anche se non della stessa portata dappertutto. In Europa occidentale la produzione disponibile per persona è aumentata di 13 volte, nella periferia del continente di 9, in America Latina di 7, in Asia di 8 e in Africa di 4 volte. Nel mondo occidentale lo sviluppo è iniziato molto prima e per questo è di gran lunga più avanzato, ma negli anni successivi alla Seconda guerra mondiale sia i paesi industrializzati sia quelli in via di sviluppo hanno conosciuto notevoli e costanti progressi nel reddito pro capite. Dal 1950 al 1995 i redditi medi nel mondo industrializzato sono aumentati del 218%, mentre nel mondo in via di sviluppo l’aumento è stato del 201%. Sempre durante questo periodo i paesi in via di sviluppo hanno avuto tassi di crescita annuale del 4,2%, mentre i paesi industrializzati si sono limitati al 3,2%.
Si crede che la qualità della vita nei paesi in via di sviluppo stia peggiorando e che la percentuale di poveri sia in aumento, ma i dati dimostrano il contrario. Nel rapporto delle Nazioni Unite del 1997 sulla povertà e la disuguaglianza si leggeva: "Pochi si rendono conto dei grandi progressi già compiuti. Negli ultimi 50 anni la povertà è diminuita più che nei precedenti 500. E per alcuni aspetti si è ridotta in quasi tutti i paesi". E nel 1998 la Banca mondiale scriveva: "La riduzione della povertà nei paesi in via di sviluppo ha fatto registrare progressi incredibili. Durante gli ultimi quattro decenni gli indicatori sociali sono migliorati in tutte le regioni. Negli ultimi venti anni la povertà è stata drasticamente ridotta in Asia orientale, dove il maggior numero di coloro che vivevano con meno di un dollaro al giorno è passato da sei individui su dieci alla metà degli anni ”70, a due su dieci alla metà degli anni ”90. Negli ultimi anni la povertà si è ridotta anche nella maggior parte dell’Asia meridionale e in alcuni paesi del Medio Oriente, nel Nordafrica e in America Latina".
Il Programma delle Nazioni Unite per lo sviluppo (Undp) ha evidenziato che a livello globale la disuguaglianza è aumentata. L’Undp ha messo in relazione il 20% dei più ricchi in tutti i paesi del mondo con il 20% dei più poveri e ha calcolato che, in termini di Pil, negli anni 60 il rapporto era di 30 a 1 (cioè i più ricchi guadagnavano 30 volte in più dei più poveri). Nel 1991 il rapporto era di 61 a 1 e nel 1994 di 78 a 1. Per i suoi calcoli l’Undp utilizza i tassi di cambio come strumento di confronto tra Pil di nazioni diverse: è come se si volesse vedere cosa potrebbe comprare per esempio un etiope negli Stati Uniti. Ma in realtà sarebbe molto più corretto sapere ciò che un etiope può comprare in Etiopia. A questo scopo si sta cominciando a utilizzare un indice delle parità del potere d’acquisto (Ppa) in grado di misurare ciò che il denaro di un individuo può effettivamente comprare sul mercato locale. Usando questo indice si vede che il divario tra ricchissimi e poverissimi non è aumentato, ma è anzi leggermente diminuito.
Il massimo divario tra paesi industrializzati e quelli in via di sviluppo si è registrato negli anni ”60. La principale causa è stato l’aumento nei primi del reddito pro capite successivo alla rivoluzione industriale, mentre i secondi sono rimasti indietro. Comunque dal 1970 in poi i tassi di crescita pro capite nei paesi in via di sviluppo hanno cominciato ad accelerare e ciò ha reso possibile un restringimento del divario.
La disuguaglianza tra ricchi e poveri aumenterà? L’ipotesi più pessimistica prevede quasi un dimezzamento entro il 2100. Gli scenari più ottimistici prevedono invece una quasi totale scomparsa della disuguaglianza nello stesso periodo. Comunque nessuna ipotesi prevede un aumento della disuguaglianza.
E’ possibile analizzare lo sviluppo della ricchezza anche prendendo in considerazione indicatori più specifici, per esempio il numero di persone che possiedono determinati beni di consumo. Nel caso degli Stati Uniti si può dire che: negli anni ”80 quasi tutti hanno acquistato un forno a microonde e un videoregistratore. Negli anni ”50 i televisori si sono diffusi nelle case americane a un tasso quasi incredibile passando dallo 0,4% del 1948 all’87% nel 1960. Sempre più persone hanno il computer, la diffusione del telefono cellulare è ormai capillare. Sono cresciuti turismo e traffico aereo e su strada. Sono diffusi lavatrice e frigorifero. Nello stesso tempo il costo della vita è gradualmente diminuito, sia perché si guadagna di più sia perché i prezzi dei generi alimentari sono diminuiti di due terzi rispetto al 1957. Sviluppi di questo tipo sono stati registrati nella maggioranza dei paesi industrializzati, ma anche i paesi in via di sviluppo hanno redditi più alti e una maggiore disponibilità di beni: per esempio una percentuale molto più alta di abitanti ha ora accesso all’acqua potabile, la popolazione che dispone di infrastrutture igieniche è quasi raddoppiata. E’ aumentata la disponibilità di energia pro capite e migliorata la rete stradale, che agevola la distribuzione di beni e il commercio.
Il mondo ha nel complesso un livello medio di istruzione molto più alto che in passato e, anche se l’accesso alla scuola è sempre difficile per le donne, il tasso di analfabetismo nei paesi in via di sviluppo è passato dal 75% della popolazione nata nella prima parte del XX secolo a meno del 20% tra i giovani.
Negli ultimi 120 anni il numero di ore di lavoro si è dimezzato e poiché si vive sempre più a lungo il tempo libero per ciascuno è più che raddoppiato. Il tasso di omicidi è diminuito notevolmente, anche se è stato in qualche modo bilanciato dall’aumento del tasso di suicidi. Oggi, inoltre, gli incidenti mortali sono meno frequenti che in passato. Ciò, sommato alle migliori condizioni di vita che si registrano ovunque rispetto al passato, non significa affatto che i problemi siano stati tutti risolti. L’Africa è la principale area critica: nell’ultimo secolo la crescita è stata molto inferiore che nelle altre regioni, è molto diffuso l’Aids, ci sono guerre, divisioni politiche ed etniche. Ma la verità è che perfino qui la situazione è migliorata rispetto all’inizio del XX secolo.
• L’ambientalista scettico. Capitoli VIII-IX
Capitolo VIII: Abbiamo i giorni contati?
Capitolo IX: Avremo cibo a sufficienza?
Secondo alcuni l’umanità avrebbe i giorni contati: se le cose sono andate bene finora non è detto che sarà così per sempre. Il concetto chiave è quello della sostenibilità del modello di sviluppo. Secondo il Worldwatch Institute ci stiamo comportando «come se non avessimo figli, come se non ci dovesse essere una nuova generazione».
Una delle condizioni indispensabili per la sopravvivenza del genere umano è l’accesso alle risorse della Terra. Il cibo è probabilmente la risorsa più importante. Le fonti alimentari sono rinnovabili, ma cosa accadrebbe se iniziassero a scarseggiare? un timore giustificato, soprattutto in considerazione del fatto che la popolazione aumenta sempre di più? I dati dicono che dal 1961 l’attività agricola ha prodotto cibo e calorie pro capite in quantità sempre maggiori, sia nei paesi industrializzati sia in quelli in via di sviluppo. Una serie di dati dimostra però che la quantità media di grano per ogni abitante del pianeta è cresciuto fino al 1984, per poi diminuire dell’11%.
vero che la produzione cerealicola mondiale ha raggiunto il massimo di 344 kg pro capite nel 1984 ed è poi calata a 306 kg, ma questo risultato si deve in gran parte a sottigliezze statistiche. Nei paesi industrializzati la produzione è cresciuta costantemente dagli anni 50 fino agli anni 80, quando si è stabilizzata intorno ai 650 kg per abitante. L’arresto della crescita è dovuto al fatto che il mercato è saturo e, anzi, l’elevato livello di consumo si deve alla grande quantità di cereali utilizzati per nutrire animali, che a loro volta forniscono la carne destinata al consumo. Nei paesi in via di sviluppo invece la produzione ha continuato a crescere da 157 kg nel 1961 a 211 kg nel 2000. Nello stesso tempo in questi paesi è aumentata la popolazione: pertanto la diminuzione della media globale è dovuta alla continua crescita della popolazione dei paesi in via di sviluppo. Se infatti il numero di individui che producono circa 200 kg aumenta e il numero di coloro che producono 650 kg nei paesi industrializzati rimane costante, la media mondiale diminuirà. Riportare solo le cifre relative alla diminuzione a livello globale nasconde il fatto che sempre più persone nei paesi in via di sviluppo hanno accesso a risorse alimentari più abbondanti.
Altra causa della diminuzione di produzione dei cerealie: il crollo dell’Unione Sovietica e delle altre economie a pianificazione centralizzata ha provocato. Ciò ha provocato tra il 1990 e il 2000 un calo di circa il 40%: mentre in precedenza questi paesi fornivano quasi il 17% dei cereali totali, adesso il loro apporto alla produzione mondiale è inferiore al 10%.
L’Unione europea ha inoltre cercato di evitare la sovrapproduzione: questo provvedimento ha provocato un calo nella produzione di cereali nell’area comunitaria superiore al 5%. In più, l’Unione europea ha aumentato la quota di terreni agricoli messi a riposo per motivi ambientali e i prezzi bassi dei mercati mondiali hanno contribuito a contenere la produzione.
tuttavia vero che per quanto riguarda la resa, a livello globale, i tassi di crescita per riso, grano e granturco, che costituiscono circa il 50% dell’apporto calorico mondiale, sono in diminuzione. Negli anni 70 per il riso tale tasso aumentava del 2,1% all’anno, mentre adesso è all’1,5%; le percentuali relative a grano e granturco sono simili.
Per il Worldwatch Institute stiamo raggiungendo i limiti di ciò che possiamo ottenere dalle piante che coltiviamo. Per provare questa tesi spesso vengono riportati dati, che però risultano essere scelti di proposito per confermare questa tesi: di solito si prende l’anno di un picco della resa per affermare che negli anni successivi c’è stata una contrazione.
ovvio che l’aumento della produttività di cereali non si sviluppa in modo autonomo, ma richiede investimenti nella ricerca da parte delle imprese e dei governi. Inoltre, davanti alle previsioni di un’ulteriore diminuzione dei prezzi e dunque dei profitti, rapidi aumenti nella produttività saranno possibili solo grazie a costanti finanziamenti pubblici. Ma questo è un problema di priorità politiche e non di limiti della produzione alimentare.
Le possibilità di aumentare la resa sono ampie soprattutto per i piccoli coltivatori dei paesi in via di sviluppo: è stato calcolato che essi producano meno della metà della resa massima possibile. Per esempio nell’Andra Pradesh, in India, i centri di ricerca più sviluppati ottengono tassi di resa che superano da 5 a 10 volte quelli dei contadini che impiegano ancora metodi tradizionali. proprio questo fatto a garantire che esistono ampi margini di miglioramento nella produttività.
Il fatto che la resa del riso sia scesa dal 2,1% all’1,5% potrebbe provocare preoccupazione. Però bisogna tenere presente che il tasso di crescita della popolazione è diminuito da oltre il 2% dei primi anni 70 a meno dell’1,26% attuale e si prevede che scenderà al di sotto dello 0,5% nei prossimi 50 anni. La precedente crescita della produzione agricola era necessaria proprio alla luce dell’aumento demografico. Oggi è sufficiente una crescita ridotta perché l’incremento demografico è inferiore.
Il Worldwatch Institute ha sollevato con preoccupazione la questione delle scorte di cereali mondiali. Le riserve sono costituite dalla quantità ancora disponibile subito prima del nuovo raccolto. Nel 2000 le riserve ammontavano a circa 62 giorni di consumo ed erano inferiori ai 64 giorni prescritti dalla Fao. Tuttavia c’è da dire che la diminuzione delle riserve (che si è verificata soprattutto negli Stati Uniti e nell’Unione europea) si è accompagnata alla maggiore flessibilità del commercio mondiale. Oggi le nostre collettività si garantiscono e si sostengono a vicenda e questa è una forma di sicurezza molto più efficace delle riserve.
Un altro ricorrente motivo di ansia è rappresentato dall’erosione della superficie coltivabile: quando la terra viene erosa da pioggia e vento, perde le sostanze nutrienti e la capacità di trattenere l’acqua, di conseguenza la sua produttività è inferiore. Ma davvero l’erosione danneggia la resa? In verità i dati dicono che c’è un aumento annuale di produttività compreso fra l’1 e il 2% derivante dall’uso di varietà di sementi a resa superiore, dall’impiego di tecniche agricole più avanzate e dalla diffusione di irrigazione, pesticidi e fertilizzanti. Paragonato a questo incremento, l’effetto dell’erosione è talmente limitato che in molti casi non giustifica l’impegno necessario a combatterlo.
Testo elaborato da Daria Egidi
(6 - continua)
• L’ambientalista scettico
Capitolo X: "Le foreste stanno scomparendo?"
Il direttore generale del Wwf Claude Martin nel 1997 convocò una conferenza stampa intitolata ”L’undicesima ora delle foreste del pianeta”. E si espresse così: «Supplico i leader della Terra affinché si impegnino di persona fin da ora per salvare le foreste che restano nei loro paesi: per le foreste del pianeta è giunta l’undicesima ora. L’estensione e la qualità delle foreste del pianeta continuano a diminuire a ritmo sostenuto».
A livello globale la superficie della Terra coperta da foreste è rimasta costante per tutta la seconda metà del XX secolo. Il manto forestale complessivo è passato dal 30,04% delle terre emerse del 1950 al 30,89% del 1994, con un aumento di 0,85 punti percentuali in 44 anni. Una serie di dati più breve indica invece che negli ultimi 35 anni il manto forestale è calato dal 32,66% al 32,22%.
L’Europa ha perso fra il 50 e il 70% delle foreste originarie. Una buona parte delle foreste del continente è stata abbattuta all’inizio del Medioevo per ottenere terreno da coltivare o legna da ardere. Metà delle foreste francesi scomparve fra il 1000 e il 1300. Intorno alla metà del XIV secolo la peste nera ridusse la popolazione europea di un terzo e di conseguenza anche la distruzione delle foreste diminuì. Poi dal 1700 in avanti la superficie delle foreste in Europa diminuì di appena l’8%.
Negli Stati Uniti è scomparso soltanto il 30% circa delle foreste originarie, soprattutto nel XIX secolo. La deforestazione non ha raggiunto i livelli europei poiché in questo continente la pressione demografica è sempre stata minore che in Europa. Il raddoppio della superficie agricola degli Stati Uniti, realizzato tra il 1880 e il 1920, non ha quasi intaccato l’area forestale totale perché la maggior parte dei nuovi terreni derivava dallo sfruttamento delle praterie.
In America Latina il manto forestale si è ridotto di circa il 20% negli ultimi 300 anni. La maggior parte delle foreste ha lasciato il posto alle coltivazioni della canna da zucchero e più tardi di caffè, mentre la corsa all’oro e ai diamanti, iniziata nel 1690, ha contribuito alla distruzione di circa il 2% delle foreste del Brasile.
L’Asia meridionale e la Cina nel complesso hanno perduto circa il 50% del manto forestale a partire dal 1700. Nel sudest asiatico, d’altro canto, la perdita è stata di appena il 7% negli ultimi 300 anni. Africa e Russia hanno perso poco meno del 20%.
A livello mondiale è stato calcolato che la percentuale del manto forestale originario perduta dall’inizio delle attività agricole sia nell’ordine del 20%. Questo dato è di gran lunga inferiore a quelli che vengono spesso diffusi dalle varie organizzazioni (per esempio ilWwf, secondo cui l’umanità avrebbe perso due terzi dell’intero patrimonio forestale).
Dalle foreste derivano circa 5000 prodotti commerciali. I più importanti sono il legname da costruzione, i mobili, la carta e la legna da ardere. Si è stimato che l’industria forestale contribuisce al Pil mondiale per circa il 2%. Inoltre boschi e foreste aiutano a prevenire l’erosione del terreno che a sua volta provoca l’interramento di fiumi e bacini idrici, e contribuiscono quindi a ridurre il rischio di alluvioni. Infine le foreste, soprattutto quelle pluviali, rappresentano l’habitat di moltissime specie di animali.
Negli ultimi 40 anni l’estensione delle foreste nelle zone temperate (America del Nord, Europa, Russia) è aumentata. Allo stesso tempo vaste aree delle foreste tropicali stanno scomparendo. Queste ultime sono l’habitat naturale della maggioranza delle specie animali e vegetali e rappresentano la più grande concentrazione di biomassa del pianeta. Nella foresta pluviale, cioè nella zona più umida della foresta tropicale, è possibile trovare diverse centinaia di specie di alberi in poche centinaia di chilometri quadrati (in Canada, invece, su una superficie di 1000 chilometri quadrati di foresta ci sono solo 20 specie diverse di alberi).
Verso la fine degli anni ”70 si diffuse il timore che la metà o più delle foreste pluviali sarebbe scomparsa nel giro di pochi decenni. Il rapporto sull’ambiente Global 2000 voluto dal presidente americano Carter, valutava la perdita annuale di aree di foresta tropicale fra il 2,3% e il 4,8%. All’inizio degli anni Novanta il biologo Norman Myers affermò che ogni anno viene distrutto il 2% di tutte le foreste (giunse a sostenere che in pochi decenni «potremmo assistere alla virtuale scomparsa di tutte le foreste tropicali»). I dati reali sono molto diversi: le stime della Fao hanno valutato la deforestazione netta nelle aree tropicali negli anni ”80 intorno allo 0,8% annuo, con una riduzione allo 0,7% negli anni ”90. In un rapporto del 2001, basato su immagini catturate dai satelliti, si leggeva che la percentuale di deforestazione nelle aree tropicali ha subito un’ulteriore diminuzione toccando lo 0,46%.
La deforestazione rimane tuttavia elevata perché le foreste pluviali sono di tutti, nessuno ne è responsabile. I primi che arrivano in un’area la disboscano e la coltivano, provocando danni al terreno. In secondo luogo le foreste tropicali costituiscono una fonte preziosa di legname. Molti paesi in via di sviluppo con problemi economici trovano una veloce soluzione nel commercio di legname con grandi società. In Suriname, per esempio, alcuni gruppi industriali hanno offerto investimenti equivalenti al Pil locale in cambio del diritto di tagliare un terzo degli alberi del paese. Con un’inflazione al 500% e un tasso di disoccupazione in continua crescita, quest’offerta era in pratica irresistibile.
La raccolta di legna di ardere costituisce una delle principali cause della deforestazione nei paesi in via di sviluppo. Sebbene il legno fornisca solo l’1% del consumo energetico mondiale, copre il 25% dell’energia utilizzata nei paesi in via di sviluppo e addirittura il 50% in Africa. Ciò contribuisce alla deforestazione e alla desertificazione a livello locale.
La deforestazione non regolamentata è dunque dovuta alla presenza di poveri e di senza terra, e lo sfruttamento eccessivo della legna da ardere altro non è che una conseguenza dei bassi livelli di reddito. Entrambi i problemi possono essere risolti solo con la riduzione della povertà e l’aumento della crescita economica. Se i paesi industrializzati vogliono intervenire nella questione della deforestazione delle regioni tropicali, devono offrire denaro ai paesi in via di sviluppo in cambio della tutela delle foreste.
Quanta foresta tropicale è scomparsa? La Internationale Union for Conservation of Nature and Natural Resources ha calcolato che l’80% del manto forestale originario sia intatto. Nel corso dei secoli, quindi, solo il 20% di tutte le foreste tropicali è andato perduto. Paragonato alle cifre relative ai paesi industrializzati, in cui quasi la metà delle foreste è stata abbattuta, il dato appare relativamente contenuto. Paesi come la Nigeria o il Madagascar hanno dichiarato di aver perso più della metà delle foreste pluviali, ed è probabile che l’America centrale abbia visto scomparire fra il 50 e il 70% delle proprie. Tuttavia questi paesi ospitano solo il 5% circa del totale delle foreste tropicali mondiali, la maggior parte delle quali si trova nell’Amazzonia brasiliana. Le foreste brasiliane costituiscono circa un terzo dell’intero patrimonio forestale tropicale del pianeta. E la deforestazione complessiva dell’Amazzonia, fin dall’arrivo dell’uomo, non ha superato il 14% del totale e almeno il 3% di tale percentuale di superficie è stato da allora sostituito da nuove foreste.
« necessario chiedersi se la nostra indignazione per la deforestazione delle aree tropicali abbia ragione di esistere, considerando il livello di disboscamento che hanno subito Europa e Stati Uniti. Sembra un atteggiamento ipocrita ammettere di aver tratto grandi vantaggi dall’abbattimento di vaste estensioni di foresta a casa propria e al contempo non permettere ai paesi in via di sviluppo di avvalersi degli stessi benefici».
Gli abitanti dei paesi in via di viluppo spesso sfruttano le loro foreste in modo avventato, con una politica che nel lungo periodo si ritorcerà contro di loro. Tale sfruttamento è da imputare alla povertà dei singoli cittadini e all’esiguità delle finanze pubbliche. Ogni proposta di soluzione dovrà dunque includere una crescita economica stabile. Inoltre se si vuole davvero porre un freno alla riduzione della biodiversità occorre mettere mano al portafogli. Se si vuole che i paesi in via di sviluppo non facciano del loro patrimonio forestale ciò che noi abbiamo fatto del nostro si devono offrire loro degli incentivi.
Negli anni Settanta si disse che le foreste tropicali sono i polmoni della Terra. Si tratta di un mito: le piante producono ossigeno per mezzo della fotosintesi, ma quando muoiono e si decompongono consumano quella stessa quantità di ossigeno. Dunque, una foresta in equilibrio, in cui nuovi alberi crescono e quelli vecchi muoiono, e dove la biomassa rimane più o meno costante, né produce né consuma ossigeno in termini netti.
• L’ambientalista scettico
Capitolo XI: "Energia"
Il nostro corpo fornisce l’energia equivalente a una lampadina da 100 watt.
Oggi la civiltà dipende dalla disponibilità di energia: mentre alla fine del XIX secolo negli Stati Uniti la forza lavoro umana costituiva fino al 94% di tutte le risorse industriali, oggi rappresenta solo l’8%. La domanda dunque che più dovrebbe preoccuparci è se questa dipendenza dall’energia sia sostenibile.
Cosa succederà a lungo termine alle risorse energetiche? Le risorse attuali si sono formate durante milioni di anni e saranno consumate in pochi secoli. Alcuni osservatori dicono che si dovrebbe farne un uso sostenibile, in modo che anche le generazioni future possano usufruirne. In realtà questa non è una risposta sensata: è ovvio che le fonti di energia non rinnovabile prima o poi finiscano. In futuro l’uso del petrolio come combustibile principale per tutte le attività umane non sarà più conveniente perché il suo prezzo aumenterà e/o perché quello di altre fonti diminuirà. Chiedersi se a lungo termine il petrolio si esaurirà è una domanda bizzarra: è ovvio che alla lunga sarà necessario affidarsi ad altre fonti di energia.
«L’età della pietra non è finita per mancanza di pietre; anche l’età del petrolio giungerà al termine, ma non sarà per mancanza di petrolio»(Zaki Yamani, ex ministro dell’Arabia Saudita e tra i fondatori dell’Opec).
Per molti la prima crisi petrolifera del 1973 ha rappresentato la conferma della scarsità delle risorse. Ma le crisi petrolifere si sono verificate perché i paesi Opec sono riusciti a limitare la produzione e spingere i prezzi al rialzo. Nel 1914 il Bureau of Mines, l’ente americano per il controllo e la regolamentazione dell’attività mineraria, stimava che il petrolio rimanente sarebbe durato appena dieci anni. Nel 1939 sempre negli Stati Uniti, le proiezioni del dipartimento degli Interni valutavano che il petrolio sarebbe durato ancora per 13 anni. Di nuovo nel 1951 si prevedeva che si sarebbe esaurito 13 anni più tardi. Nel 1972 il libro I limiti dello sviluppo dimostrava che il petrolio, alla pari con numerose altre risorse, si sarebbe esaurito prima del 1992. Nel 1987 Paul Ehrlich annunciò che la crisi petrolifera si sarebbe ripresentata negli anni Novanta. Già avanti con l’età il professor Frank Notestein dell’università di Princeton disse una volta: « da quando sono ragazzo io che il petrolio si sta esaurendo».
Il petrolio è presente in tutto il mondo ma i giacimenti più rilevanti si trovano in Medio Oriente: si stima che rappresentino tra il 50 e il 65% delle riserve mondiali.
Le risorse conosciute di petrolio non sono tutte le risorse esistenti. Non tutti i giacimenti di petrolio sono noti e che ormai l’unico problema sia solo quello di pompare il minerale in superficie: sempre nuove zone vengono esplorate e altro petrolio viene scoperto. Ma poiché la ricerca costa denaro le nuove ricerche vengono avviate e nuovi campi petroliferi vengono aperti solo quando la domanda aumenta. Pensare che le risorse conosciute costituiscano tutto ciò che ci rimane e di conseguenza prevedere catastrofi al loro esaurimento è fuori luogo. Sarebbe come guardare nel frigorifero ed esclamare: «Questo cibo basta solo per i prossimi tre giorni: fra quattro moriremo di fame». Fra due giorni andremo al supermercato e compreremo altro cibo. Così pure per il petrolio. Non sarà estratto solo dalle fonti già conosciute, ma anche da molte altre oggi non ancora scoperte.
Lo sfruttamento delle risorse diventa sempre più efficiente. Sono state introdotte nuove tecnologie che consentono di estrarre una maggiore quantità di minerale dai campi già in attività. Sono migliorati i metodi d’indagine ed è diventato possibile sfruttare giacimenti che prima risultavano troppo costosi o difficili da utilizzare. Di solito con la trivellazione attuale si porta in superficie solo il 20% del petrolio raccolto nel giacimento. Perfino con le avanzate tecniche attuali oltre la metà del petrolio rimane nel terreno. Secondo i calcoli, i dieci più estesi giacimenti degli Stati Uniti conterranno ancora il 63% del petrolio originario quando cesserà il loro sfruttamento. Rimane perciò un ampio margine di miglioramento. Secondo il Geological Surveys un avanzamento tecnologico in questo senso potrebbe portare a un aumento del 50% delle riserve identificate.
Allo stesso tempo ogni litro di petrolio viene sfruttato in modo più efficiente. Dal 1973 a oggi il numero di chilometri che un’automobile americana percorre con un litro di carburante è aumentato del 60% e l’efficienza degli impianti di riscaldamento domestico è migliorata del 24-43%. Anche molti elettrodomestici sono diventati più efficienti e l’uso di energia per lavastoviglie e lavatrici si è ridotto di quasi il 50%.
Il petrolio può essere sostituito. Si potrebbe passare a sorgenti energetiche diverse se si dimostrassero più efficienti o più economiche.
Fra tutti i combustibili fossili, dalla Seconda guerra mondiale in poi il gas ha registrato la crescita di consumi più rilevante. Dal 1950 la produzione è aumentata di oltre 12 volte. A quell’epoca il gas forniva circa il 10% dell’energia globale, oggi la percentuale supera il 23%. Il gas inoltre rilascia una quantità di anidride carbonica per unità di energia molto inferiore a quella degli altri combustibili fossili. Anche per il gas è aumentata la produzione nel corso degli anni: le riserve sono più che raddoppiate dal 1973 (in quell’anno, dati i consumi dell’epoca, il gas era sufficiente per i successivi 47 anni; nel 1999, nonostante la crescita dei consumi, le riserve erano sufficienti per altri 60 anni).
Il carbone è molto inquinante ed è stato calcolato che ogni anno provoca più di 10.000 morti. Nonostante tutto potrà fornire energia ancora a lungo: dal 1975 l’incremento delle riserve totali è stato del 38%. Nel 1999 le riserve erano sufficienti per altri 230 anni, a dispetto di un aumento dei consumi.
Recente è lo sfruttamento del gas metano, presente nei giacimenti di carbone. Le quantità precise recuperabili dai giacimenti non sono note, ma dovrebbero essere addirittura doppie rispetto alle attuali riserve di gas naturale.
Crescente attenzione è stata dedicata alle sabbie bituminose e all’olio di scisto. L’Energy Information Agency ritiene che dalle sabbie bituminose si possano estrarre circa 550 miliardi di barili di petrolio. Per non dire delle quantità di olio di scisto: è stato stimato che su scala globale è circa 242 volte più abbondante del petrolio tradizionale. L’olio di scisto costituisce una riserva di energia otto volte superiore a tutte le altre risorse messe insieme: petrolio, gas, carbone, torba e sabbie bituminose. Questa quantità di energia corrisponde a oltre 5000 anni di consumo energetico totale ai livelli attuali.
L’energia nucleare fornisce il 6% della produzione energetica globale e il 20% dell’energia elettrica nei paesi che dispongono di centrali nucleari. L’energia nucleare tradizionale è basata sulla fissione delle molecole di uranio 235: al momento della scissione esse sprigionano energia termica. L’energia prodotta da un grammo di uranio 235 equivale a quella fornita da quasi tre tonnellate di carbone. Durante la normale attività non genera inquinamento: non emette anidride carbonica e le emissioni radioattive sono in realtà inferiori alla radioattività prodotta dalle centrali elettriche a carbone. Però i materiai di scarto prodotti rimangono radioattivi per 100 mila anni. Finora comunque il nucleare non ha dato prova di grande efficienza nella produzione di energia ed è probabile che ciò rappresenti il principale motivo per cui non è stato impiegato su scala più ampia.
Infine ci sono le fonti di energia rinnovabili, che non si esauriscono: sole, vento, acqua e calore interno della Terra. L’energia idroelettrica in 63 paesi rappresenta più del 50% della produzione e almeno il 90% in 23 di essi.
La quantità di energia irraggiata dal Sole è equivalente a quella necessaria per tenere sempre accesa una lampadina da 180 watt per ogni metro quadrato della superficie terrestre. Perfino utilizzando poco efficienti celle solari, un quadrato di 469 chilometri di lato 8cioè lo 0,15% della terraferma9 situato nella fascia tropicale sarebbe sufficiente per soddisfare l’intera domanda energetica attuale.
• L’ambientalista scettico.
Capitolo XII: Risorse non energetiche
Non c’è preoccupazione soltanto per l’esaurimento delle fonti energetiche, ma anche per un gran numero di altri materiali non rinnovabili. E il timore di dar fondo alle risorse è sempre esistito: nell’antichità ci si preoccupava per l’esaurimento del rame e dello stagno. Il bestseller del 1972 I limiti dello sviluppo ha ripreso le ansie del passato, sostenendo che la maggior parte delle risorse sarebbero presto scomparse: l’oro nel 1981, l’argento e il mercurio nel 1985 e lo zinco nel 1990
Nel 1980 l’economista Julian Simon si dichiarò pronto a scommettere 10.000 dollari che il prezzo di una qualsiasi materia, a scelta della controparte, sarebbe diminuito nell’arco dell’anno successivo. Gli ambientalisti Ehrlich, Harte e Holdren, tutti della Stanford University, accettarono la sfida e puntarono sull’aumento del prezzo di un paniere costituito da cromo, rame, nichel, stagno e tungsteno, proponendo un arco di tempo di dieci anni per la verifica. Nel settembre del 1990 era diminuito non solo il prezzo complessivo del paniere scelto dai tre ambientalisti, ma anche quello di ogni singolo materiale: il cromo era calato del 5% e lo stagno addirittura del 74%. Avrebbero perso anche scommettendo sul prezzo di petrolio, generi alimentari, zucchero, caffè, cotone, lana, minerali o fosfati.
Cemento. Ogni anno si spendono per il cemento 111 miliardi di dollari, pari al 34% della spesa totale per le materie prime. Si tratta di un legante chimico composto da calcare mescolato a sabbia o ghiaia. E’ la base dell’edilizia moderna ed è il materiale per costruzioni più usato al mondo. Sebbene ogni anno vengano utilizzati oltre 1,5 miliardi di tonnellate di cemento, i materiali necessari per prepararlo sono disponibili in molte parti del mondo in quantità pressoché illimitate.
Alluminio. All’alluminio è imputabile il 12% della spesa per le materie prime. E’ stato scoperto nel 1827 ed essendo molto difficile da estrarre era molto costoso, tanto che Napoleone III aveva forchette e cucchiai di alluminio realizzati apposta per lui e per gli ospiti di riguardo. I visitatori di minor rango dovevano accontentarsi di posate d’oro. Nonostante la produzione e il consumo siano aumentati più di 3 mila volte dall’inizio del XX secolo, il prezzo si è ridotto di otto noni. L’alluminio costituisce l’8,2% della crosta terrestre ed è, dopo il silicio, l’elemento più abbondante. Si è calcolato che le riserve oggi conosciute saranno sufficienti per altri 276 anni, al tasso di consumo corrente.
Ferro. Per il ferro ogni anno vengono spesi circa 31 miliardi di dollari, ovvero circa l’11% della cifra totale per le materie prime. E’ utilizzato da sempre perché molto diffuso (costituisce il 5,6% della crosta terrestre), facile da prendere, semplice da fondere e modellare, resistente al degrado e all’usura. Oggi più di due terzi di tutto il ferro utilizzato sono impiegati per la produzione dell’acciaio. Anche se il consumo è aumentato nel corso del XX secolo, non c’è stato un corrispondente aumento del prezzo. Nonostante l’abbondanza, la paura di un rapido esaurimento è stata ricorrente. Andrew Carnegie, pioniere della siderurgia americana, riteneva che fosse imminente già nel 1908, quando dichiarò: "Ormai da molti anni assisto con preoccupazione alla costante riduzione delle nostre scorte di minerale di ferro. E’ allarmante apprendere che le riserve di minerali ricchi, un tempo ritenute abbondanti, dureranno a malapena lo spazio della generazione attuale e che per gli anni successivi di questo secolo rimarranno solo minerali poveri. Il mio giudizio di uomo pratico e abituato a occuparsi di quei fattori materiali che sono alla base della prosperità nazionale è che sia tempo di cominciare a pensare al domani". Ma grazie ai progressi della tecnologia oggi è possibile sfruttare minerali d’estrazione contenente appena il 30-40% di ferro. Nel 1957 il Geological Survey americano aveva calcolato che le risorse mondiali di ferro ammontavano a 25 miliardi di tonnellate: da allora ne sono state utilizzate già 35.
Rame. La spesa annuale per il rame, che costituisce l’8% delle materie prime utilizzate, supera i 26 miliardi di dollari. Questo materiale non è abbondante come l’alluminio e il ferro e costituisce appena lo 0,0058% della superficie terrestre. Sebbene tale quantità sia sufficiente per 83 milioni di anni di consumo, in realtà l’uomo non sarà mai in grado di estrarla tutta. E’ importante osservare che la parte più significativa delle risorse di rame non è localizzata nella crosta terrestre, ma nel fondo degli oceani: raccogliendola, le risorse di rame potrebbero ammontare a più di un miliardo di tonnellate. Quanto basta per almeno un secolo.
Oro e argento. Sono i metalli preziosi più conosciuti. L’oro è durevole e resistente, tanto che l’85% di quello estratto dall’inizio della storia è probabilmente ancora in uso. Si stima che la quantità totale di oro estratta in tutto il mondo fino a oggi sia di 100 mila tonnellate, corrispondenti a un cubo di appena 17 metri di lato. Circa 35 mila tonnellate compongono le riserve ufficiali detenute dalle banche centrali; il resto appartiene a privati cittadini sotto forma di lingotti, monete e gioielli.
Poi ci sono le risorse che sono fondamentali per la produzione di derrate alimentari: azoto, fosforo e potassio. Oggi circa il 6% della spesa totale per le materie prime è destinata all’azoto, indispensabile nell’agricoltura. Nessuna di queste sembra essere sul punto di finire.
Esaminando i dati precedenti, è chiaro che non si corre alcun pericolo di esaurire le materie prime. Studi condotti alla fine degli anni 80 hanno preso in considerazione 47 elementi impiegati nella produzione di materiali a elevato contenuto tecnologico e sono giunti alla conclusione che solo 11 sembrano disporre di risorse potenzialmente insufficienti (tantalio, mercurio, cadmio, tallio, oro, argento, bismuto, indio, stagno, arsenico, bario). Dal 1988, tuttavia, le riserve di tutti questi elementi, a eccezione di tre (tantalio, mercurio e cadmio), sono aumentate. Il tantalio è utilizzato in campo aerospaziale. La diminuzione delle riserve di mercurio è provocata soprattutto dal fatto che se ne usa una quantità inferiore: rispetto al 1971, il consumo si è ridotto a meno di un terzo e manca quindi l’interesse commerciale a cercare nuove risorse. Il cadmio è usato soprattutto per la produzione di batterie ricaricabili e la sostituzione di questo metallo, in caso di esaurimento, non presenta difficoltà particolari.
Perché le risorse non si esauriscono? Le motivazioni sono le stesse che valgono per petrolio, gas e carbone. Innanzitutto le riserve conosciute non sono le sole esistenti: è possibile, e succede di continuo, che vengano trovati nuovi depositi. Quando si scoprono pochi depositi nuovi si deve sempre tener presente che la ricerca costa: indagini e nuovi impianti di estrazione vengono avviati quando effettivamente servono, cioè poco prima dell’esaurimento dei depositi noti. In secondo luogo le tecniche di estrazione e di sfruttamento diventano sempre più efficienti, così come quelle di costruzione. Oggi un’automobile è costruita con la metà del metallo utilizzato nel 1970. Le fibre ottiche sono in grado di trasmettere lo stesso numero di telefonate per le quali venti anni fa servivano 625 fili di rame. E la qualità del segnale è pure migliorata. I giornali possono essere stampati su fogli di carta sempre più sottile. L’acciaio è diventato più resistente e dunque ne occorre di meno per costruire ad esempio un ponte. Gli utensili durano di più e non è necessario cambiarli spesso. In terzo luogo, i metalli possono essere riciclati e in questo modo le riserve ”aumentano”. Oggi viene riciclato circa un terzo della produzione globale di acciaio, il 25-30% dell’alluminio, il 25% del nichel, addirittura il 45-50% di argento e piombo, ecc. L’aumento dell’efficienza accompagnato dal riciclaggio trasforma una risorsa da limitata a inesauribile. Se la domanda di una materia prima di cui rimangono 100 anni di consumo aumenta dell’1% all’anno, ma il riciclaggio e/o l’efficienza del 2%, il materiale non si esaurirà mai.
• L’ambientalista scettico
Capitolo XIII-XIV: Acqua
Gli abitanti della Terra aumentano, e così pure il consumo di acqua. Ciò ha fatto dire a molti che c’è una «grave crisi idrica in agguato». Il rapporto ambientale delle Nazioni Unite Global Environment Outlook Report 2000 afferma che la scarsità di acqua costituisce una «vera e propria emergenza» e che «il ciclo dell’acqua non ha la capacità di rispondere in modo adeguato alle esigenze idriche dei prossimi decenni. Lo sviluppo in molte parti del mondo è già ostacolato da gravi carenze idriche e la situazione sta peggiorando». inoltre opinione diffusa che la carenza idrica aumenterà la probabilità di «guerre per l’acqua».
La Terra è chiamata il ”pianeta blu” perché il 71% della sua superficie è ricoperto d’acqua. stato calcolato che la quantità totale raggiunge il volume di 13,6 miliardi di chilometri cubi, di cui il 97,2% è costituito dagli oceani e il 2,15 dalle calotte polari. Gli esseri umani usano il restante 0,65% di acqua disponibile, di cui lo 0,62% è costituito dalle acque freatiche.
Servono secoli o millenni perché l’acqua potabile si accumuli nelle falde. Si calcola che se si sfruttasse tutta l’acqua freatica degli Stati Uniti, sarebbero poi necessari 150 anni per la ricostituzione completa della falda. Lo sfruttamento sconsiderato dell’acqua, dunque, può essere paragonato all’estrazione di qualsiasi altra risorsa naturale non rinnovabile. Ma le riserve sono alimentate in continuazione dal costante movimento dell’acqua tra oceani, aria, suolo e fiumi nel cosiddetto ciclo idrologico.
Le piogge totali sulla terraferma ammontano a circa 113 mila chilometri cubi all’anno: calcolando un’evaporazione di 72 mila chilometri cubi nello stesso periodo di tempo, l’afflusso netto di acqua potabile è di circa 41 mila metri cubi annui, cioè come uno strato di acqua alta 30 centimetri su tutta la crosta terrestre. Poiché però parte di questa pioggia cade su aree remote, l’acqua piovana effettivamente a disposizione è circa 32.900 chilometri cubi.
importante distinguere tra prelievo e uso di acqua. Il primo indica la quantità rimossa e in genere gran parte dell’acqua prelevata viene restituita al suo ciclo. Per esempio, nell’Unione europea e negli Stati Uniti circa il 46% di quella prelevata è usato per il raffreddamento delle centrali elettriche e dopo l’uso è di nuovo immessa nel circolo per un successivo utilizzo. Allo stesso modo, l’80-90% dell’acqua impiegata nell’industria è restituita per altri usi. Perfino il 30-70% dell’acqua utilizzata per l’irrigazione ritorna nei laghi e nei fiumi, o penetra nelle falde acquifere rientrando perciò nel ciclo idrologico. Nell’analizzare il consumo di acqua è quindi più utile misurare la quantità che diventa irrecuperabile.
Durante il XX secolo l’uso di acqua sulla Terra è salito da circa 330 chilometri cubi a 2100. Nondimeno, l’uso totale è ancora inferiore al 17% dell’acqua accessibile e, anche dando per certa la previsione peggiore, nel 2025 ne verrà utilizzato solo il 22%. Negli ultimi 100 anni l’utilizzo quotidiano per persona è passato da 1000 a quasi 2000 litri. Tale aumento è dovuto soprattutto all’incremento per usi agricoli (+ 50%). L’uso di acqua per scopi agricoli, tuttavia, è al di sotto dei 2000 litri pro capite, grazie soprattutto al maggior livello di efficienza.
Nella questione ”acqua” vanno considerati tre problemi principali:
1) La distribuzione delle precipitazioni non è uniforme. Ciò significa che l’accesso alle risorse idriche non è equamente distribuito e che alcuni paesi hanno a disposizione un volume di acqua molto inferiore a quanto indica la media globale;
2) La popolazione continua ad aumentare e poiché le precipitazioni rimangono sempre costanti, le risorse idriche per ciascun individuo diminuiranno. quindi possibile che in futuro la scarsità di acqua si aggravi;
3) Più paesi traggono acqua dalla medesima fonte. Per esempio la maggior parte delle falde acquifere del Medio Oriente sono comuni a più nazioni. Questo fatto conferisce alla questione idrica una prospettiva sovranazionale e se la cooperazione viene a mancare la trasforma in un serbatoio di conflitti internazionali.
Oltre ai problemi appena citati ci sono altre due questioni. La prima è la preoccupazione per l’inquinamento dell’acqua. La seconda riguarda la carenza nei paesi in via di sviluppo e ciò rappresenta un serio ostacolo al benessere globale. A ben guardare la causa del problema non è la scarsità di acqua, ma la mancanza di investimenti nelle infrastrutture.
Un essere umano ha bisogno di bere circa 2 litri di acqua al giorno, un’esigenza non difficile da soddisfare. Il più comune metodo di analisi del problema si basa sull’indice di stress idrico proposto da Malin Falkenmark, che stabilisce il livello approssimativo minimo di acqua pro capite necessario a mantenere una ragionevole qualità di vita in un paese a sviluppo medio, posizionato in una regione arida. Così si è calcolato che un uomo ha bisogno di circa 100 litri di acqua al giorno per soddisfare sete, necessità domestiche e igiene personale, più una quota aggiuntiva (500-2000 litri) per l’industria, l’agricoltura e la produzione di energia. Poiché spesso la necessità di acqua è più forte nella stagione secca, per tale periodo il livello di stress idrico è più elevato: se la disponibilità è inferiore a 4660 litri per persona il paese andrà incontro a uno stress idrico periodico o costante. Se la quantità è inferiore a 2740 litri si dice che il paese è in scarsità cronica, mentre al di sotto di 1370 litri si parla di scarsità assoluta.
Come fa il Kuwait a tirare avanti con appena 30 litri di acqua al giorno pro capite? Tanto il Kuwait come la Libia e l’Arabia Saudita dissalano l’acqua di mare. In Kuwait la dissalazione copre oltre la metà dell’uso totale di acqua. Attualmente dissalare l’acqua marina costa tra 50 e 80 centesimi di dollaro al metro cubo: un po’ più cara di quella naturalmente a disposizione, ma comunque un prezzo accettabile. Ciò suggerisce una conclusione: è possibile disporre di acqua a sufficienza purché si sia in grado di pagarla. Ancora una volta è chiaro che il principale limite alla soluzione dei problemi è la povertà e non l’ambiente.
La scarsità dell’acqua non è data solo dalla povertà delle risorse, ma soprattutto dal cattivo uso che se ne fa. Numerosi paesi se la cavano egregiamente con risorse idriche assai limitate, poiché ne fanno un uso razionale. il caso di Israele, dove c’è una disponibilità giornaliera di appena 969 litri a persona: grazie ai sistemi di irrigazione a goccia e al riciclaggio degli scarichi domestici riesce a gestire bene una quantità di acqua che altrimenti le creerebbe gravi difficoltà.
La maggior parte dell’acqua consumata viene usata per l’agricoltura: a livello globale il 69% è impiegato per scopi agricoli rispetto al 23% per l’industria e l’8% per usi domestici. Una riduzione nel settore agricolo comporterebbe quindi un rilevante risparmio. E infatti molti paesi, piuttosto che consumare le riserve idriche, preferiscono importare massicce quantità di cereali (ancora Israele, che ne compra l’87 per cento del totale). Comunque proprio nel settore dell’agricoltura ci sono le maggiori opportunità di migliorare l’efficienza (per esempio nei sistemi d’irrigazione, dove attualmente si calcola che lo spreco sia compreso tra il 60 e l’80%).
Diversi studi hanno dimostrato che quasi senza costi aggiuntivi il risparmio di acqua nell’industria potrebbe oscillare dal 30 al 90% e che anche la distribuzione domestica offre grandi potenzialità in tal senso.
Anche se l’aumento della popolazione farà salire la domanda e provocherà uno stress idrico, la scarsità di questa risorsa può essere affrontata con successo. La soluzione deriverà in parte da aumenti di prezzo, che ne scoraggeranno l’uso sconsiderato. Un altro contributo potrà venire dall’aumento delle importazioni di prodotti, che farà diminuire la domanda di acqua nel settore agricolo, rendendola così disponibile per l’industria e per il consumo domestico. Infine c’è la dissalazione, procedura di emergenza da cui sarà possibile ricavare quantità di acqua potabile praticamente illimitate.
Con l’aumentare della domanda e il diminuire della risorsa, è possibile che scoppino delle guerre? Esistono buone ragioni per ritenere esagerato il timore di conflitti per l’acqua. Come ha osservato un analista militare d’Israele: «Perché scatenare una guerra per l’acqua? Con il costo di una settimana di combattimenti si possono costruire cinque impianti di dissalazione. Risultato: niente perdite di vite umane, niente crisi internazionali e, invece, disponibile sul proprio territorio un’affidabile fonte di approvvigionamento che non è necessario difendere dal nemico».
Il professor Aaron Wolf ha esaminato l’intero archivio di dati relativi alle crisi internazionali e ha scoperto che solo 7 delle 412 nel periodo 1918-94 erano state provocate almeno in parte da questioni legate all’acqua. In tre di esse non era stato sparato nemmeno un colpo e nessuna era stata abbastanza violenta da essere definita guerra. Wolf è giunto alla conclusione che «la storia dei conflitti armati per l’acqua è meno drammatica di quanto la letteratura in materia porterebbe a credere… per quanto è dato di sapere, una guerra per l’acqua non è mai stata combattuta». A fronte della mancanza di casi di guerre combattute per l’acqua ci sono oltre 3600 trattati sulle risorse idriche internazionali stipulati nel corso della storia tra l’805 d.C. e il 1984: soltanto negli ultimi cento anni ne sono stati firmati oltre 149.
Nel 1997 le Nazioni Unite hanno pubblicato il documento intitolato Comprehensive Assessment of the Freshwater Resources of the World. Il rapporto si apre con l’affermazione che l’aumento di stress idrico è provocato ”soprattutto da una cattiva allocazione dell’acqua, da uno spreco delle risorse disponibili e dalla mancanza di un modello gestionale adeguato”. L’acqua disponibile è sufficiente, ma deve essere gestita meglio.
• L’ambientalista scettico
Capitolo XV: Aria
La presenza di piombo nell’aria è documentata già 6000 anni fa. Intorno al 500 a.C. la quantità di piombo nei cieli della Groenlandia era quattro volte superiore rispetto ai tempi in cui le civiltà europee non conoscevano ancora la fusione dei metalli. Seneca si lamentava per il «puzzo, la fuliggine e l’aria pesante» che si respiravano a Roma. Nel 1661 John Evelyn osservava: «Tutto ciò che la maggior parte dei cittadini di Londra può respirare non è altro che una caligine densa e malsana, accompagnata da un disgustoso fumo carico di fuliggine che corrompe i polmoni».
Gli inquinanti atmosferici sono numerosi, ma i sei più importanti sono: particelle (fumo e fuliggine), anidride solforosa, ozono, piombo, ossidi di azoto (comprendente ossido di azoto e biossido di azoto), monossidi di carbonio.
Particelle. noto da tempo che fuliggine, particelle e anidride solforosa sono causa di di tosse e di altri disturbi respiratori. A Londra nel 1952 per colpa di una grave ondata di smog, morirono 4.000 persone in una settimana. Stando ai ricercatori, le particelle sembrano essere la principale causa di mortalità da inquinamento. Si ritiene che le polveri, entrando nel sistema respiratorio raggiungano i polmoni e vi si insedino, causando alterazioni nella normale attività polmonare. Mentre le particelle più grandi vengono bloccate nel naso o nella gola, quelle molto piccole riescono a insinuarsi negli alveoli polmonari. Fino alla metà degli anni Ottanta tutte le particelle venivano classificate come fuliggine o fumo, poi però si iniziò a distinguerle per le dimensioni. Le particelle fini hanno un diametro inferiore a un decimilionesimo di metro (Pm10). Più recentemente sono state prese in esame anche particelle ancora più piccole, le PM2.5, che sono le più pericolose perché si introducono nei polmoni proprio dove avviene lo scambio gassoso. Le Pm2.5 derivano dalla combustione dei motori dei veicoli, dalle emissioni delle centrali elettriche e delle fabbriche, dai caminetti e dalle stufe a legna. Le Pm10 provengono dalla polvere e dall’usura e logoramento di parti meccaniche. L’inquinamento da particelle provoca ogni anno negli Stati Uniti all’incirca 135 mila morti premature (cioè circa il 6% di tutti i decessi in un anno). Per capire le proporzioni del disastro, basta pensare che nel 1997 i morti americani per incidenti stradali sono stati 42.000. Si pensa che l’inquinamento da particelle colpisca soprattutto gli anziani, ma negli Stati Uniti ogni anno provoca circa 8 milioni di casi di bronchite acuta tra i bambini. Comunque dagli anni Sessanta a oggi è diminuita la concentrazione di particelle negli Stati Uniti (-62%) e nel Regno Unito (-95%). Questa diminuzione è legata alla diminuzione nelle emissioni di anidride solforosa grazie alla diminuzione del consumo di combustibili fossili (specialmente carbone ad alto tenore di zolfo), e all’uso di depuratori sulle ciminiere delle centrali elettriche. Inoltre c’è stato un calo di particelle nelle città anche perché si costruiscono centrali elettriche lontano dai centri abitati e si costruiscono ciminiere più alte, che lanciano più lontano i gas. Un colpo all’inquinamento da particelle si deve anche al fatto che oggi non si usa quasi più il carbone coke e gli impianti di riscaldamento a gasolio vengono sostituiti da quelli a gas. Infine, naturalmente, le auto odierne inquinano di meno grazie alle marmitte catalitiche.
Piombo. Largamente utilizzato fin dall’antichità: nell’antica Roma di piombo erano le condutture dell’acqua, nel Medioevo lo si aggiungeva addirittura al vino per correggerne il sapore, con esiti letali. anche uno degli additivi della benzina super. molto tossico e un’alta concentrazione nel sangue porta crampi, coma e morte. Implica inoltre notevoli rischi in gravidanza: gli studi hanno rilevato un aumento di aborti spontanei se i genitori (o anche uno solo di loro) sono stati esposti al piombo sul luogo di lavoro. Negli Stati Uniti ogni anno gli ospedali registrano tra i 12 mila e i 16 mila ricoveri di bambini avvelenati da piombo. Di questi circa 200 muoiono e il 30% dei sopravvissuti riporta danni permanenti come ritardo mentale o paralisi. Negli Stati Uniti il processo di eliminazione della benzina con piombo ha avuto grandi conseguenze sulle concentrazioni del metallo nell’aria: tra il 1973 e il 1986 (periodo in cui fu eliminata tutta la benzina con piombo) il contenuto della sostanza nel sangue degli americani è diminuito dell’80%. Si calcola che la mortalità annua si sia ridotta di 22 mila decessi.
Anidride solforosa. La regolamentazione delle emissioni di anidride solforosa è stata una conseguenza del timore, diffuso negli anni Ottanta, delle piogge acide. Sebbene in seguito si sia dimostrata la scarsa nocività delle piogge acide, le regolamentazioni introdotte hanno avuto l’indubbio merito di ridurre le emissioni di particelle. Durante la combustione parte dell’anidride solforosa generata si ossida e si condensa intorno a minuscoli nuclei di materiale e forma le particelle. L’anidride solforosa danneggia inoltre monumenti, edifici e statue, perché l’anidride si trasforma in acido solforico che erode la pietra. Nel 1983 entrò in vigore in Europa un protocollo per ridurre le emissioni del 30% entro il 1993: nell’Unione europea le emissioni di anidride solforosa sono diminuite costantemente dal 1980. Nel Regno Unito le concentrazioni di anidride solforosa respirata ogni giorno dagli abitanti sono passate da 180µg per metro cubo del 1962 ad appena 21µg del 2001.
Ozono. Quello presente nell’atmosfera è dannoso perché irrita l’apparato respiratorio e ha effetti negativi sulla crescita delle piante. Ozono e ossidi di azoto sono i principali responsabili della formazione dello smog marrone, tipico per esempio di Los Angeles e di molte città in via di sviluppo. Negli Stati Uniti i picchi di ozono sono diminuiti di quasi il 30% dal 1977.
Ossidi di azoto. Sono generati soprattutto dai motori dei veicoli e dalle centrali elettriche. Con l’anidride solforosa contribuiscono alle piogge acide e possono provocare problemi respiratori e infezioni polmonari nei bambini e in chi soffre di asma. Sul terreno possono avere effetti fertilizzanti, ma sono dannosi per il mare e i corsi d’acqua poiché provocano la crescita incontrollata delle alghe (con conseguente scarsa ossigenazione delle acque e morìa dei pesci). Negli Stati Uniti l’inquinamento da ossido di azoto è in progressiva diminuzione: -38% dal 1975. In Germania il calo è stato del 15% dal 1985, in Spagna del 17% dal 1987, in Canada del 32% dal 1980. Buona parte delle riduzioni si deve all’uso delle marmitte catalitiche.
Monossido di carbonio. Se inalato viene assorbito dal sangue al posto dell’ossigeno e provoca morte. Nelle città il monossido di carbonio proviene soprattutto dalla combustione incompleta dei motori a benzina. Negli Stati Uniti dal 1970 in poi le concentrazioni di monossido di carbonio sono diminuite del 75%.
Come si capisce dai dati precedenti, la qualità dell’aria è migliorata in modo sostanziale, e tutto ciò non solo nel Regno Unito e negli Stati Uniti, ma anche nella maggior parte dei paesi occidentali. La Banca mondiale ha affermato che «la qualità dell’aria nei paesi dell’Ocse è decisamente migliorata». Questa evoluzione positiva non riguarda invece i paesi del Terzo mondo. Oggi le maggiori concentrazioni di inquinanti si registrano nelle megalopoli dei paesi in via di sviluppo. Se si osserva il processo che ha avuto luogo nel mondo occidentale si nota che per un periodo di 100-300 anni l’Occidente ha conosciuto un aumento di ricchezza accompagnato dalla crescita dell’inquinamento. In generale solo negli ultimi 40-100 anni i paesi del mondo industrializzato sono stati in grado di scindere la crescita economica dalla crescita dell’inquinamento. Secondo la spiegazione della Banca mondiale via via che acquisivano un maggior livello di ricchezza i paesi occidentali potevano permettersi di pagare dei costi pur di garantirsi un ambiente più pulito. L’inquinamento ha cominciato a essere ritenuto inaccettabile e dunque sono state prese delle decisioni a livello politico che hanno ottenuto buoni risultati. Se questa evoluzione ha avuto luogo nel mondo occidentale è lecito aspettarsi che avvenga anche nei paesi in via di sviluppo, man mano che il loro benessere economico aumenterà. A ciò contribuirà sicuramente lo sviluppo della tecnologia, che consente di perseguire la crescita economica e il miglioramento dell’ambiente nello stesso tempo.
La drastica riduzione degli agenti inquinanti nel mondo occidentale è un risultato straordinario, anche perché ottenuto mentre aumentava lo sviluppo economico e il numero dei potenziali agenti inquinanti. Negli Stati Uniti, per esempio, la quantità totale di chilometri percorsi dalle automobili è più che raddoppiato negli ultimi trent’anni. Nello stesso periodo anche l’economia è più che raddoppiata e la popolazione è cresciuta di un terzo. Ciononostante nello stesso periodo le emissioni di inquinanti sono diminuite di un terzo. Secondo la Banca mondiale, crescita e ambiente non sono fattori in competizione ma complementari. Senza un’adeguata protezione ambientale la crescita economica è fragile, ma senza crescita economica non è possibile dedicarsi alla protezione ambientale. La soluzione, dice la Banca, «non è produrre meno, ma produrre in modo diverso».
• L’ambientalista scettico
Capitolo XIX: Acqua
L’esploratore Thor Heyerdahl nel 1947 attraversò il Pacifico senza avvistare anima viva, navi o rifiuti per intere settimane. Quando nel 1970 attraversò l’Atlantico invece vide «molte più chiazze di petrolio che pesci» e concluse: «Era chiaro che l’umanità stava inquinando la sua sorgente più vitale, l’impianto di filtraggio indispensabile al nostro pianeta, l’oceano».
L’estensione degli oceani è tale che l’impatto dell’uomo su di essi è stato irrilevante: gli oceani contengono più di mille miliardi di miliardi di litri di acqua. Le Nazioni Unite nel 1990 dissero che «il mare aperto è ancora relativamente pulito […]. Le macchie di petrolio e i rifiuti sono frequenti lungo le rotte marine ma al momento comportano un impatto trascurabile sulle comunità di organismi che vivono in mare aperto».
stato stimato che nel 1985 circa il 60% dell’inquinamento da petrolio nelle acque marine fosse provocato da operazioni di routine delle petroliere durante il trasporto, mentre il 20% proveniva dalle frequenti fuoriuscite accidentali; un altro 15% circa era causato dalle infiltrazioni naturali provenienti dai fondali marini e dall’erosione dei sedimenti.
L’inquinamento da operazioni di routine delle petroliere è dovuto al fatto che quando queste viaggiano vuote utilizzano come zavorra l’acqua di mare. Nelle cisterne i residui di petrolio si mescolano all’acqua di zavorra che all’arrivo viene scaricata nel porto. Grazie all’obbligo di utilizzare nuovi sistemi di zavorra, l’inquinamento di questo tipo è in diminuzione.
Nel corso degli anni è diminuito il numero di incidenti che ha provocato fuoriuscite di petrolio: mentre prima del 1980 si registravano circa 24 incidenti di grandi dimensioni all’anno, negli anni Ottanta la cifra si è assestata intorno ai 9 all’anno per scendere a 8 negli anni Novanta. In modo simile la quantità di petrolio disperso è diminuita da circa 318 mila tonnellate all’anno negli anni Settanta a 110 mila tonnellate nei Novanta.
In un rapporto realizzato per il Congresso degli Stati Uniti sono stati analizzati due incidenti avvenuti su piattaforme petrolifere e quattro occorsi a navi cisterna. Il risultato è stato che, sebbene le specie marine coinvolte fossero state colpite in modo grave, il "ripopolamento è stato rapido in quasi tutti i casi presi in esame". Le conseguenze ecologiche ed economiche sono state "piuttosto contenute e, per quanto è possibile stabilire al momento, di durata relativamente breve". Il rapporto ha evidenziato che il petrolio è una sostanza presente in natura e, trascorso un certo tempo, la maggior parte di quello disperso risulta evaporata, degradata o aggregata in grumi di catrame. A simili conclusioni si arrivati anche nella valutazione dell’incidente della petroliera Braer (che ha interessato le coste britanniche nel 1993): nel 1994 si osservò che i livelli di contaminazione "erano diminuiti fino a raggiungere quelli osservati in siti molto lontani dal luogo dell’incidente".
Durante la ritirata delle sue truppe nella Guerra del Golfo nel 1991 Saddam Hussein ordinò a una raffineria del Kuwait di disperdere in mare tra i 6e gli 8 milioni di tonnellate di petrolio, provocando il più grave caso di inquinamento da petrolio mai avvenuto in acque marine. Nel rapporto sul Golfo pubblicato nel 1992 Greenpeace descrisse l’avvenimento come un "disastro senza precedenti". Altri rapporti simili avanzavano ipotesi di estinzione di massa di specie marine e fornivano pessimistiche prognosi per il recupero del Golfo. Il ministro della Sanità del Bahrein affermò che le chiazze di petrolio rappresentavano "la più grave crisi ambientale dell’età moderna", che avrebbe potuto segnare la "fine delle risorse ambientali dell’intera regione". Allora un’unità composta da settanta esperti di scienze marine per condurre una serie di studi approfonditi per valutare i danni. Il rapporto fu pubblicato nel 1994 e le conclusioni di fondo erano tutte positive. Le specie marine erano "in condizioni assai migliori di quanto il più ottimista degli esperti avrebbe potuto prevedere". Le zone costiere erano state colpite più duramente, ma si erano "in gran parte riprese". Alle stesse conclusioni era giunto nel 1992 il laboratorio di biologia marina dell’Aiea, che aveva scoperto che in soli quattro mesi "il petrolio disperso si era in gran parte dissolto".
Quattro minuti dopo la mezzanotte del 24 marzo 1989 la petroliera Exxon Valdez, che trasportava più di un milione di barili di petrolio, s’incagliò nella baia Prince William Sound in Alaska. Dallo scafo fuoriuscirono 266 mila barili di petrolio, il che collocò l’incidente al ventesimo posto nella graduatoria della gravità. L’incidente è costato alla Exxon circa 3,5 miliardi di dollari: 2,1 miliardi sono stati spesi per l’opera di bonifica, quasi un miliardo per il risanamento del territorio, mentre ai pescatori locali sono andati circa 250 milioni di dollari. La fuoriuscita di petrolio ha ricoperto di uno spesso manto nero circa 320 chilometri di spiagge e ha interessato anche altri 1800 chilometri circostanti. stato stimato che l’incidente abbia provocato la morte di 300 esemplari di foca comune, 2800 lontre marine, 250 mila uccelli marini, 250 aquile americane e forse 22 orche assassine. Naturalmente è un prezzo elevato, però i 250 mila uccelli morti per la Exxon sono sempre meno di quelli che muoiono ogni giorno negli Stati Uniti andando a sbattere contro lastre di vetro, o del numero di quelli uccisi in due giorni dai gatti domestici in Gran Bretagna. Commissioni scientifiche hanno osservato negli anni successivi una sostanziale ripresa dell’habitat e delle specie animali colpite. Il National Oceanic and Atmospheric Administration (Noaa) ha pubblicato una valutazione a dieci anni di distanza dall’incidente, chiedendosi se l’area abbia registrato una reale ripresa: "La risposta precisa è ”Sì e no”. Da una parte il nostro lavoro sul campo, in laboratorio e sul fronte della teoria statistica indica che sì, in base a molti criteri la ripresa di un certo numero di specie che vivono nel tratto di escursione di marea è completa. Ma questo significa forse che tutte le tracce della più grande fuoriuscita di petrolio nella storia degli Stati Uniti siano sparite e che il Prince William Sound si è ripreso? No, non necessariamente". Ciononostante gli esperti del Noaa concludono che "la baia sembra aver imboccato con sicurezza la strada della ripresa, anche se questa non è stata ancora raggiunta". Quello che sorprende di più è che, sempre a detta del Noaa, le operazioni di bonifica hanno provocato più danni che altro. Il lavaggio a pressione della costa ha causato la gran parte dei decessi fra le specie marine. Infatti nei tratti di spiaggia esclusi dalla bonifica la vita è ripresa dopo solo 18 mesi, mentre nelle spiagge bonificate ci sono voluti dai tre ai quattro anni.
Uno degli indicatori più importanti della qualità dell’acqua marina è il livello di rischio per la salute. L’acqua contaminata da batteri, virus, protozoi, funghi e parassiti può causare infezioni a pelle e orecchie, mentre l’inalazione provoca disturbi respiratori. In passato, la contaminazione era spesso provocata dalla mancanza di una regolamentazione dei sistemi fognari. L situazione generale delle acque marine è in rapido miglioramento. Nel 1987 il 30% delle spiagge del Regno Unito era inquinato, mentre nel 2000 la percentuale era diminuita al 5%. In Danimarca nel 1980 il 14% i tutte le spiagge violava le norme sanitarie: nel 1999 questa percentuale era calata all’1,3%. La percentuale media dell’Unione europea è diminuita in modo ancora più rapido: mentre nel 1992 più del 21% di tutte le spiagge europee era inquinato, nel 199 la percentuale era del 5%.
I problemi principali delle acque costiere sono rappresentati dall’impoverimento di ossigeno, la cosiddetta ipossia, e dell’eccessiva crescita delle alghe che negli ultimi anni hanno interessato varie aree del mondo. Il fatto sembra imputabile all’eccessiva quantità di nutrienti che dalle aree agricole fluiscono negli estuari e nelle baie, nutrienti che favorirebbero una crescita abnorme delle alghe, la cui decomposizione provoca l’ipossigenazione delle acque. Il fenomeno è chiamato eutrofizzazione. Questo fenomeno è in effetti in aumento. Sebbene i fertilizzanti e la conseguente eutrofizzazione provochino la morte di determinati organismi negli habitat marini locali, hanno però consentito di ottenere maggiori risorse alimentari senza aumentare la superficie coltivare. E ciò ha salvato circa il 25% dell’attuale patrimonio forestale.
La Banca mondiale ha osservato che l’inquinamento dei fiumi da batteri fecali è legato in qualche modo alla ricchezza degli uomini che attingono alle loro acque. L’inquinamento in un primo momento cresce con il crescere della ricchezza. Poi si ferma, prima di tornare a salire quando si supera un certo livello di redditi. Ciò si spiega col fatto che fino a un certo punto di ricchezza l’uomo ha bisogno dell’acqua dei fiumi, dopo, quando ha più possibilità, attinge di preferenza alle acque freatiche e dunque diminuisce l’attenzione ai fiumi. Comunque anche il livello di ossigenazione delle acque è un buon sistema per verificare lo stato di salute dei corsi d’acqua, perché tanto più è migliore tanti più pesci ci sono. In proposito si è osservato che ovunque è migliorata: per esempio nelle acque del porto di New York nei primi anni Settanta non c’era più vita, ma da allora, grazie ai depuratori, la qualità dell’acqua è migliorata e sono tornati pesci e uccelli. A New York i liquami urbani non depurati sono diminuiti del 99,9% rispetto al 1930; a Londra gli scarichi sono diminuiti dell’88% fra il 1950 e il 1980. In Europa il numero dei corsi d’acqua in cattive condizioni è diminuito: da poco più del 16% nel 1970, la percentuale di fiumi con qualità di acqua scarsa o pessima è scesa al 10% nel 1997. A loro volta i fiumi con qualità di acqua buona o molto buona sono aumentati dal 37% del 1989 al 59,2 del 1997.
• L’ambientalista scettico CAPITOLI XVI-XVII-XVIII
Tra la fine degli anni Settanta e l’inizio del decennio successivo in alcune zone dell’Europa centrale si notò una moria delle foreste. Nelle zone più colpite della Baviera circa il 40% degli alberi erano malati. Un gruppo di scienziati tedeschi annunciò che le foreste europee erano minacciate dalle piogge acide e che almeno il 10% di tutti gli alberi erano in pericolo. Le immagini degli alberi morenti fecero il giro del mondo, seminando panico ovunque. Il rapporto Brundtland pubblicato dalle Nazioni Unite affermava, senza mezzi termini, che «in Europa le piogge acide uccidono foreste e laghi».
Il National Acid Precipitation Assessment Program (Napap), istituito dal governo americano, divenne il progetto di studio più ampio, duraturo e costoso del mondo: durò quasi dieci anni, coinvolse circa 700 ricercatori e costò mezzo miliardo di dollari. In un esperimento, quelli del Napap fecero crescere piante di tre specie di alberi esponendole a pioggia acida per almeno tre anni. Ebbene, nessuna delle tre specie rivelò alcun effetto derivante dalle precipitazioni e la velocità di crescita degli alberi non rivelava anomalie. Anzi, parecchi studi del Napap hanno dimostrato che gli alberi esposti a piogge acide moderate crescevano più in fretta.
In Norvegia sono stati condotti alcuni esperimenti su periodi di tempo ancora più lunghi e anche in questo caso è risultato che i previsti effetti negativi delle piogge acide «non potevano essere dimostrati».
Il Napap ha valutato anche le conseguenze delle piogge acide sui laghi americani. Si è visto che anche nelle regioni dove era stata registrata l’esposizione maggiore, i problemi di acidificazione interessavano solo il 4% dei laghi e l’8% dei corsi d’acqua. Le regioni montane occidentali e gli altipiani sudorientali ne erano praticamente esclusi in quanto l’acidificazione riguardava meno dell’1% dei bacini idrici. Da notare, tuttavia, che proprio quell’1% ha sofferto di una perdita di pesci. In Europa i paesi scandinavi subirono danni più consistenti. Il 27% dei laghi norvegesi presentava depositi di zolfo pericolosamente abbondnti; in Finlandia la percentuale era del 10%, in Svezia e Danimarca del 9. Nell’ultimo decennio comunque nella maggior parte dei laghi è diminuito il livello di acidità, soprattutto grazie alle riduzioni delle emissioni di anidride solforosa.
Le piogge acide in Europa hanno distrutto appena lo 0,5% dell’intero patrimonio forestale. Ed è stato dimostrato che i notevoli danni subiti dai boschi di Baviera, Polonia e Repubblica Ceca non erano dovuti alle piogge acide ma all’inquinamento locale. La situazione infatti è migliorata diminuendo le emissioni di anidride solforosa: -30% in Germania, -50 in Polonia e Repubblica Ceca. In seguito la situazione è migliorata ancora di più: nei sette anni successivi al 1989 le concentrazioni localizzate sono diminuite in percentuali variabili fra il 50 e il 70%.
Secondo alcune stime dell’Oms l’inquinamento che si trova all’interno delle case provoca un numero di morti circa 14 volte superiore a quello derivante dai veleni che si respirano all’aperto. Si calcola che l’inquinamento degli ambienti interni sia responsabile di 2,8 milioni di decessi ogni anno.
L’inquinamento degli ambienti interni costituisce un problema grave soprattutto nei paesi in via di sviluppo, dove circa 3,5 miliardi di persone, cioè più della metà della popolazione del pianeta, deve ricorrere ai combustibili tradizionali (legna da ardere, carbone di legna, letame essiccato e scarti vegetali) per cucinare e riscaldarsi. I combustibili di questo tipo producono fuliggine, particelle, monossido di carbonio e sostanze chimiche tossiche in quantità superiori rispetto ai combustibili moderni. L’aria all’interno di queste case è in media da 3 a 37 volte più carica di veleni dell’aria che si respira nelle strade delle megalopoli più inquinate del pianeta, come Pechino, Nuova Delhi e Città del Messico. Durante la preparazione del cibo, poi, viene utilizzata una quantità ancora maggiore di combustibili e i livelli già elevati crescono di un ulteriore 500%. I più esposti a questo tipo di inquinamento sono le donne e i bambini.
Nei paesi industrializzati, l’inquinamento degli interni è dovuto soprattutto a gas radon, fumo di sigarette, formaldeide e amianto. Il radon è un gas radioattivo che penetra negli edifici attraverso il terreno. Inalato in certe quantità provoca il cancro. Sebbene il dibattito sui suoi reali effetti sia ancora aperto, è stato stimato che il radon provochi tra i 15 mila e i 22 mila dei 157 mila decessi per tumore ai polmoni negli Stati Uniti. Per i paesi dell’Unione europea la stima della mortalità è di circa 10 mila casi, cioè l’1% del numero totale dei decessi per tumore.
Si sente spesso dire che le allergie sono sempre più diffuse e che ciò è legato in qualche modo al degrado ambientale in aumento. Tutti gli studi condotti nelle varie parti del mondo dimostrano che è aumentata l’incidenza dell’asma. C’è da chiedersi tuttavia se questi dati corrispondono a effettivo aumento oppure solo a una maggiore capacità da parte dei medici di diagnosticare il disturbo.
Si sa per certo che l’asma è in buona parte d’origine genetica. Un’altra importante causa della malattia è nelle condizioni ambientali in cui si vive: l’incidenza è maggiore nei centri urbani. Si sarebbe a questo punto tentati di credere che il disturbo sia provocato dall’inquinamento atmosferico. Ma questo è in diminuzione nei paesi occidentali, proprio dove l’asma è più diffuso. Invece il disturbo non è molto diffuso nei paesi in via di sviluppo, dove al contrario l’inquinamento cresce. Alcuni pensano che le cause di asma sia nel fumo di sigaretta: i figli di fumatori corrono un rischio due volte maggiore di avere questo disturbo. Le cause della patologia potrebbero trovarsi all’interno delle mura domestiche: anche gatti, scarafaggi, acari e spore fungine sembrano avere il loro ruolo nel disturbo. Infine un’innovativa teoria è la cosiddetta ”ipotesi dell’igiene”. La lotta vittoriosa contro le principali malattie infettive, condotta con antibiotici e vaccinazioni, non avrebbe lasciato al sistema immunitario umano niente di cui preoccuparsi, rendendolo impreparato a combattere batteri e virus. E perciò quando incontra microbi o altre sostanze, anche se del tutto innocui, il sistema immunitario reagisce in modo spropositato.
• L’ambientalista scettico
Capitolo XX: Niente più spazio per i rifiuti?
L’accumularsi di rifiuti suscita una diffusa preoccupazione e il dubbio se sia possibile smaltirli tutti. Per esempio Al Gore si dichiara inquieto per via della «marea crescente di rifiuti scaricati dalle città e dalle fabbriche». Ora che «le discariche straripano, gli inceneritori contaminano l’aria e gli stati vicini tentano di scaricare su di noi i loro problemi di rifiuti in eccesso, non sappiamo più dove sistemare i nostri rifiuti in modo da tenerli lontani sia dagli occhi sia dal cuore». Il fatto è, continua Al Gore, che abbiamo creduto che «ci sarebbe stata sempre una buca abbastanza larga e profonda da contenere tutti i nostri scarti. Ma, come molto altre convinzioni relative alla capacità illimitata della Terra di assorbire l’impatto della civiltà umana, anche questa si è rivelata sbagliata». Anche Isaac Asimov avverte che «quasi tutte le discariche esistenti stanno raggiungendo la capacità massima e stiamo esaurendo lo spazio a disposizione per crearne di nuove».
La produzione di spazzatura cresce di pari passo con l’aumento del Pil: più si diventa ricchi, più immondizia si produce.
Chertow, esperto in gestione dei rifiuti, afferma che le paure degli anni Novanta relative alla futura impossibilità di smaltire rifiuti negli Stati Uniti sono infondate: «Le immagini trasmesse nei telegiornali della sera, che mostravano cumuli di rifiuti sempre più alti e nessuno spazio a disposizione per smaltirli, hanno gettato nel terrore sindaci e direttori di enti pubblici. Ai bambini veniva insegnato che il modo migliore per respingere l’invasione di gabbiani che calavano ogni giorno sulle discariche era lavare con cura le bottiglie e ammucchiare i giornali vecchi. Tuttavia la crisi prevista non si è verificata».
Secondo i dati Epa del 2000, ogni cittadino americano produce circa 4,5 libbre, cioè quasi due chilogrammi, di rifiuti al giorno, il che equivale a circa 200 milioni di tonnellate all’anno. Però la quantità di quelli che vengono gettati nelle discariche ha smesso di crescere a partire dagli anni Ottanta e al giorno d’oggi gli americani ne mandano al macero meno di quanto facevano nel 1979. La ragione principale è nel fatto che sempre più rifiuti vengono inceneriti, riciclati o trasformati in compost.
probabile che gli americani continueranno a produrre ogni anno almeno 110 milioni di tonnellate di rifiuti destinati alle discariche. Si immagini che ciò accada fino al 2100: quanto spazio sarebbe necessario per contenere tutti questi rifiuti? Si supponga di rovesciarli tutti in un’unica discarica, fino all’altezza massima di 30 metri. Nel 2100 la quantità totale di immondizia destinata alle discariche degli Stati Uniti occuperebbe un quadrato di circa 23 chilometri di lato. Ma attendersi una produzione stabile di rifiuti è errato: la crescita economica farà aumentare tale quantità e aumenterà anche la popolazione (secondo il Census Bureau raddoppierà entro il 2100). Calcolando dunque l’aumento della popolazione americana e la crescita della produzione pro capite di rifiuti la grande discarica sarà un quadrato di 29 chilometri di lato. Tutti i rifiuti americani del XXI secolo potrebbero essere smaltiti in un’unica discarica di circa 840 chilometri quadrati: un undicimillesimo dell’intera superficie continentale degli Stati Uniti. Tuttavia, lo scenario basato sull’ipotesi di un aumento continuo della produzione di rifiuti è probabilmente esagerato, dato che la crescita economica riguarderà in particolare il settore dei servizi e dell’informatica. E persino nell’industria manifatturiera prevarrà la tendenza a usare sempre meno materiali.
La localizzazione delle discariche è sicuramente un problema, perché nessuno vuole vivere vicino a un simile luogo. I rifiuti rappresentano dunque un problema politico, ma non di mancanza di spazio. Però si deve tener presente che oggi le discariche sono piuttosto sicure per la salute. Secondo le stime dell’Epa le attuali norme ambientali che regolano le 6000 discariche degli Stati Uniti garantiscono che nell’arco dei prossimi 300 anni causeranno non più di 5,7 casi di morte per cancro, cioè una ogni cinquant’anni. Il dato va compreso nella prospettiva dei 563 mila decessi annui per cancro negli Stati Uniti.
Per quanto riguarda gli altri paesi, viene prodotta molta meno immondizia rispetto agli Stati Uniti. Per esempio Giappone e Francia si fermano rispettivamente a 1,1 e 1,3 chili al giorno pro capite. In Germania, grazie a norme severe, la produzione di rifiuti era di 1,2 chilogrammi ma è calata del 29% dal 1980. Se la produzione di immondizia del Regno Unito dovesse aumentare agli stessi ritmi di quella americana (e così non è, perché la crescita demografica è molto più lenta) per lo smaltimento dell’intera produzione del XXI secolo sarebbe sufficiente una discarica quadrata con un lato di 13 chilometri.
Negli Stai Uniti vengono recuperati con il riciclaggio la carta, il vetro, la plastica e i metalli. necessario tuttavia chiedersi se il riciclaggio rappresenti un buon investimento delle risorse economiche. Forse si risparmierebbe di più bruciando negli inceneritori la carta usata, sfruttando l’energia termica così prodotta. Certo, si dovrebbero tagliare più alberi, ma in tal modo si eviterebbe di impiegare energia per raccogliere, separare, preparare e filtrare la carta da recuperare.
• L’ambientalista scettico
Capitolo XXIII: Biodiversità
Norman Myers nel libro The Sinking Ark (1979) diceva che ogni anno il pianeta perde quasi 40 mila specie, vale a dire 109 al giorno. Il biologo di Harvard Edward Wilson ha annunciato che ogni anno si estinguono tra 27 mila e 100 mila specie. Nel 1981 il professor Paul Ehrlich ha stimato che in un anno scompaiono quasi 250 mila specie.
Da quando la vita sulla Terra ha avuto origine con i batteri, 3,5 miliardi di anni fa, l’estinzione è stata parte integrante dell’evoluzione: gli esseri che non erano in grado di sopravvivere si sono estinti. L’estinzione è il destino ultimo di tutte le specie viventi.
Non si conosce il numero reale di specie esistenti: la valutazione oscilla tra 10 e 80 milioni. Fino a oggi sono stati contati circa 1,6 milioni di specie, soprattutto insetti.
Pimentel e altri ricercatori hanno compiuto dei tentativi per calcolare il valore totale della biodiversità. Se si sommano tutti gli usi che l’uomo fa della natura (ecoturismo, smaltimento dei rifiuti, impollinazione, produzione agricola ecc.) la cifra ammonta a un valore annuo compreso fra 3 e 33 mila miliardi di dollari, ovvero fra l’11 e il 127% dell’economia mondiale. Tuttavia il problema principale per quanto riguarda la biodiversità non è il costo dell’intero ecosistema, bensì il valore che diamo alla scomparsa di una specie di formica, per esempio, fra milioni di formiche.
In natura la competizione provoca la continua scomparsa delle specie. Si stima che oltre il 95% di tutte quelle esistite sia ormai estinto; si sa inoltre che una specie sopravvive di solito per un periodo compreso fra 1 e 10 milioni di anni. Rapportando questi dati a 1,6 milioni di specie catalogate si può stimare che l’estinzione naturale sia di circa due specie ogni decennio. Dal 1600 si sono estinte quasi 25 specie al decennio: da ciò si capisce che le estinzioni non sono dovute solo a cause naturali. In effetti l’uomo da sempre è stata una delle cause principali della scomparsa di animali. All’epoca dell’ultima glaciazione circa 33 grandi famiglie di mammiferi e uccelli furono sterminate: è un numero elevato, considerato che nel milione e mezzo di anni precedenti si erano estinte solo 13 famiglie. Si presume che sia stato l’uomo cacciatore a provocare la scomparsa delle 33 specie. Nel corso degli ultimi 12 mila anni le popolazioni della Polinesia hanno colonizzato la maggior parte delle isole del Pacifico e ovunque hanno provocato l’estinzione di circa 2000 varietà di uccelli, corrispondenti a oltre il 20% di tutte le specie esistenti. Se si guarda agli ultimi 150 anni, il tasso di scomparsa di mammiferi e uccelli (i più documentati) il tasso di scomparso è salito da una specie ogni quattro anni a una l’anno.
Il problema dell’estinzione animale è legato al disboscamento delle foreste tropicali. Ma che cosa esattamente si prevede che scomparirà? Molti credono che l’estinzione minacci elefanti, balene e simili. Ma non è così: più del 95% delle specie interessate è costituito da scarafaggi, formiche, mosche, vermi, funghi, batteri, alghe e virus.
Esiste davvero una relazione fra estensione di area forestale distrutta e specie scomparse? In Europa e America del Nord il manto forestale originario è scomparso del 98-99% e nel corso di due secoli le foreste della zona orientale degli Stati Uniti sono state ridotte a frammenti che nel complesso non superano l’1-2% dell’estensione primitiva. Nonostante ciò si è registrata l’estinzione di un’unica specie di uccello. Lo studio più ampio sulla correlazione tra foresta pluviale e scomparsa di animali tropicali è stato condotto a Puerto Rico da Ariel Lugo, del dipartimento dell’Agricoltura degli Stati Uniti. Il ricercatore ha scoperto che in 400 anni la foresta è stata ridotta del 99% e che ”solo” 7 specie di uccelli su 60 si sono estinte. Ariel Lugo ha concluso lo studio dicendo che non si è ancora fatto «alcun tentativo credibile» di definire con precisione le ipotesi scientifiche su cui sarebbe basato lo scenario di un’estinzione di massa. «Ma se qualcuno lo dice a voce alta» ha aggiunto «viene accusato di fare causa comune col diavolo».
I biologi Nick Mawdsley e Nigel Stork hanno analizzato i dati di estinzione relativi alla Gran Bretagna. E hanno dimostrato che esiste un rapporto abbastanza costante tra i tassi di estinzione di specie diverse. Utilizzando questo modello è possibile stimare che dal 1600 è scomparso lo 0,14% di tutti gli insetti, ovvero lo 0,0047% per decennio. Calcolando che il tasso di estinzione è in crescita, Mawdsley e Stork sostengono che il tasso di estinzione non supererà lo 0,208% per decennio e sarà probabilmente di circa 0,7% ogni 50 anni. Questo tasso non è insignificante: è circa 1500 volte superiore al tasso naturale di estinzione. Tuttavia è molto minore dei pronostici allarmisti che stimavano i tassi tra il 10 e il 100% nei prossimi 50 anni. Non si può inoltre pensare che i tassi di scomparsa resteranno sempre così alti: potrebbero attenuarsi grazie alla diminuita crescita demografica e alla sempre crescente attenzione verso la salvaguardia della vita animale nei paesi in via di sviluppo.
«La gravissima perdita di biodiversità, quantificata in 40 mila specie all’anno, è una cifra clamorosa, generata da modelli matematici, una cifra che è stata ripetuta con monotona regolarità in tutto il mondo. E alla fine siamo giunti a crederci. diventata parte della litania sul degrado ambientale, ma è in netto contrasto tanto con le osservazioni empiriche quanto con i risultati dei modelli più accurati. ovvio che la scomparsa del 25-100% di tutte le specie sarebbe drammatica sotto ogni punto di vista. Ma un’estinzione dello 0,7% ogni 50 anni per un periodo di tempo limitato non costituisce una tragedia, bensì un problema, uno dei tanti che l’umanità deve ancora risolvere. E quando si devono compiere scelte difficili su come ottenere il massimo dalla limitate risorse di cui disponiamo, è di fondamentale importanza basarsi sui fatti» (Bjørn Lomborg).
• L’ambientalista scettico
Capitolo XXII: La paura degli agenti chimici
Nel 1962 Rachel Carson scriveva nel suo libro ”Primavera silenziosa” che l’uso di sostanze chimiche e pesticidi stava condannando gli uccelli e gli insetti a scomparire. Inoltre avrebbe provocato una grave epidemia di cancro. Il tumore, diceva Carson: «Uccide una persona su quattro».
Nel 1950, negli Stati Uniti, le vittime di tutte le forma tumorali sono state circa 211 mila, mentre nel 1998 erano diventate più di 540 mila. Però questi numeri vanno considerati alla luce di alcuni fatti.
1) Nello stesso arco di tempo la popolazione degli Stati Uniti è aumentata in misura enorme (da 151 a 270,5 milioni: un incremento del 79%). Se la popolazione cresce è logico attendersi un maggior numero di decessi per tumore.
2) Il cancro colpisce soprattutto persone in età avanzata. Adesso si vive più a lungo (prima erano tanti i giovani che morivano per esempio per tubercolosi, polmonite e altre malattie infettive) e quando la popolazione invecchia l’aumento del numero di tumori indica che un maggior numero di persone è entrato in un gruppo di età più esposto a questa malattia.
3) C’è in effetti un aumento in un certo tipo di tumore. Quello ai polmoni, che come è noto è causato soprattutto dal fumo. Circa il 70% di tutti i tumori associati al fumo riguardano i polmoni.
Se si tengono in considerazione i punti precedenti si vede che l’epidemia di cancro non esiste. Una ulteriore precisazione: alcuni programmi di ricerca hanno messo in luce che l’aumento dei casi di tumore si deve anche alle migliori tecniche diagnostiche. Cioè i tumori si scoprono prima, si scoprono anche le forme benigne, si scoprono quando sono ancora di dimensioni ridotte.
Nel 1995 il National Cancer Institute scriveva: «Appare alquanto improbabile che una maggiore esposizione ai vari fattori di rischio legati all’ambiente possa aver avuto un impatto significativo sulle tendenze generali dei tumori, alla luce anche delle conclusioni raggiunte in una recente indagine sull’andamento della mortalità in Inghilterra e nel Galles. stato tuttavia osservato che l’aumento dei tassi riscontrato in alcuni tipi di tumore risulta chiaramente influenzato dai cambiamenti intervenuti nell’esposizione al fumo di tabacco, all’infezione da Hiv e alla luce solare».
Nel 1981 gli scienziati Richard Doll e Richard Peto hanno condotto uno studio sugli agenti cancerogeni degli Stati Uniti. Il tabacco risultava essere responsabile di circa il 30% di tutti i decessi per cancro (il fumo da tabacco, inoltre, è la causa di numerose malattie cardiovascolari). Il regime alimentare scorretto è all’origine di circa il 35% alle morti per tumore (troppi grassi, zuccheri, calorie a discapito di frutta e verdura fresche). Il 10% dei casi è legato a infezioni: alcuni virus e batteri possono scatenare il processo tumorale. Circa il 7% è legato all’attività sessuale (per esempio più partner significano più rischi di carcinoma al collo dell’utero). Il sole e le radiazioni da radon influiscono complessivamente nel 3% dei tumori, farmaci e radiografie per l’1%. L’inquinamento di aria, acqua e alimenti è legato al 2% dei decessi per tumore.
I risultati di Doll e Peto sono confermati da altri studi. Per esempio nel 1996 il National Research Council americano concludeva una ricerca analoga dicendo: «La grande maggioranza degli agenti chimici di origine naturale o sintetica presenti nella dieta umana sembra essere al di sotto delle soglie a cui è plausibile che si verifichino effetti biologici nocivi. I livelli di tali tracce sono talmente bassi che non sembra probabile che possano rappresentare alcun significativo rischio di cancro».
Il professor Bruce Ames dell’università di Berkeley, in California, ha più volte sottolineato il fatto che ci preoccupa quasi esclusivamente dei pesticidi artificiali, benché molte di queste sostanze siano di origine naturale. L’arsenico è stato usato come diserbante ed è un minerale presente in natura; l’aflatossina è il pesticida più cancerogeno che si conosca e si trova in un fungo che infetta le piante; la nicotina è il pesticida usato dalle piante di tabacco per difendersi dai parassiti. Risulta così che il nostro consumo di pesticidi naturali è molto superiore a quello di pesticidi sintetici. Anzi, si può dire di più: molti dei nostri abituali alimenti non supererebbero i criteri normativi applicati agli agenti chimici sintetici. Così per esempio 1 grammo al giorno di basilico, che contiene estragolo, sarebbe pericoloso come tre tazze di caffè e 66 volte più dannoso dell’assunzione di etilentiourea, un pesticida chimico. In realtà il rischio rappresentato dai pesticidi naturali è bassissimo, come quello dei sintetici.
Un’altra paura è legata alla diffusione dei pesticidi: gli agenti chimici sintetici sarebbero in grado di imitare gli ormoni umani, soprattutto gli estrogeni femminili, e di influire su di essi. Per esempio dalla fine degli anni Quaranta al 1971 il dietilstilbestrolo (Des), una sostanza estrogeno-simile, è stato largamente utilizzato per prevenire gli aborti e nelle in gravidanza. Purtroppo il Des si mostrò inefficace e per di più dannoso, provocando un raro caso di tumore alla vagina delle bimbe nate dalle donne trattate con Des. Il Des è stato proibito nel 1971, così come il Ddt. Tuttavia anche in questo caso è da notare che molte piante contengono estrogeni naturali: segale, grano, cavolo, spinaci, orzo, riso, soia, patate, carote, piselli, fagioli ecc. dunque si assumono molti più estrogeni naturali che sintetici.
I tre argomenti più noti contro i pesticidi come cause di scompensi ormonali sono i seguenti: provocano drastica riduzione del numero degli spermatozoi, quando si sommano moltiplicano di molto i loro effetti nefasti, sono legati all’insorgenza di tumori al seno. In realtà nessuna di queste tre critiche è dimostrata dai numeri e dai fatti.
In molti sono propensi a chiedere l’abolizione dei pesticidi. Per esempio Al Meyerhoff del Natural Resources Defense Council americano, ha sostenuto che molte forme di cancro sono in aumento tra i bambini proprio per colpa dell’esposizione ai pesticidi. Come si è visto, invece, i pesticidi hanno una bassissima influenza sui tumori. Naturalmente anche un’unica vittima sarebbe una ragione sufficiente per ridurre in modo significativo o addirittura proibire l’uso di queste sostanze. Per una questione di cautela si dovrebbe limitare al minimo la presenza di pesticidi. L’impiego di queste sostanze negli Stati Uniti ha un valore sociale netto di circa 4 miliardi di dollari all’anno. Quanto costerebbe eliminarli, parzialmente o totalmente? Si pensa che la cifra ammonterebbe a 93-277 miliardi di dollari l’anno. Supponendo che i pesticidi facciano circa venti vittime l’anno, per salvare una vita si spenderebbe almeno un miliardo di dollari. Sono soldi ben spesi. Però si potrebbe fare di più utilizzando in altro modo le risorse. Per esempio le esalazioni di radon dal sottosuolo negli stati Uniti provocano circa 15 mila vittime l’anno. Un piano normativo per ridurre e individuare il radon, a parità di costi, potrebbe essere molto più efficace nella lotta ai tumori.
Un’altra considerazione è che l’eliminazione di pesticidi avrebbe dei costi: servirebbero terreni più estesi per ottenere una quantità sufficiente di frutta e verdura. Siccome senza pesticidi ci sarebbe una diminuzione nella resa, i prezzi dei cibi salirebbero. La parte più povera della popolazione rinuncerebbe ad acquistarli (studi dimostrano che le famiglie a basso reddito preferiscono mangiare cibi ricchi di amidi, carne e grassi). E in pratica il minor consumo di verdura e frutta provocherebbe un aumento nella diffusione di tumori.
• L’ambientalista scettico.
Capitolo XXIV: Riscaldamento globale – Parte Prima
Per capire a pieno lo sviluppo futuro della temperatura planetaria è necessario prendere in esame quanto è successo in passato. La temperatura ha influito in molti modi sul ghiaccio delle regioni polari: quindi eseguendo carotaggi nel ghiaccio è possibile contare gli strati risalenti a epoche diverse. Metodi analoghi sono rappresentati dall’analisi degli anelli annuali degli alberi (sono più larghi se il clima è più caldo), dei coralli, dei sedimenti di laghi, oceani, pozzi di trivellazione ecc.
Nell’ultimo milione di anni si è verificata una serie di otto fasi glaciali interglaciali, determinate dalle variazioni dell’orbita terrestre attorno al Sole. L’ultimo periodo, l’Olocene, continua tuttora ed è iniziato circa 10 mila anni fa. C’è consenso generale sul fatto che i secoli precedenti il 1900 siano stati molto più freddi:il fenomeno è conosciuto col nome di "piccola glaciazione" e ha interessato il periodo 1400-1900. C’è generale consenso anche sul fatto che la prima parte del secondo millennio invece la temperatura fu particolarmente calda, tanto che si parla di "periodo caldo medievale" Durante questo periodo le temperature miti resero possibile la colonizzazione di territori altrimenti inospitali come Groenlandia e Terranova da parte di popolazioni vichinghe.
I dati sembrano lasciar intendere che negli ultimi 140 mila anni episodi come la piccola glaciazione o il periodo caldo medievale si sono succeduti con regolarità in cicli climatici di circa 1500 anni.
Sono fondati i dubbi che le temperature alla fine del XX secolo siano superiori a quelle di molti secoli precedenti, ma ciò non costituisce un’indicazione certa di un irrefrenabile riscaldamento globale. Gli argomenti a sostegno dell’affermazione che oggi la temperatura sarebbe più elevata rispetto a qualsiasi momento degli ultimi 1000 anni sono resi più deboli dal fatto che i dati disponibili non comprendono le temperature nelle aree oceaniche, nonché di quelle notturne e invernali, e sono inoltre basati in via quasi esclusiva su informazioni provenienti dal Nordamerica.
Dal 1990 l’Ipcc presenta rapporti sullo sviluppo futuro della temperatura. I modelli messi a punto sono tantissimi e dipendono dalle diverse variabili perse in considerazione. Le previsioni annunciano per il 2100 un aumento delle temperature nell’ordine di 2-4,5 °C e un innalzamento totale del livello dei mari di circa 31-49 centimetri.
L’aumento di anidride carbonica provocherà sicuramente un aumento delle temperature, ma occorre chiedersi quale sarà l’entità di questo riscaldamento. difficile preparare dei modelli attendibili. Ciò in primo luogo perché non si capisce bene quale influenza possano avere le particelle che costituiscono i cosiddetti aerosol. Pare che le particelle (come quelle di zolfo che si formano bruciando combustibili fossili ecc.) siano in grado di riflettere l’energia solare con un conseguente effetto raffreddante.
Il secondo problema nell’elaborazione di modelli è rappresentato dal vapore acqueo dell’atmosfera. Quanto più la Terra si riscalda tanto maggiore sarà l’evaporazione e di conseguenza il calore intrappolato dal vapore acqueo. Tuttavia l’entità della retroazione del vapore acqueo non dipende dalla temperatura della superficie terrestre, bensì da quella della troposfera (lo strato più basso dell’atmosfera, che si innalza dal suolo per 10-13 chilometri). Quindi l’effetto della retroazione sarà significativo solo se tutta la troposfera riscaldandosi tratterrà una maggiore quantità di acqua. Però i dati raccolti dai satelliti e dai palloni sonda dicono che questo riscaldamento non si verifica secondo le previsioni dei modelli dell’Ipcc e dunque la retroazione del vapore sarà di minore entità rispetto a quanto temuto.
Il terzo aspetto che rende difficile l’elaborazione di modelli sono le nubi, che possono raffreddare o riscaldare il clima a secondo della loro altitudine e densità. E addirittura conoscenze e modelli più precisi sulle nubi potrebbero invalidare tutte le previsioni.
Si sa da tempo che esiste una correlazione fra l’attività solare e la temperatura. probabile che la luminosità del Sole sia aumentata di circa lo 0,4% nel corso degli ultimi 200-300 anni, provocando un incremento termico di circa 0,4 °C e la tendenza degli ultimi decenni corrisponderebbe ad altri 0,4 °C fino al 2100. Uno studio del 1997 ha dimostrato che all’aumento della radianza solare diretta degli ultimi 30 anni è imputabile circa il 40% del riscaldamento globale osservato. Alcuni studiosi hanno messo in luce, inoltre, una correlazione tra la durata del ciclo delle macchie solari e la temperatura media della Terra. Non è chiara quale sia la relazione, ma c’è un collegamento tra le nubi basse e la radiazione cosmica che raggiunge la Terra. I raggi cosmici producono ioni, che assieme alle particelle dell’atmosfera, sono la base dello sviluppo delle nubi basse (che provocano un certo raffreddamento della temperatura terrestre). Un aumento della radiazione cosmica è il risultato di una minore attività solare, che a sua volta dipende da una durata maggiore del ciclo delle macchie solari. Niente macchie solari significa diminuzione della radiazione cosmica, quindi un numero minore di nubi basse e dunque temperature più elevate.
Il riscaldamento globale è stato spesso associato all’innalzamento di parecchi metri di parecchi metri del livello dei mari e allo scioglimento dei ghiacci dei poli. Negli ultimi cento anni il livello planetario delle acque è aumentato tra i 10 ei 25 centimetri e si prevede che si innalzerà di altri 31-49 centimetri nei prossimi cento anni. Circa tre quarti dell’innalzamento è imputabile al fatto che l’acqua è diventata più calda e quindi si è espansa; solo un quarto deriva da un maggiore scioglimento dei ghiacciai e delle calotte polari. Si prevede tuttavia che l’innalzamento dei mari farà aumentare il numero di persone esposte a inondazioni ricorrenti. La preoccupazione per questo fatto appare tuttavia esagerata se si pensa che i paesi, diventati più ricchi nel corso del XXI secolo, saranno in grado di prendere per tempo adeguate misure di protezione. Un significativo aumento del livello dei mari si è già verificato durante l’ultimo secolo e l’uomo è stato in grado di affrontarlo.
Spesso si sente dire che il riscaldamento globale provocherà un maggior numero di decessi per via delle alte temperature. A parte la considerazione che il freddo fa più vittime del caldo, uno studio relativo a diverse regioni europee ha dimostrato che i decessi associati a caldo si verificano se la temperatura supera il valore abituale, non se supera un valore fisso. Ciò conferma che le popolazioni sono in grado di adeguarsi alle nuove condizioni in modo da proteggersi dallo stress provocato dalle temperature più elevate. Poi si dice che con l’aumento delle temperature si amplierà il bacino potenziale delle malattie tropicali, come la malaria. In verità anche durante la piccola glaciazione ci si ammalava di malaria. A ciò si aggiunga che fino a dopo la Seconda guerra mondiale la malaria era endemica in parecchi paesi americani ed europei, dove poi è stata debellata. La lotta alla malaria è soprattutto una questione di sviluppo e risorse.
• L’ambientalista scettico.
Capitolo XXIV: Riscaldamento globale – Parte seconda
Si sente spesso dire che il riscaldamento globale provocherà condizioni meteorologiche estreme. Dunque aumenteranno tempeste e uragani, inondazioni, tsunami, temporali, cicloni, tornado, tifoni ecc. Il Global Environment Outlook 2000 diceva: «I modelli del riscaldamento globale indicano come probabile che l’incremento delle temperature influisca su molti parametri atmosferici tra cui precipitazioni e velocità dei venti, e faccia aumentare l’incidenza degli eventi meteorologici estremi, tra cui tempeste e piogge intense, cicloni e siccità». Dichiarazioni di questo tipo si moltiplicano da tempo, anche se non ci sono dati che possano confermarle. Per esempio i cicloni nell’area del Pacifico nordoccidentale sono aumentati a partire dal 1980, ma nel ventennio precedente c’era stata una diminuzione. Dagli anni Sessanta nel Pacifico nordorientale si è avuta una significativa tendenza all’aumento, nell’Oceano indiano settentrionale un calo, nell’Oceano indiano sudoccidentale e nel Pacifico sudoccidentale non sono state osservate variazioni. Nell’area australiana il numero di cicloni tropicali invece è diminuito a partire dalla metà degli anni Ottanta. Per l’Atlantico settentrionale i dati, nonostante variazioni decennali, indicano una tendenza alla diminuzione: in particolare risulta che stiano calando i cicloni violenti, che provocano danni maggiori. Per gli Stati Uniti sono disponibili dati sui cicloni che raggiungono la terraferma a partire dal 1899. Da questi non risulta alcun aumento.
Si dice spesso che per i cambiamenti climatici i cicloni siano diventati più violenti, dal momento che fanno un maggior numero di vittime e anche i danni economici sono più ingenti. Ma è ovvio che sia così, dato che è aumentata la popolazione: oggi le due contee della Florida meridionale, Dade e Broward, contano più abitanti di quanti ne vivessero nel 1930 in tutte le 109 contee costiere dal Texas alla Virginia, lungo le coste del Golfo Messico e dell’Atlantico. Mentre la popolazione degli Stati Uniti è quadruplicata nel corso dell’ultimo secolo, il numero di abitanti lungo le coste della Florida è aumentato di oltre 50 volte.
Le temperature sono di fatto aumentate di 0,6 °C nell’ultimo secolo. Tuttavia tale aumento globale non significa che tutte le temperature siano ora più alte. Sono aumentate soprattutto le temperature fredde: le minime (notturne) molto più delle massime (diurne), e ciò risulta vero per tutte le stagioni e per entrambi gli emisferi. Allo stesso modo, in inverno il riscaldamento è stato maggiore che in estate, soprattutto nell’emisfero boreale. Infine le temperature invernali sono aumentate maggiormente nelle aree più fredde (i sistemi di alta pressione della Siberia e delle regioni nord occidentali dell’America settentrionale).
In generale è preferibile che il riscaldamento riguardi i periodi freddi piuttosto che quelli caldi. Ciò comporta una riduzione dei disturbi associati al freddo, senza che subentrino quelli collegati al caldo. Inoltre una diminuzione del freddo senza un corrispondente aumento del caldo significa una maggiore produzione agricola. inoltre probabile che il riscaldamento produca un aumento delle precipitazioni, accompagnate anche da una maggiore intensità. Un aumento di piogge potrebbe provocare un maggior rischio di inondazioni, anche se bisogna considerare che la pianificazione del territorio (come per esempio la conservazione delle aree palustri che rallentano le ondate di piena, il controllo dei deflussi a monte, la manutenzione delle dighe e degli argini ecc.) può scongiurare un’eventuale catastrofe. Può risultare sorprendente invece che all’aumento delle piogge non corrisponda una diminuzione della siccità. Infine, l’aumento congiunto delle temperature, dell’anidride carbonica e delle precipitazioni renderà la Terra più verde: un esperimento ha dimostrato che la biomassa planetaria aumenterà di oltre il 40% nel corso del XXI secolo.
Il riscaldamento globale comporterà costi notevoli: nell’ordine di 5000 miliardi di dollari l’anno. Il fenomeno inoltre colpirà in modo assai più duro i paesi in via di sviluppo, perché hanno minori capacità di adeguarsi alla mutata situazione. Se si vuole evitare almeno parte del riscaldamento è necessario ridurre le emissioni di gas serra e in particolare di anidride carbonica originata dalle attività umane. Ma nel fare questo si deve scegliere le corrette modalità. Bandire immediatamente l’uso di combustibili fossili porterebbe il mondo alla paralisi, con conseguenza incalcolabili. Scegliendo di lasciare le cose così come stanno significherebbe invece prepararsi ad adeguare la società ai cambiamenti futuri: trasferire popolazioni, modificare metodi agricoli, costruire dighe. Fra questi due estremi si colloca l’opzione di ridurre parte delle emissioni di anidride carbonica e accettare parte dell’effetto serra. Gli studi dimostrano che il costo di un drastico abbattimento delle emissioni di anidride carbonica sarebbe molto più elevato dei costi di adeguamento all’innalzamento della temperatura. L’ipotesi operativa ottimale comporta riduzioni di emissioni di poco al di sotto dei tassi non regolamentati fino almeno alla metà del prossimo secolo.
Il dibattito sul riscaldamento globale mostra chiaramente che non si dovrebbero spendere enormi quantità di denaro per mitigare in minima parte l’incremento termico globale se ciò rappresenta un cattivo uso delle risorse a disposizione e se queste somme potrebbero essere utilizzate in modo più efficiente, per esempio aiutando i paesi in via di sviluppo. Dal momento che ridurre le emissioni di anidride carbonica può diventare presto un’operazione costosa e addirittura controproducente, l’impegno dovrebbe essere orientato soprattutto alla ricerca di modi per ridurre le emissioni sul lungo periodo. Ciò significa investire di più per la ricerca e lo sviluppo di energia solare, fusione e altre possibili fonti di energia per il futuro.
Testo elaborato da Daria Egidi
(18 - continua)
• L’ambientalista scettico
Capitolo XXV: Disagio o progresso?
Per avere un miglioramento dell’ambiente nei paesi in via di sviluppo bisogna garantire una crescita che liberi queste popolazioni dalla fame e dalla miseria poiché l’esperienza storica insegna che è necessario raggiungere un certo livello di ricchezza per cominciare a pensare ai problemi ambientali e per affrontarli. Per quanto riguarda i paesi industrializzati si sono avuti grandi miglioramenti, anche se sono ancora necessari provvedimenti a favore dell’ambiente. Però bisogna stabilire un ordine di priorità negli interventi.
Gli ambientalisti, Al Gore, Lester Brown e altri, amano ripetere la litania della perdita «del senso di comunione con il mondo», che sta portando a una distruzione ambientale senza precedenti: In realtà negli ultimi 400 anni la nostra civiltà ha realizzato un progresso continuo e straordinario: L’aspettativa di vita è cresciuta tantissimo, non muoiono più tanti bambini come in passato, non ci sono più tante malattie come prima, la percentuale della popolazione che soffre la fame è diminuita, tutti i paesi sono diventati più ricchi, è stato conquistato l’accesso a tante comodità ed è più alto il livello di istruzione. Ciò non vuol dire che tutto vada bene: la situazione è migliorata, ma non è ancora sufficientemente buona. Ci sono ancora troppe persone che muoiono di fame, ci sono ancora troppi poveri. Si muore ancora per l’inquinamento dell’aria. Ma il quadro, per quanto drammatico, non è così pessimisticamente condannato all’autodistruzione come amano ripetere gli allarmisti. L’attività di ricerca non è mai stata così intensa come oggi e spesso si scoprono connessioni causali di minima rilevanza tra fenomeni. Allo stesso tempo le organizzazioni che si occupano di ambiente hanno un crescente bisogno di accaparrarsi l’attenzione del pubblico e conseguentemente segmenti di mercato. Anche i media sono alla continua ricerca di notizie interessanti e sensazionalistiche, che spesso finiscono per concentrare l’attenzione sugli aspetti negativi dei fatti, fornendo altri motivi di preoccupazione.
Per stabilire una priorità nelle cose da fare occorre chiedersi quanto rilevante sia l’inquinamento nelle perdite di vite umane. La maggior parte di anni perduti nei paesi in via di sviluppo è imputabile alla fame, alla mancanza di acqua potabile e di igiene. Questi problemi sono praticamente scomparsi nei paesi industrializzati, dove però si muore soprattutto per colpa del tabacco, dell’alcool, delle droghe, della mancanza di attività fisica, dell’ipertensione. Nell’area Ocse la percentuale di decessi da inquinamento, per esempio dell’aria, è incredibilmente bassa. evidente che si salvano più vite umane con campagne di educazione contro il fumo, per esempio, che con la riduzione delle emissioni.
La società utilizza enormi quantità di risorse per regolamentare sia i rischi di natura sanitaria sia i rischi ambientali, come le tossine. Ma si è visto che i pesticidi, per esempio, provocano un numero di decessi molto basso: siccome però godono di grande attenzione da parte dei mezzi di informazione, in tanti ritengono che siano assai pericolosi.
«Dalla ripetizione costante della litania deriva una precisa regolamentazione o addirittura l’eliminazione delle tossine, ma a scapito di altri settori in cui le stesse risorse potrebbero portare a miglioramenti molto più rilevanti» (Bjørn Lomborg).
In questo libro si è dimostrato che molte delle nostre credenze più radicate derivanti dalla litania sul degrado ambientale non sono confermate dai fatti. Le condizioni del mondo non stanno peggiorando in continuazione. Non è vero che dietro l’angolo ci attende una catastrofe ecologica destinata a punirci. di importanza cruciale concepire l’ambiente come una delle sfide che l’uomo deve affrontare per creare un mondo ancora migliore e per far avanzare al massimo il progresso. Le iniziative di carattere ambientale devono avere fondamenta solide ed essere valutate in base ai vantaggi e agli svantaggi che offrono, nello stesso modo in cui vengono valutate le proposte di potenziamento dell’assistenza medica pubblica, l’aumento dei finanziamenti per le arti o un taglio delle tasse. Dunque, come già detto, occorre stabilire un ordine di priorità per utilizzare le risorse a disposizione nel modo più efficiente. Se le decisioni saranno basate sulla diffusa percezione che il mondo stia andando in rovina, le scelte si riveleranno di scarsa efficacia o addirittura controproducenti. In Perù le autorità in passato si rifiutarono di aggiungere cloro all’acqua potabile perché temevano il rischio di cancro: quella decisione è oggi considerata la principale causa della violenta epidemia di colera del 1991. Se avessero saputo che il rischio di cancro derivante dal cloro è minimo forse l’epidemia non sarebbe mai scoppiata.
«Pensateci un momento e chiedetevi: quando avreste preferito nascere? Molti sono ancora soggiogati dalla litania e continuano a vedere con la mente bambini che crescono in un mondo senza cibo né acqua, inquinato, colpito da piogge acide e surriscaldato. Ma quelle immagini sono un misto di pregiudizi e mancanza di analisi. Questo è il reale messaggio del libro: i bambini che nascono oggi, tanto nei paesi industrializzati quanto in quelli in via di sviluppo, vivranno più a lungo e saranno più sani, avranno più cibo a disposizione, un’istruzione migliore, standard di vita più elevati, più tempo libero e molte opportunità in più: E tutto ciò senza che l’ambiente globale venga distrutto. Viviamo in un mondo meraviglioso» (Bjørn Lomborg).
FINE