Geografia antropica

Geografia antropica

 

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

 

 

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

 

 

 

Geografia antropica

DISPENSE DI GEOGRAFIA ANTROPICA

Agnese Visconti

1) Che cos’è la Geografia e in che modo si caratterizza rispetto alle altre discipline
La geografia è un punto di incontro, un centro di scambio, un deposito in cui far convergere da diversi orizzonti disciplinari (scienze ambientali, demografia, sociologia, etnologia, economia, scienze politiche, storia) problematiche, temi di dibattito, risultati conoscitivi. Vi sono molte cose ancora da scoprire, o meglio vi sono problemi da capire. E i problemi che si pongono oggi non sono costituiti solo dal rilevamento delle realtà territoriali o morfologiche, bensì dalla ricerca delle ragioni dei fenomeni, delle strutture che li determinano, dalle soluzioni possibili per il nostro rapporto con lìambiente oggi e domani. Da una geografia delle cose si è passati a una geografia dei problemi. La questione è ben sintetizzata dal geografo inglese Graves che dice quanto segue:
A poco a poco i geografi hanno scoperto la natura delle rocce, la flora e la fauna, hanno sviluppato metodi per misurare l’altitudine, inventato linee di livello per rappresentare i rilievi, descritto paesaggi  ed esposta la distribuzione della popolazione mondiale. Ora che il mondo è stato rappresentato largamente nelle carte e fotografato in abbondanza, ora che la popolazione moondiale è stata più o meno accuratamente contata ed è stato fatto un inventario di massima delle sue risorse, compito del geografo non è più quello di scoprire terre nuove, di dare nome a una vetta, di fare l’elenco delle nazioni e imperi della terra, quanto piuttosto di comprendere come le società umane possano risolvere i molti problemi dello spazio posti dal ppopolamento della terra e dal suo sviluppo ... La geografia non è più semplicemente un elenco dei fatti e dei tratti fisici delle diverse parti della terra. La geografia fa ora grande uso dei fatti per studiare i problemi delle relazioni spaziali sulla terra, problemi evidenziati dalla sovrapopolazione, dal sottosviluppo, dall’estensione dei centri urbani, dalla pianificazione regionale, dalla riforma agraria e dalla politica del territorio.
Proviamo ora a vedere, sulla base di quanto detto da Graves, alcune caratteristiche della geografia:
1) tra le varie discipline è quella che più identifica il proprio linguaggio scientifico con il parlare comune. E’ quindi facile da comprendere, con un linguaggio semplice. E’ uno dei suoi punti di forza: è largamente e immediatamente comprensibile.
2) è una disciplina che non solo si fonda su materiale eterogeneo (dati fisici, dati storici, dati antropologoci, economici, politici), ma che addirittura utilizza discipline diverse. A differenza delle scienze naturali, che sono perlopiù omogenee (geologia, mineralogia, zoologia, botanica, ecc…).
La geografia aiuta a vedere e a capire il paesaggio. Il paesaggio è l’insieme delle forme percepibili (clima, vegetazione, strutture agrarie, insediamenti umani, dunque forme naturali e antropiche) che imprimono ad un dato territorio i suoi caratteri peculiari, la sua individualità. Il paesaggio non è lo spazio. Ma è lo spazio osservato nella sua evoluzione naturale e nella storia delle società umane che lo hanno costruito. Per comprendere il paesaggio occorre dunque disporre di coordinate spazio-temporali. Spazio e tempo per quanto riguarda la superficie nei suoi aspetti fisici (aspetti costituiti non solo da forme esteriori, ma da strutture interne e da fenomeni dinamici in costante evoluzione che vengono studiati nel loro insieme e nelle loro reciproche relazioni); spazio e tempo per quanto l’intervento umano, anch’esso in costante evoluzione e legato allo sviluppo di una data cultura. Il paesaggio dunque è sempre un’espressione storica. Il paesaggio, in altri termini, va visto sempre in una visuale dinamica: non come in una fotografia, ma come in un film perché nel suo interno vi è un costante movimento di esseri biologici, di fenomeni naturali e di interventi antropico-culturali. In questo modo il paesaggio verrà non solo osservato, ma anche compreso nelle sue ragioni e nelle funzioni che si celano sotto il mantello delle cose materiali: un paesaggio che continuamente si trasforma, si sviluppa e si degrada. La lettura del pasaggio va perciò al di là delle sue forme e non è mai immediata perché richiede analisi e ricerca di motivi e di fenomeni non direttamente visibili e apparenti
Occorre tenere sempre presente che quando il geografo parla di intervento umano, di cultura, di società parla sempre di un determinato gruppo di uomini, diverso da altri gruppi per i differenti aspetti della sua storia: storia che lo ha portato a avere quella cultura. Non parla mai di uomo in senso astratto, né di uomo in senso fisico o biologico.
Oggetto della geografia è dunque l’azione delle società umane che trasformano lo spazio naturale in spazio sociale (o geografico). Dunque non esiste spazio geografico senza le società e le loro storie. Questa è la visione che la geografia ha di sé oggi. Anche questa visione è frutto di una storia. E’ opportuno ripercorrere brevemente questa storia per comprendere a pieno il punto di vista della geografia di oggi.
Tra le impostazioni tradizionali che risalgono ai geografi antichi e che continuano nella cultura moderna (anche se ormai solo marginalmente) vi è quella che si ispira al determinismo naturale, cioè quella corrente di pensiero che dà primaria importanza agli influssi determinanti della natura sugli individui e sulle società, sull’organizzazione economica e sulla storia stessa dei popoli. Scriveva Ippocrate di Coo, tra il V e il IV secolo che i caratteri e le vicende delle genti umane dipendono dai caratteri locali dell’aria e dell’acqua. Aristotele (IV secolo) riteneva che gli abitanti delle regioni fredde fossero pieni di coraggio e portati alla libertà, mentre quelli della calda Asia fossero fatti per il dispotismo e la schiavitù. Strabone (siamo a cavallo dell’era cristiana )vede nelle situazioni naturali le ragioni della storia d’Italia. Anche lo scrittore e politico francese Charles de Montesquieu riafferma l’importanza dell’influenza del clima e della natura sulle società.
All’opposto si colloca la visione prevalentemente storicistica secondo la quale la spiegazione delle realtà attuali della superficie terrestre va cercata soprattutto nelle vicende del passato e nella loro diversa natura. Le ideologie, il potere, la tecnica plasmano l’ambiente. Questa corrente di pensiero (neoidealismo, o determinismo storico) dà peso primario ai valori delle diverse società e nega ogni valore alla natura.
Entrambe queste tendenze prendono in considerazione un aspetto e lo fanno dipendere dall’altro. La tendenza attuale, nota con il nome di possibilismo, è invece, quella di analizzare entrambi gli aspetti e di metterli in relazioni senza farli dipendere rigidamente uno dall’altro. Essa vede le società come continuamente interferenti con le dinamiche della natura. Il quadro naturale provoca l’iniziativa degli uomini, offre loro delle occasioni, ed essi reagiscono in modo diverso a seconda della loro cultura, dei loro mezzi e dei loro interessi. Questo spiega come ad ambienti naturali simili possano corrispondere situazioni molto diverse. Il potere delle società umane non è tale da poter trascurare la natura, ma è in grado di modificare entro limiti più o meno ampi la natura stessa secondo i diversi fini di queste società, in un rapporto che sempre si aggiorna e si rinnova.
Quindi il problema del rapporto tra le società umane e le condizioni ambientali non è mai risolto una volta per tutte. Le società infatti mutano e si evolvono e pertanto, come dice il geografo Lucio Gambi, qualunque cosa di questo mondo non ha continuativamente un medesimo valore, ma lo muta secondo gli uomini.

2) Le risorse energetiche
La frase di Gambi si attaglia bene al concetto di risorsa in geografia. E più in particolare a quello di risorsa energetica. Le risorse sono una funzione della tecnologia disponibile. In altri termini, esse non hanno alcun significato economico fino a che non viene inventata una tecnologia che ne faccia uso. Possiamo così dire che per risorse energetiche si intendono i prodotti dell’ambiente fisico tecnicamente utilizzabili per la messa in atto dei processi di trasformazione e di sviluppo. Tali prodotti assumono valore di risorsa grazie all’innovazione tecnologica e allo sviluppo scientifico che creano le possibilità e le opportunità del loro utilizzo. Pertanto esse possono venir definiti anche come fenomeni che dipendono in larga misura dalle situazioni economiche, politiche e culturali di un determinato tipo di società. Ne consegue che il valore di ogni risorsa varia sia nel tempo che nello spazio. Un esempio nel tempo: il mondo antico e il petrolio; un esempio nello spazio: la foresta amazzonica per il contadino brasiliano e per noi, abitanti dei paesi industrializzati.

a) L’energia
Abbiamo fatto l’esempio di due risorse energetiche, ossia di due prodotti naturali che forniscono energia. Definiamo l’energia: essa (dal greco érgon=lavoro) costituisce la principale risorsa in grado di consentire lo sviluppo economico di una società. Esiste infatti una stretta corrispondenza tra crescita economica e incremento dei consumi energetici. Parlare di energia significa quindi parlare di uno dei grandi indicatori che vengono utilizzati per stabilire il livello di sviluppo economico di un paese. E dal momento che l’altro grande tema a cui accenneremo è quello dello sviluppo e del sottosviluppo, vale la pena soffermarsi sull’energia perché aiuta a comprendere alcuni aspetti di sviluppo e sottosviluppo.
Non è facile spiegare che cosa sia l’energia. Gli scienziati hanno tentato di farlo partendo dai suoi effetti visibili, o meglio dalle sue conseguenze e sono così arrivati a definirla come la capacità di compiere lavoro che un corpo o un sistema possiede. L’unità di misura dell’energia è infatti la stessa del lavoro: il joule. Ai fini pratici tuttavia ci si riferisce alla chilocaloria, meglio nota come caloria, e ai suoi multipli e sottomultipli (chilowattora, tec, tep e piccola caloria).
1 caloria (chilocaloria) = quantità di calore necessaria per innalzare di 1 grado centigrado la temperatura di 1 chilo di acqua
L’energia che utilizziamo deriva quasi interamente (99,98%) dall’energia solare, una potentissima fonte di calore che fluisce continuamente sulla superficie terrestre.
Che cosa avviene di questa fonte quando arriva sulla terra? Come viene utilizzata?
La maggior parte dell’energia solare dà origine al clima (luce e calore), mentre una quota piccolissima, pari allo 0,1%, viene trasformata in energia chimica attraverso la fotosintesi clorofilliana effettuata dai vegetali, gli unici convertitori in grado di intercettare l’energia solare e di trasformarla in cibo; gli animali e l’uomo, che invece non sono in grado di alimentarsi dalla materia inorganica, assumono energia sotto forma di cibo già trasformato, ogni volta che si nutrono di vegetali o di altri animali che si sono a loro volta nutriti di vegetali.
Infine, una parte minima di energia (0,02%) proviene dalle maree e dal calore interno della terra.

b) Le forme dell’energia
1) Energia cinetica che può essere trasformata in energia meccanica, ossia energia ordinata finalizzata a un lavoro.
2) Energia chimica. Essa consiste nell’energia immagazzinata negli alimenti e nei combustibili (legna, carbone, petrolio, gas naturale).
3) L’energia chimica si trasforma in energia termica attraverso cambiamenti nella struttura molecolare, determinati dal processo di combustione: quando brucio legna, carbone o petrolio provoco una reazione che trasforma l’energia chimica in energia termica; quando brucio all’interno del mio corpo un alimento, pongo in atto un processo analogo e il mio corpo si scalda.
4) L’energia termica si trasforma in energia meccanica attraverso le macchine (animate e inanimate).
5) Energia elettrica. All’inizio del secolo scorso risale la scoperta della possibilità di sfruttare l’energia elettrica posseduta da un corpo in virtù della posizione reciproca delle particelle cariche positivamente e di quelle cariche negativamente che lo compongono. Tale scoperta tuttavia non riuscì a trovare subito un’applicazione diffusa. E’stato solo a partire dalla fine dell’Ottocento che l’economia occidentale ha iniziato ad elettrificare il proprio sistema energetico e ha poi proseguito trasformando in energia ettrica una frazione sempre maggiore dell’energia meccanica originata dall’acqua e di quella termica originata dai combustibili, ottenendo nel primo caso energia idroelettrica, e nel secondo energia termoelettrica.
Oggi nel mondo circa il 30%-35% delle fonti primarie di energia (cadute d’acqua, combustibili fossili e uranio, che vedremo tra breve) viene trasformato in elettricità. Questa percentuale è destinata a crescere ancora in futuro, grazie ai miglioramenti tecnici che si prevede di poter apportare al processo di produzione dell’energia elettrica.
Un’elevata penetrazione elettrica è considerata dagli economisti un indice di benessere e di sviluppo; analogamente, la rete elettrica è ritenuta, al pari di quella dei trasporti, un indiscusso fattore di civiltà.
6) Agli anni Quaranta del nostro secolo appartiene infine la scoperta dell’energia nucleare. Essa deriva da cambiamenti nella struttura dei nuclei atomici (o per fissione di un nucleo di atomo pesante, o per fusione di due nuclei di atomi leggeri), così come quella chimica trae origine da cambiamenti nella struttura molecolare. La storia della produzione di energia nucleare iniziò nel dicembre del 1942 all’Università di Chicago con la messa a punto da parte dello scienziato italiano Enrico Fermi del primo reattore nucleare per la fabbricazione della bomba atomica.
La prima centrale costruita con lo scopo di produrre energia elettrica fu realizzata nell’ex Unione Sovietica nel 1954. Due anni dopo entrava in funzione la centrale di Calder Hall in Inghilterra. A partire da allora ne furono costruite molte altre (oggi ammontano a 415 e producono circa il 17% dell’energia elettrica totale utilizzata).
Negli anni Cinquanta e fino agli anni Settanta prevalse un clima di ottimismo sulle opportunità aperte dalla scoperta dell’energia nucleare, ritenuta in grado di fornire una quantità inesauribile di energia elettrica a prezzo estremamente basso. Ma a partire dal 1970 negli Stati Uniti cominciarono ad essere cancellati parecchi ordini e dieci anni dopo non si ebbero nuove commesse. Il rallentamento, dovuto al timore di un’eventuale proliferazione nucleare, all’incremento dei costi di costruzione e alla preoccupazione relativa alle spese per lo smantellamento delle centrali esaurite, si è poi diffuso gradatamente in tutta Europa.

c) Le risorse o fonti energetiche oggi
Convenzionalmente le risorse energetiche vengono ripartite in due grandi categorie: quelle rinnovabili (flussi) e quelle non rinnovabili (scorte).
Le fonti rinnovabili derivano direttamente dall’energia solare e sono sostanzialmente l’energia idrica, quella eolica, e quella delle biomasse (perlopiù legna e, in misura minima, altri vegetali e rifiuti animali).
L’acqua viene utilizzata per azionare le pale dei mulini e le turbine delle centrali idroelettriche. Essa genera, attraverso il movimento, energia idroelettrica. Quest’ultima costituisce oggi più del 5% di tutta l’energia prodotta nel mondo. Per ottenerla si usano impianti (centrali idroelettriche) formati in genere da un bacino per la raccolta dell’acqua, da un sistema per il convogliamento di tale acqua alle turbine, e infine da generatori per la trasformazione dell’energia cinetica dell’acqua in elettricità. I problemi relativi alla produzione di energia idroelettrica consistono essenzialmente nel crollo delle dighe.
A tale riguardo ricordiamo l’incidente occorso nel 1963 in Veneto alla diga del Vajont, dove lo slittamento di una parte della montagna nel bacino formato dalla diga provocò la tracimazione di un’enorme massa d’acqua, che causò la distruzione del sottostante centro di Longarone e la morte di 2.000 persone. Questo incidente è ritenuto il più grave della storia energetica del nostro secolo.
Le biomasse impiegate per la produzione di energia sono costituite in percentuale larghissima dal legname e in quantità minime da alcune piante tropicali (euforbiacee) e da escrementi animali (come il “cow dung” impiegato in India). Esse sono utilizzate soprattutto nei paesi in via di sviluppo come combustibile per produrre energia termica. L’energia proveniente dalle biomasse equivale oggi a circa il 10% del totale dell’energia prodotta nel mondo. Essa viene consumata sul posto ed è pertanto fuori dai circuiti commerciali dell’energia.
L’impiego delle biomasse per la produzione di energia comporta una serie di problemi. Il primo dei quali è costituito dalla riduzione della superficie delle foreste. Si ricorda a questo riguardo che la conservazione del patrimonio forestale può essere garantita soltanto dall’adozione di adeguate pratiche di gestione: esse consistono nel mantenimento dei tassi di utilizzazione al di sotto dei tassi di ricostituzione naturale, oppure in interventi tecnologici in grado di sostituire i processi naturali (es. rimboschimento artificiale).
Quando queste pratiche non sono rispettate la foresta arretra dando luogo a un a serie di conseguenze negative, le più note delle quali sono l’erosione del suolo, la desertificazione e l’accelerazione dell’effetto serra.
Un’altra fonte di energia rinnovabile, anzi praticamente inesauribile dal momento che non richiede alcun tipo di intervento per la sua conservazione, è quella eolica. L’utilizzo su larga scala di quest’energia è però reso problematico dall’irregolarità della forza e della direzione dei venti, e inoltre dalle difficoltà relative all’accumulazione di essa. I paesi e le regioni più adatte allo sfruttamento di questo tipo di energia sono quelle dove il vento soffia a velocità e direzione costanti: tra esse la Danimarca, l’Olanda, la California e la Patagonia.
La ricerca tecnologica per rendere vantaggiosa l’energia eolica è indirizzata agli studi su nuovi materiali e alla sperimentazione di forme di controllo sempre più avanzate. La percentuale di energia eolica oggi prodotta nel mondo è irrilevante.
Le fonti energetiche non rinnovabili, cosiddette perché la velocità con cui i processi geologici le producono è infinitamente minore di quella con cui le civiltà le utilizzano, sono quelle destinate prima o poi ad esaurirsi, in quanto si consumano con l’uso. Il loro impiego non può continuare per sempre e alla fine, se non si trovano i sostituti, subentrerà la scarsità.
Esse sono costituite soprattutto dai combustibili fossili (che cosa significhi fossile do per scontato che lo sappaiate): carbone, petrolio e gas naturale, che sono le fonti primarie di gran lunga più utilizzate per la produzione di energia elettrica (termoelettrica), meccanica e termica. La percentuale di energia proveniente dai giacimenti fossili è pari a circa l’80% del totale dell’energia prodotta nel mondo e si suddivide all’incirca nel modo seguente: 24% deriva dal carbone, 35% dal petrolio, 21% dal gas naturale.
Nel breve e medio termine non è prevista scarsità fisica di queste risorse. I problemi relativi al loro utilizzo sono piuttosto legati al fatto che esse costituiscono una minaccia per la stabilità del clima globale per via del riscaldamento dell’atmosfera causato dall’effetto serra. Anche se vi sono incertezze relativamente alla gravità del fenomeno, il problema tuttavia sussiste ed è tale da porsi al centro delle riflessioni sul futuro del genere umano.
Alle possibili conseguenze negative derivanti dall’immissione di anidride carbonica nell’atmosfera, si aggiungono i danni alla salute umana causati dalle emissioni di cancerogeni, quali piombo, ossido di carbonio e ossidi di azoto. Infine esistono i rischi di incidenti o catastrofi, con vittime immediate e dispersioni di sostanze tossiche ad effetto differito, delle quali è difficile misurare la concentrazione a distanza.
Nel 1978 in Spagna esplosero serbatoi di propilene che causarono la morte di 216 persono e ne ferirono quasi altrettante. Nel 1981 a Tacoa in Venezuela l’esplosione di un complesso di serbatoi di petrolio causò 145 morti e 1000 feriti. A San Paolo in Brasile vi fu nel 1984 l’esplosione di un oleodotto che fece 508 morti. Anche per il gas naturale il rischio di incidenti esiste in forma grave. Si ricorda a questo riguardo l’esplosione dei serbatoi di gas liquido avvenuta nel 1984 a Ixhuatepec nel Messico con la morte di 550 persone, il ferimento di 7000 e l’evacuazione di 300.000, e inoltre l’immissione nell’atmosfera di grandi quantità di sostanze cancerogene.
Un’altra fonte energetica non rinnovabile e che tuttavia non pone problemi di scarsità per il futuro prossimo è l’uranio, i cui giacimenti si trovano principalmente in Canada, Stati Uniti, Australia, Sudafrica e Brasile.
L’uranio si trova sotto tre diverse varietà, o isotopi: l’uranio 234, l’uranio 238 e l’uranio 235. Quest’ultimo è l’unico con nucleo fissile esistente in natura. Ciò significa che il nucleo di uranio 235, quando è colpito da un neutrone, si spezza (fissione) in due; nel corso della fissione si generano in media anche due o tre neutroni, i quali a loro volta vanno a colpire altri nuclei; questi si spezzano e il processo continua. Si ha in questo modo una reazione nucleare a catena. La fissione dei nuclei di uranio produce energia termica. Il calore originato dall’energia nucleare viene utilizzato esclusivamente per la produzione di elettricità.
Nelle centrali nucleari si usa l’energia di fissione dell’uranio per riscaldare acqua che, sotto forma di vapore, aziona una turbina per la produzione di energia elettrica. Da questo punto in avanti nulla distingue una centrale nucleare da una centrale termoelettrica a carbone, a gasolio o a gas naturale. I problemi relativi all’utilizzo di uranio sono, al pari di quelli causati dall’impiego dei combustibili fossili, di due ordini. Da un lato, essi si riferiscono ai pericoli che sono intrinseci all’utilizzo stesso della risorsa, e dall’altro ai rischi che possono sorgere a seguito di incidenti o catastrofi.
I primi consistono nella difficoltà di smaltimento delle scorie, ossia di quelle sostanze radioattive chi si producono nel corso delle reazioni di fissione e che però non possono più essere utilizzate come combustibile. Alla luce del grave pericolo di queste sostanze, gli scienziati ipotizzano che la miglior soluzione di lungo periodo per renderle inoffensive sia lo stoccaggio in strutture geologiche profonde e stabili. Ma tali idee sono ancora speculative, mentre le normative a tutt’oggi vigenti non garantiscono l’assenza di rischi per coloro che abitano nelle vicinanze di un deposito.
Per quanto riguarda i pericoli di incidenti, i più gravi finora occorsi sono quelli dei reattori di Three Mile Island negli Stati Uniti (1979) e di Chernobyl (1986) in Ucraina. Essi hanno suscitato in tutto il mondo una preoccupazione diffusa. Il primo fu in incidente grave dal punto di vista tecnico, ma non provocò danni alla popolazione, mentre il secondo, da imputarsi a scelte errate compiute nel corso di un test di sicurezza, causò la morte immediata di 32 persone e l’iiradiazione acuta di 300, mentre i danni futuri sono di difficile valutazione.
L’incidente di Chernobyl ha confermato definitivamente la sovranazionalità delle problematiche ambientali e ha pertanto contribuito a rafforzare l’attenzione nei confronti di esse. A questo riguardo va tuttavia tenuto presente che gli scienziati concordano nel sostenere che i pericoli legati alla dispersione di sostanze radioattive vanno considerati non diversi da quelli che caratterizzano altre modalità di produzione di energia (crolli di dighe, incidenti in miniera, esplosioni di serbatoi) e non sembrano pertanto giustificare la scelta, compiuta da alcuni paesi, tra i quali l’Italia, di rinunciare all’energia nucleare.

TABELLA
LE RESE ENERGETICHE
legna               1 Kg = 3.600 calorie
carbon fossile 1 kg = 6.000-9.000 calorie
petrolio                       1 kg = 10.000 calorie
gas naturale    1 Kg = 8.000 calorie
uranio             1 kg = 20 miliardi di calorie

Oggi il consumo di energia nel mondo è pari a circa 40.000 calorie pro capite al giorno, corrispondenti ad un totale di 9 miliardi di tep; esso raggiunge le 110.000 calorie pro capite al giorno nei paesi industrializzati (che comprendono il 25% della popolazione mondiale), mentre è quasi dieci volte più basso in quelli in via di sviluppo, dove in parecchi casi gli individui sono così poveri da non avere neppure accesso al mercato dell’energia e da trovarsi quindi costretti a vivere delle fonti energetiche tradizionali (cibo, animali, legna).
La differenza nei consumi energetici tra paesi ricchi e poveri è uno degli indicatori principali del divario di benessere.
L’obiettivo di ridurre questa disparità, implica dunque anzitutto un incremento delle disponibilità energetiche nei paesi in via di sviluppo (che comprendono all’incirca il 75% della popolazione mondiale). Tale incremento, che a parere di alcuni studiosi potrebbe realizzarsi attraverso nuovi e continui perfezionamenti tecnologici finalizzati a diminuire i costi della produzione dell’energia, è però ostacolato dalla consapevolezza dei danni di carattere ambientale che ogni aumento nell’uso globale delle risorse energetiche rischia di portare con sé.
Ne consegue pertanto che le decisioni relative agli investimenti necessari per incrementare la crescita economica dei paesi in via di sviluppo si presentano in maniera estremamente complessa e problematica.
Di tale complessità sono indici i contrasti e le opposizioni che hanno caratterizzato finora le conferenze internazionali (Stoccolma 1987, Rio de Janeiro 1992, Roma 1995, Kyoto 1997), intese a conciliare lo sviluppo economico e il relativo fabbisogno energetico da un lato, con la salvaguardia dell’ambiente dall’altro. L’introduzione di normative, leggi e regolamenti è infatti subordinata alla realizzazione di accordi fra nazioni con interessi diversi, sistemi pilitici differenti, gradi di industrializzazaione dissimili, priorità disomogenee nella scelta tra profitto immediato e conseguenze a lungo termine.

 

3) Sviluppo e sottosviluppo
La questione nasce uffuicialmente all’epoca della conferenza di Bandung (Giava, 1955) che definì paesi del Terzo Mondo quelli che non appartenevano né all’Occidente industrializzato né al blocco orientale guidato dall’URSS. Oggi il termine di Terzo Mondo non corrisponde più alle esigenze di comprensione della situazione mondiale. Le reatà sono infatti assai più complesse, in ogni continente e sub-continente. Si preferisce così parlare di paesi sviluppati e di paesi sottosviluppati, o in via di sviluppo.
L’idea di sviluppo è un’idea piuttosto recente ed è un’idea che è legata allo sviluppo del sistema capitalistico, cioè al processo di industrializazione che è venuta maturando in Europa a partire dalla fine del Settecento. Tale idea è intrinseca a quella di evoluzione, cioè alla concezione per cui la società si evolve attraverso una serie di stadi.
La definizione di paese sottosviluppato è ovviamente relativa e si riferisce ad una vasta gamma di caratteristiche economiche, demografiche, sociali e politiche che non possono venire attribuite in egual misura a tutti i paesi in oggetto. Di norma le misure che descrivono il sottosviluppo comprendono da un lato bassi indici di industrializzazione, di reddito procapite e di speranza di vita, dall’altro alti indici di mortalità infantile (congiunti a un forte incremento demografico), di dipendenza dalle esportazioni di materie prime, di debito estero, di analfabetismo, in un quadro di diffusa indigenza e malnutrizione.
Storicizzato, il sottosviluppo è la conseguenza del colonialismo e della colonizzazione e si forma quindi dopo la seconda guerra mondiale. Un indicatore dello sviluppo molto usato è il Pil (valore della produzione di un paese) nei settori agricolo, industriale e dei servizi.
Nel 1990 l’ONU ha proposto di sostituire al Pil, o reddito pro capite, un nuovo indicatore dello sviluppo, lo Human Development Index (HDI), che tiene conto del potere di acquisto all’interno di ciascun paese, dei tassi di analfabetismo e della speranza di vita. L’HDI tende a far risalire nella scala paesi come Cuba, Giamaica e Costa Rica, e a far scendere i produttori di petrolio del Vicino Oriente.
Breve analisi dei diversi modi con i quali si è guardato al sottosviluppo e si è agito su di esso:
1) anni 50-60 In questo periodo il concetto di sottosviluppo si configura come problema essenzialmente quantitativo, un problema di mancanza o scarsità di alcuni fattori di produzione (capitali, tecnologie, organizzazioni) e di basso livello di alcuni indicatori economici (singole produzioni, reddito procapite, pnl). Quale soluzione si afferma che questi fattori e indicatori vanno incrementati e potenziati; ne conseguirà un processo auto-sostenuto di crescita economica;
2) anni 70 Reazione alla visione predecedente da parte del mondo socialista e tentativo di avvio di una crescita economica fondata sulla tecnologia di Stato e la costruzione di grandi manufatti per l’elettrificazione (opere di idraulica nelle regioni aride di Pakistan, Egitto, India, Irak, Cina). Ne sono seguiti dissesti idrogeologici;
3) anni 80 La critica agli interventi tecnologici e l’attenzione all’aspetto ecologico prendono piede sempre più. Soprattutto a seguito delll’incidente di Chernobil. Si afferma il concetto di sviluppo sostenibile, ossia la tendenza a conciliare il miglioramento della qualità della vita delle popolazioni sottosviluppate con la conservazione delle risorse naturali dalle quali dipenderanno le generazioni future. Si prende atto inoltre della grave crisi finanziaria (indebitamento dovuto a shock petrolifero del 1973 e 1979)) dei paesi sottosviluppati. Si propongono, quale soluzione, la riduzione dell’intervento pubblico in economia (passaggio alla privatizzazione e rimozione dei vincoli posti al mercato) sia all’interno dei singoli paesi (deregulation) sia in ambito internazionale (flessibilità dei cambi e apertura delle frontiere) e soprattutto una riduzione delle spese sociali da parte dello stato;
4) posizione odierna: I paesi sottosviluppati presentano una situazione fortemente deteriorata e le loro prospettive sono assolutamente drammatiche: il numero di coloro che vivono in condizioni di povertà è sceso in percentuale dal 52% (1970) al 44% (1985) ma è aumentato in valori assoluti da 944 a 1.156 milioni. Va inoltre considerata l’enorme crescita demografica, gli scarsi progressi agricoli, la struttura disuguale del commercio mondiale.

Esistono tre teorie relative al sottosviluppo che propongono diverse soluzioni.
1) Teoria della modernizzazione, sorta negli anni 50, sostiene che le principali cause del mancato sviluppo dei paesi sottosviluppati siano interne ai paesi stessi e siano rappresentate da inadeguatezze strutturali. Le classi sociali che impediscono il processo di sviluppo sono le oligarchie del passato e la burocrazia statale. Gli strumenti di intervento sono: progettazioni fondate sulla convinzione della possibilità della crescita di questi paesi secondo le tappe dei paesi occidentali, con un impegno dei paesi industrializzati per il sostegno e l’ammodernamento delle economie dei paesi sottosvil. E’ implicito l’assunto che l’esperienza storica dell’Occidente rappresenta un modello che i paesi sottosviluppati non devono fare altro che seguire per arrivare alla prosperità. Questo obiettivo va raggiunto attraverso lo sviluppo tecnologico, l’adozone delle pratiche e delle idee occidentali, il commercio estero e gli investimenti esteri.
2) Teoria della dipendenza. Sorge negli anni 50-60. Condivide la convinzione che il tasso di crescita economica può esser considerato una locomotrice che produce una dinamica in tutta la società, da cui deriva automaticamente il pieno impiego della forza lavoro e la sua integrazione sociale. Sostiene che le relazioni attuali fra Occidente e T.M. affondano le radici nelle precedenti epoche del colonialismo, quando le diverse regioni dei paesi del T.M. erano costrette a specializzarsi nelal produzione di beni primari destinati all’esportazione per soddisfare le necessità delle potenze coloniali. Vengono chiamate in causa anche le elites di quei paesi nei quali i centri urbani più ricchi operano come intermediari fra il centro capitalista e la periferia sottosviluppata.
3) Teoria sub-centrica. Si caratterizza e si distingue per essere più estremista e populista. I paesi del Sud sono assorbiti e distorti da quelli del Nord, i quali sfruttano a loro esclusivo vantaggio le loro risorse. I paesi ricchi rappresentano la principale causa del sottosviluppo insieme alla classe dominante dei paesi poveri, in un sistema centro-periferia. Per uscire dal sottosviluppo occorre rompere con il centro e rifiutare i modelli libero-scambisti dell’Occidente. La teoria si fonda sulla convinzione dell’inadeguatezza dei programmi basati sulla tecnologia e sullo sviluppo industriale. E’ meglio ricorrere a programmi limitati e basati sull’autogestione e sulle tecniche e organizzazioni locali perché garantiscono uno sviluppo equo e un maggior rispetto per l’ambiente. L’obiettivo prioritario dello sviluppo deve essere l’eliminazione della povertà e il soddisfacimento dei bisogni primari (cibo e riparo, ossia abitazione, riscaldamento), e in seguito assistenza sanitaria e scuole. Le strategie di sviluppo devono partire dal basso, cioè devono tener conto delle tradizioni economiche e sociali e delle vere necessità delle popolazioni dei paesi sottosviluppati Si tratta di un principio opposto a quello che sta alla base degli altri due (modernizzazione e dipendenza) che invece partono dall’alto.
Nel contempo si è creata una differenziazione stutturale nel vecchia concezione di Terzo Mondo. Un gruppetto di paesi emergenti (tigri asiatiche, banda dei quattro, nic: Corea sud, Taiwan, Singapore, Hong Kong), qualche paese dell’America latina, in particolare Brasile, Venezuela, Ecuador, i paesi dell’OPEC (esportatori di petrolio) ha compiuto una propria originale rivoluzione industriale fondata sul basso costo della manodopera, o sulla valorizzazione delle materie prime (OPEC). Parte dell’Africa subsahariana intanto è diventata Quarto Mondo.
Dal punto di vista delle cifre si ricorda infine che la popolazione dei paesi sottosviluppati equivale a circa il 75% della popolazione, realizza 1/5 del reddito mondiale e il 10% delle capacità industriali.

 

4) Sviluppo sostenibile e fonti energetiche
Come si è visto, per tutta l’era preindustriale le società umane hanno usato, e ancora oggi usano nelle zone più povere del pianeta, per compiere lavoro prevalentemente energia biologica: quella del proprio corpo, o quella del corpo di un animale da tiro, alimentati, l’uno e l’altro dal cibo. Per scaldarsi, cuocere e lavorare i metalli, gli uomini hanno usato, e usano tuttora, energia di origine vegetale, fornita dalla legna. Per macinare e attivare movimento necessario alle manifatture (tessili in particolare) essi sono ricorsi all’energia idrica e a quella eolica (i mulini ad acqua e a vento).
Lo sfruttamento dell’energia contenuta nei combustibili fossili (carbone prima, petrolio poi, e infine gas naturale) ha invece contraddistinto, a partire dalla seconda metà del Settecento con la rivoluzione industriale, il modo i produrre delle società occidentali. Ai combustibili fossili si è poi aggiunto, a partire dagli anni 50 del Novecento, l’uranio, l’energia atomica. Bassi sono rimasti invece gli usi dell’energia solare, eolica e geotermica, non tanto per problemi tecnici, quanto piuttosto per scelte economiche e politiche.
Ne è conseguito che, con la crescita economica, lo sfruttamento dei fossili, e più in particolare del petrolio, è fortemente aumentato negli ultimi decenni. E questo non solo nei paesi industrializzati, ma anche in alcuni di quelli in via di sviluppo, e cioè in quelli che hanno avviato in epoca relativamente recente processi di industrializzazione. Il risultato di tale aumento di sfruttamento dei fossili, e, ripeto, soprattutto del petrolio, è quello di aver portato le società che hanno basato il loro sviluppo sui fossili a una specie di empasse, ossia all’impossibilità di sopperire al fabbisogno energetico crescente (sia per i paesi industrializzati, sia per i paesi in via di sviluppo) senza causare forti ingiustizie e tensioni sociali, e senza recare danni all’ambiente. In altri termini, l’attuale quadro energetico confligge con l’idea di sviluppo sostenibile, sia per quanto riguarda il perseguimento dello sviluppo (che richiede un incremento di energia, e i fossili non sono rinnovabili: in particolare il petrolio, il più usato, come vedremo non è previsto durare a lungo), sia dal punto di vista del perseguimento della giustizia sociale (sono le economie sviluppate di mercato di gran lunga le maggiori consumatrici di combustibili fossili: pur costituendo la loro popolazione meno del 20% di quella mondiale, esse consumano il 70% dell’energia; un forte divario dunque, che è in aumento:  a riguardo, richiamo l’attenzione sul fatto che all’origine del debito dei paesi terzi, e più in particolare di quelli che non possiedono risorse energetiche e sono costretti a importarle, è stato proprio il petrolio, ai tempi dello shock degli anni 70 del Novecento). E infine l’attuale sistema energetico confligge con l’idea di sviluppo sostenibile anche dal punto di vista del perseguimento, attraverso la tutela dell’ambiente, dell’obiettivo di non impoverire di risorse le generazioni future. Si potrebbe quasi dire (e forse senza quasi, o senza forse) che il quadro energetico basato sui fossili è arrivato al paradosso di porsi come ostacolo al perseguimento dello sviluppo sostenibile, ossia di uno sviluppo (1) che esista per tutti (industrializzati e non) nel presente (2) e che possa continuare in futuro per tutti, attraverso la salvaguardia delle risorse (3).
Dunque, in pratica, occorre provare a uscire, almeno in parte, da questo sistema energetico al fine di poter avviare il tentativo di integrare economia (attraverso il perseguimento dell’obiettivo sviluppo), giustizia sociale (attraverso il perseguimento dell’obiettivo per tutti), e ambiente (attraverso il perseguimento dell’obiettivo di uno sviluppo che continui in futuro).
Adesso vorrei provare a riflettere sul sistema energetico attuale e sulla possibilità di costruire un sistema energetico alternativo con l’aiuto di qualche dato.
Partiamo dal petrolio. Dei tre combustibili fossili è più utilizzato perché, a differenza del carbone e del gas naturale, è facilmente trasportabile su terra (oleodotti) e su mare (petroliere), facilmente immagazzinabile e polivalente (da esso si può estrarre una vasta gamma di prodotti rispondenti a vari impieghi: benzina e altri carburanti, materie plastiche, filati, detergenti, ecc…). Ma entro la fine del secolo non ce ne sarà più.
E’ evidente che il petrolio non può concorrere a uno sviluppo sostenibile. Si tenga conto a riguardo che i primi giacimenti a esaurirsi saranno quelli più difficilmente sfruttabili (il petrolio degli Stati Uniti, la cui estrazione è già problematica da tempo, tanto che gli investimenti nella ricerca in questo settore sono in forte diminuzione a partire dagli anni 70; il petrolio del Mar del Nord, che ha già raggiunto il tetto produttivo ed è destinato a calare nel giro di poche decenni). Si prevede pertanto che la produzione petrolifera mondiale si concentrerà nell’area del Golfo Persico, dove si trovano i giacimenti sfruttabili fino all’ultimo. Il petrolio del Golfo è dunque destinato a diventare sempre più prezioso, soprattutto per i paesi in via di sviluppo. La situazione che si prospetta lungo tale via è quella di una sempre più forte competizione internazionale per il controllo diretto o indiretto di questi giacimenti; e di conseguenza la possibilità che essi divengano sempre più oggetto di confronti e scontri militari. Di fronte a tali pericoli si potrebbe intervenire con la progressiva diminuzione del peso del petrolio, pur non uscendo dall’attuale del sistema energetico.
Ci si potrebbe rivolgere al carbone. La lunga durata potrebbe far pensare alla possibilità di favorire uno sviluppo sostenibile. In realtà però non è così. Il carbone non consente infatti la riduzione del divario energetico tra paesi industrializzati e paesi in via di sviluppo, 1) perché è concentrato per oltre il 70% nelle attuali regioni più sviluppate e, tra quelle meno sviluppate, solo in Cina e in poche altre (vedere quali); 2) a tale situazione difficilmente può sopperire il trasporto, che è molto costoso; 3) non dà una garanzia di possibilità duratura e continuativa, essendo il combustibile fossile più inquinante. Il carbone dunque confligge con uno sviluppo che possa continuare anche in futuro.
Resterebbe il nucleare. L’energia nucleare è di due tipi: di fissione e di fusione. L’energia di fusione, che sarebbe sicura e inesauribile non è disponibile in maniera economicamente vantaggiosa, mentre quella di fissione lo è, ma comporta i seguenti problemi: alti costi, sicurezza, scorie, timore di un legame tra nucleare civile e militare. In Europa, ad esclusione della Francia, la costruzione di centrali è cessata. In Italia sono state chiuse alla fine degli anni 80.
Si può allora provare, sempre restando nel sistema energetico attuale, a migliorare l’efficienza energetica: evitare la dispersione, sostituire ai trasporti su strada quelli su rotaia, costruire edifici che fanno risparmiare energia. I mezzi tecnici che permettono di accrescere l’efficienza energetica riducendo i consumi esistono già. Il risparmio energetico però non dipende semplicemente da fattori tecnici, ma da tutta una serie di fattori economici, politici, sociali e culturali. Occorre, in altri termini, una politica che incentivi non solo lo sviluppo produttivo, ma la riduzione dei consumi energetici, attraverso una educazione alla cultura del risparmio: un esempio sono i comportamenti intesi a favorire il riciclaggio, piuttosto che l’uso della ferrovia e dei mezzi pubblici invece dell’automobile, ecc… Questa, del risparmio, dunque è una strada percorribile e utile. Però non è sufficiente.
Al miglioramento dell’efficienza energetica, ossia al risparmio di energia, va affiancato un nuovo modo di produrre energia. In altri termini va avviata, quanto meno parzialmente, la costruzione di un nuovo sistema energetico, basato sull’uso di fonti non inquinanti, rinnovabili e largamente disponibili: energia idrica, eolica, geotermica, biomassa ed energia solare diretta.
Oggi solo il 10% dell’energia consumata annualmente su scala mondiale viene fornita da fonti rinnovabili. Si tratta di una parte minima del potenziale, che può essere usato molto di più e molto più efficacemente.
Oltre all’acqua attualmente già utilizzata per la produzione di energia elettrica, piuttosto promettente sembra essere l’energia eolica, sfruttabile anch’essa per la produzione di energia elettrica attraverso aerogeneratori (una moderna versione degli antichi mulini a vento) in California e Nord Europa. Il costo dell’energia elettrica di fonte eolica è già attualmente inferiore a quello di fonte nucleare e si avvicina ad essere competitivo con quello dell’elettricità prodotta dalle centrali a carbone.
Non priva di rilievo è anche l’energia geotermica (generata dal calore di magmi che a 150-300 metri sotto terra trasformano l’acqua in vapore, in Italia a Larderello) che viene utilizzata per la produzione di elettricità e che però può essere anche utilizzata per il riscaldamento di edifici, serre, ecc… Il costo degli impianti per ora è alto.
All’acqua e ai magmi sotterranei possiamo aggiungere la biomassa, che ha un alto potenziale energetico, e che però viene per ora scarsamente e malamente sfruttata. Particolarmente vantaggioso è l’utilizzo 1)di alcune piante della famiglia delle euforbiacee; 2)dei rifiuti organici delle città e dei residui della lavorazione di alcune piante (riso in particolare).
Infine abbiamo l’energia solare diretta. Il sole, un gigantesco reattore nucleare a fusione, ha un immenso potenziale, ancora pochissimo sfruttato, che con le moderne tecnologie può essere oggi efficacemente utilizzato per produrre energia elettrica. Esistono molte tecnologie per lo sfruttamento delle radiazioni solari per la produzione di elettricità.
Un sistema energetico basato sull’energia solare e sulle altre fonti di cui si è detto (acqua, vento, biomassa) sembra dunque non confliggere con il traguardo dello sviluppo sostenibile. Si tratta infatti di un sistema basato su fonti rinnovabili, e inoltre decentrato, ossia tale da consentire la produzione energetica nei luoghi stessi in cui l’energia prodotta viene utilizzata, contribuendo così a non produrre divario tra i paesi. Dunque lo sviluppo sostenibile può essere ragionevolmente perseguito, sia per quanto riguarda le fonti, sia per quanto riguarda le tecnologie.
Resta però il fattore decisivo, quello delle scelte di politica energetica. Attualmente le scelte continuano, come sappiamo, ad essere fortemente influenzate dagli interessi collegati all’uso dei combustibili fossili. Mentre occorrerebbe: 1) destinare maggiori fondi alla ricerca nel settore delle tecnologie che permettono l’uso delle fonti rinnovabili e non inquinanti; 2) stabilire norme anti-inquinamento unite a tassazioni per gli impianti inquinanti e a detassazioni per quelli non inquinanti. In tali direzioni cominciano a muoversi alcuni paesi, tra i quali all’avanguardia è la Svizzera.
Insisto sul fattore politico, portando ancora una riflessione, prima di chiudere. Occorre infatti avere ben presente che la tecnologia può rivelarsi strumento di dominio e non di liberazione, se non viene utilizzata all’interno di forme di controllo democratiche. Ricordo a riguardo che negli anni 70 molte speranze erano state riposte nella rivoluzione verde. Con questo termine si intende quel progetto, realizzatosi appunto intorno agli anni 70, consistente nella produzione di cereali cosiddetti ad alta resa (cereali ottenuti attraverso una tecnologia basata su incroci effettuati in laboratorio tra diverse varietà di cereali con lo scopo di ottenere varietà finali più nutrienti). Una volta ottenute in laboratorio, tali varietà furono diffuse in alcuni paesi in via di sviluppo: il caso forse più noto è quello del riso IR6 nelle Filippine. Si riteneva che tali cereali avrebbero colmato il divario tra incremento demografico e produzione di beni alimentari. Ma il successo fu ridotto dalla maggior suscettibilità dei cereali ad alta resa agli attacchi e alle malattie, e dalla conseguente necessità di utilizzare insetticidi costosi e tossici: prodotti tecnologici, questi pesticidi, che hanno costretto i paesi che avevano adottato il programma di produzione di cereali ad alta resa a stringere la loro dipendenza economica dai paesi industrializzati. E in fondo si trattava di produrre energia (alimentare) da fonti rinnovabili (i cereali). Insomma la tecnologia da sola, e gli esempi potrebbero continuare, è condizione necessaria, ma non sufficiente per l’avvio di uno sviluppo sostenibile, che sottende invece un attento e costante intervento politico.

 

5) Le carte geografiche
La terra ha una forma sferoidale e pertanto la sua superficie non è sviluppabile su un piano. Soltanto mediante un globo possiamo avere una piccola rappresentazione della terra fedele. Ma i globi sono poco maneggevoli e inoltre non consentono di raffigurarre la superficie terrestre con quella ricchezza di particolari che sono invece assolutamente necessari negli studi di geografia. Ben maggiori quantità di dati compaiono nelle carte geografiche, che forniscono una rappresentazione in piano del nostro pianeta, o di una sua parte.
Una carta geografica si può definire come la rappresentazione ridotta, approssimata e simbolica di una zona più o meno vasta della superficie terrestre. La raffigurazione cartografica è ridotta: le dimensioni della terra sono rimpicciolite secondo un rapporto di riduzione che si chiama scala. Inoltre la carta geografica non è rigorosamente esatta poiché non è possibile sviluppare su un piano una superficie sferica senza che essa subisca delle deformazioni. Oggi si è arrivati a costruire carte quasi graficamente esatte.
Rispetto alla scala esistono carte molto e poco particolareggiate (dalle mappe, alle carte topografiche, alle carte corografiche, alle carte geografiche), vedi lucido 5..
Rispetto al contenuto abbiamo
1) carte generali , ossia fisiche, politiche, fisico-politiche;
2) carte speciali, ossia costruite per uno scopo preciso, nautiche, areonautiche, turistiche, geologiche;
3) carte tematiche che mettono in risalto particolari aspetti fisici, biologici, antropici ede economici: es. carte climatiche, carte etnologiche, carte economiche.

6) Il ruolo delle societa’ umane per le trasmigrazioni delle piante da un continente all’altro
La storia delle trasmigrazioni delle piante da un luogo all’altro della terra è antica di millenni.
E’ noto infatti che nel mondo vegetale le aree di maggior ricchezza genetica, capaci cioè di produrre molte varietà di piante, sono un numero limitato. E’ stato il genetista russo Nikolai Vavilov ad individuare, all’inizio del nostro secolo, queste aree e le piante originarie di ognuna di esse. Da queste poche aree le piante si sono diffuse in tutto il mondo e si sono modificate, grazie soprattutto all’intervento umano.
Di questa lunga storia prenderemo in considerazione solo alcuni aspetti: quelli che ci paiono poter offrire spunti in grado di aiutarci a ricostruire i nessi tra interventi nei confronti delle piante alimentari da parte di alcuni gruppi della società occidentale, consapevoli obiettivi economici e politici di questi gruppi, e loro conoscenze scientifiche.
Tralasceremo pertanto di considerare tutte le trasmigrazioni che hanno avuto luogo in epoca remota, in età classica e nel Medioevo e ci concentreremo invece sulle trasmigrazioni in epoca moderna e contemporanea. E’ infatti solo a partire dal Cinquecento che la trasmigrazione delle piante si fa più intenzionale, più razionale e più sperimentale; essa diventa fondamentale per l’economia, addirittura per la sopravvivenza di alcuni Stati europei. Alla trasmigrazione moderna si accompagnano inoltre, diversamente che in precedenza, descrizioni e relazioni da parte di botanici e naturalisti, che hanno lasciato in questo modo materiale più abbondante per il lavoro dello storico. Inoltre, con la scoperta dell’America, che segna appunto l’inizio dell’età moderna, si apre improvvisamente una nuova grande ricchezza e varietà vegetale, che determina grandi mutamenti nell’economia europea e mondiale: da questi mutamenti vale la pena di prendere le mosse.

  • Possiamo suddividere il periodo che prenderemo in esame in quattro parti:
  • dal Cinquecento all’inizio del Seicento;
  • dal Seicento al Settecento, che potremmo definire lil periodo delle piante e degli schiavi;
  • dall’età dell’Illuminismo all’Ottocento, caratterizzato dal nesso definitivamente intenzionale tra piante e scienza;
  • il Novecento, nel corso del quale assume importanza sempre maggiore il ruolo del denaro come mezzo per la ricerca tecnologico-scientifica.

a) Dal Cinquecento all’inizio del Seicento. Durante quest’epoca le trasmigrazioni cominciano a essere caratterizzate da una modalità sperimentale e intenzionale, anche se per un vero e proprio intervento scientifico e razionale occorrerà aspettare i secoli successivi. Nel Cinquecento e nel Seicento la conoscenza delle piante è infatti ancora limitata. Esse vengono ancora studiate esclusivamente per le loro caratteristiche curative: il botanico, colui che studia le piante, è sempre un medico, e se non lo è, è comunque uno studioso al servizio di un medico.
Conoscenza limitata dunque, ma non inesistente.
Un esempio: la descrizione scientifica della banana da parte del naturalista veneto Prospero Alpino. Egli vide la banana in Egitto nel corso del viaggio scientifico da lui compiuto tra il 1580 e il 1584. Originaria dell’India, essa era a quel tempo già passata ai Caraibi e in America del Sud, dopo essere trasmigrata dall’Africa e dalle Canarie. Nel Nuovo Continente essa si adattò talmente bene che per molto tempo gli scienziati la credettero indigena.
Nel corso di questo primo periodo parecchie altre piante, oltre alla banana, furono portate dagli europei in America. Infatti, appena arrivati in America, gli europei cominciarono a trasformare il più possibile il Nuovo mondo in una copia del Vecchio. Furono trasferiti fin da subito: grano, piselli, meloni, cipolle, insalata, viti, olivi e semi di frutta. Ognuna di queste piante trovò la zona adatta, e tutte insieme si estesero dagli umidi bassipiani delle coste atlantiche fino agli altipiani asciutti andini. In particolare, per quanto riguarda il frumento si può dire che, clima permettendo, gli spagnoli riuscirono a coltivarlo in quasi tutte le zone colonizzate dei loro possedimenti americani: a Rio de la Plata, a Nuova Grenada, in Cile, sugli altipiani dell’America Centrale. Già all’inizio del Seicento i coloni spagnoli erano in grado di disprre quasi ovunque di pane di grano. La vite fu coltivata a partire dalla metà del Cinquecento in Perù, e poi anche in Cile. Sempre in Cile e Perù (nelle valli costiere) l’ulivo venne piantato a partire, pare, dal 1560 (a questo anno, almeno, risale la prima testimonianza). Possiamo così dire che nel Seicento tutte le più importanti piante commestibili del Vecchio mondo erano coltivate in entrambe le Americhe.
Tragitto inverso fu invece quello compiuto dal mais che venne portato in Spagna da Cristoforo Colombo al ritorno, pare, già dal suo primo viaggio. Comune a tutti e quattro i popoli più antichi dell’America (atzechi, chibchas, maya, incas) la coltura del mais risaliva a epoche remotissime, come dimostra il ritrovamento, avvenuto in Perù, di semi di mais fossilizzato.
Il mais non si diffuse subito in Europa. Gli europei lo portarono invece in Asia. Fu Magellano a trasferirvelo, nel 1520. Esso ebbe un ruolo importante in Asia: contribuì all’incremento demografico avvenuto in Cina tra Cinque e Seicento. Grazie al mais fu possibile coltivare gli altipiani situati al di sopra del delta dello Yang Tse, altipiani non irrigabili e pertanto inadatti alla coltura del riso.
Una considerazione a parte merita lo zucchero di canna. Originario dell’India, esso era stato introdotto in Siria e in Egitto tra il X e l’XI secolo, poi in Sicilia. Nel Quattrocento il principe portoghese Enrico il Navigatore lo aveva fatto portare dalla Sicilia a Madeira, che in breve era diventata un’isola dello zucchero. Tra il Quattro e il Cinquecento esso era passato alle Canarie, alle Isole di Capoverde e alle Azzorre. Queste isole, compresa la Sicilia, furono tutte quante devastate dalla coltura della canna: intere foreste vennero distrutte per far posto alle piantagioni e per fornire il combustibile necessario al funzionamento dei mulini per frantumare la canna. Lo zucchero passò allora dove c’era abbondanza di foreste: nel Nuovo Mondo, a S. Domingo e sulla costa nord del Brasile.
l trasferimento dello zucchero a Santo Domingo e sulla costa settentrionale del Brasile (ricordo che l’adattamento della pianta fu facile, mentre in Europa essa non avrebbe potuto crescere per via del clima troppo freddo) ci introduce al secondo periodo che considereremo qui.

b) Dal Seicento all’inzio del Settecento. Il periodo delle piante e degli schiavi. Allo zucchero e alla sua coltivazione oltreoceano si collega infatti la tratta degli schiavi dalle coste occcidentali dell’Africa alle Antille e al Brasile. Ricordo che lo scopo era quello di impiegare la manodopera africana per sostituire nelle piantagioni di canna la popolazione indigena, che era stata decimata sotto i colpi delle spade, dei fucili e delle malattie portate dagli Europei a partire dal Cinquecento. Fu la carenza di forza lavoro locale a determinare l’arrivo di masse di africani in America. Lo zucchero e la tratta degli schiavi diventarono interdipendenti prima nei Caraibi e poi in Brasile. Furono soprattutto i portoghesi ad approfittare della vantaggiosa combinazione fra la tratta degli schiavi e la coltivazione dello zucchero di canna. Poi nel commercio entrarono gli olandesi, che invasero e occuparono il nord del Brasile. Infine arrivarono gli inglesi e i francesi che acquistarono parecchie isole dei Caraibi, estendendo così la coltivazione della canna e facendo inoltre salire la richiesta di schiavi. Il rilievo economico dello zucchero coltivato nelle piantagioni americane stava infatti notevolmente aumentando. A questo riguardo è opportuno tener presente che in Europa, proprio a partire dal Seicento, la produzione di miele era fortemente diminuita a causa dei diboscamenti, e della conseguente riduzione del numero degli alveari e delle api. Lo zucchero veniva dunque a sostituire un alimento che si stava facendo raro, e rispetto al quale aveva anche il vantaggio di consentire la conservazione della frutta e di rendere possibile la manifattura di marmellate. A dimostrare l’importanza assunta dalla canna da zucchero a partire dalla seconda metà del Seicento ricordiamo che gli olandesi cedettero New York all’Inghilterra (1664) in cambio di campi di zucchero nel Surinam, mentre nel 1763 la Francia abbandonò il Canada agli inglesi in cambio della Guadalupa, atta alla coltivazione dello zucchero.
Aggiungo ancora che dal punto di vista della storia economica lo zucchero costituisce un esempio interessante dei rapporti di produzione tra centro europeo e periferia tropicale. Mentre infatti la coltivazione e la frantumazione, affidate rispettivamente alla manodopera importata dall’Africa e ai macchinari importati dall’Europa, avevano luogo in America, la raffinazione e il controllo commerciale erano in mani esclusivamente europee.
Anche la storia del mais si lega a quella della tratta degli schiavi. Esso fu infatti introdotto nel Seicento in Africa dai portoghesi con lo scopo di poter disporre a basso prezzo del cibo necessario al mantenimento degli schiavi durante il traversata oceanica. Così mentre gli schiavi venivano trasferiti dall’Africa all’America per coltivare lo zucchero originario dell’Asia, il mais originario dell’America veniva trasferito in Africa per consentire il commercio dello zucchero in Europa. Il mais fu accettato rapidamente in Africa perchè cresceva in fretta e la sua coltivazione non richiedeva né l’aratro, né l’animale da lavoro. Era sufficiente l’uomo con la zappa. Esso aveva inoltre una resa energetica pari a 3 volte quella del frumento (13 quintali per ettaro, contro i 4 del grano, parlo di allora, cioè prima dell’invenzione dei concimi chimici e delle tecniche di ibridazione, alle quali accenneremo più avanti)
Anche la banana, trasferita in America del Sud fin dal Cinquecento, come si è detto più sopra, fu utilizzata a partire dal Seicento come cibo per gli schiavi che lavoravano nelle piantagioni di zucchero delle Antille e delle coste tropicali adiacenti.
Come si vede, ogni trasferimento è collegato agli altri. A questo riguardo vorrei far notare come sia insita nella monocoltura stessa (è il caso della piantagione di canna da zucchero in America per l’esportazione in Europa, o della piantagione di mais in Africa per nutrire gli schiavi destinati all’America), la necessità di trasferimenti di altre monoculture (per esempio, la banana per nutrire gli schiavi che lavoravano nelle piantagioni di canna). Le Antille e il Brasile furono forse le prime società nella storia del mondo ad essere dipendenti, per la loro sopravvivenza, dal trasferimento di cibo. Come vedremo, anche in seguito la monocoltura, spesso frutto di un trasferimento, porta come conseguenza altri trasferimenti e altre monocolture.

c) Da metà Settecento a fine Ottocento. Assistiamo a una grande novità. Nel trasferimento delle piante si introduce la scienza. La pratica non basta più. Occorrono ricerche sperimentali razionalmente programmate per poter effettuare nuovi trasferimenti.
I primi segnali in questo senso arrivano dalla Francia. Il nuovo spirito può essere sintetizzato dalle convinzioni dello scienziato René-Antoine Ferchault de Réaumur. A suo parere l’obiettivo del naturalista deve essere quello di individuare gli organismi utili, di ricercare quindi i loro analoghi e di vedere se tra questi ve ne sia alcuno da cui poter trarre gli stessi vantaggi. Un nuovo ruolo per il botanico, dunque. Che si stacca dalla sua tradizionale posizione, strettamente legata (come si è detto prima) alla medicina, e viene trascinato verso la sfera dell’economia e del potere politico fino al punto da assumere una funzione molto lontana da quella di partenza.
Le due nazioni in cui l’intesa tra botanica e potere politico ed economico si concretizza in maniera più palese e nello stesso tempo più efficace sono la Francia e l’inghilterra dove già a partire dalla seconda metà del 600 i naturalisti, e più in generale gli scienziati, si sono costruiti, con la fondazione della Royal Society di Londra (1660) e dell’Académie des Sciences di Parigi (1666), gli strumenti in grado di consentire loro di indagare sulla natura e sulle sue leggi.
In un primo tempo è la Francia di Luigi XIV e di Colbert ad offrire agli scienziati il terreno più adatto per soddisfare le loro esigenze intellettuali. All’Académie des Sciences, che dipende strettamente dalla corona si affianca l’Orto Botanico -l Jardin des Plantes- che intorno ai primi decenni del Settecento incomincia a perdere il suo carattere strettamente medico e si trasforma in un centro per lo studio delle piante con una visione più ampia e generale: all’interno di esso vengono infatti avviati studi sulle diverse specie, sui tipi di terreni e di climi più adatti allo loro coltura e sulle norme necessarie per tentare il loro trasferimento e la loro naturalizzazione, sia in patria, sia nei possedimenti d’oltremare. Già dagli anni Venti vi si compiono, per iniziativa congiunta del sapere scientifico e del potere politico, una serie di esperimenti sul caffè (ricordo che il caffè è originario dell’Etiopia). Tali esperimenti portano come risultato all’invio, avvenuto nel 1723, nelle colonie della Martinica e della Guadalupa di alcune decine di piantine dalle quali discenderà poi buona parte dei milioni di alberi che dai territori francesi d’oltreoceano riforniranno, nel corso di tutto il periodo che va dalla metà del Settecento alla metà dell’Ottocento, l’Europa illuminata della sua bevanda più rappresentativa. E proprio mentre nelle colonie del Nuovo mondo le piantagioni di caffè saranno causa dei più brutali sconvolgimenti per le società e le economie locali e alimenteranno inoltre sempre più prepotentemente il commercio degli schiavi, in Europa le botteghe di caffè diventeranno rapidamente la sede privilegiata delle discussioni, dei dibattiti e delle riunioni degli uomini colti e democratici. A questo riguardo ricordo che la pianta diede il nome anche al periodico riformatore, intitolato appunto “il Caffè”, fondato nella Milano illuminata dell’imperatrice Maria Teresa da Pietro Verri nel 1764.
Aggiungo ancora che l’altra bevanda di origine americana tipica del salotto settecentesco fu il cacao. Anch’esso, come il caffè, fa parte delle piante che non si riuscì a naturalizzare in Europa. Si riuscì però a portarlo in Africa occidentale (che oggi è il maggior produttore). Sia in Africa che in America esso fu coltivato nelle grandi piantagioni dagli schiavi. Il cacao fu utilizzato dagli Europei mescolato ad acqua e latte come bevanda (il cioccolatte) fino alla seconda metà dell’Ottocento, quando le tecnologie per la preparazione degli alimenti consentirono di consumarlo anche in forma di cibo solido.
Tornando al caffè vorrei aggiungere che esso non trasmigrò solo in America. Fu portato in Asia dagli olandesi, che lo introdussero a Giava e in Shri Lanka. Poi fu la volta degli inglesi che a partire dagli anni Trenta dell’800 deportarono molti lavoratori Tamil dall’India meridionale a Ceylon, con lo scopo di utilizzarli nelle piantagioni di caffè. Questa deportazione fu all’origine di una serie di gravi sconvolgimenti sociali, le cui ripercussioni si sono allungate fino a oggi.
Ma torniamo al Settecento e alla Francia, ossia al nesso tra scienza e trasferimento delle piante. Un momento importante è costituito dagli esperimenti compiuti a partire dagli anni Quaranta direttamente nei possedimenti francesi dell’Oceano Indiano. Gli scienziati attori sono: Pierre Poivre e Philibert Commerson. Lo scopo è quello di trasferire le spezie dall’estremo oriente alle isole mascarene. Il progetto viene ufficialmente avviato nel 1748 a Ile de France (oggi Mauritius) presso il giardino coloniale appositamente creato. Che in pochi anni diventa il centro di raccolta, selezione e distribuzione delle spezie orientali, e più in particolare dei chiodo di garofano e della noce moscata. Queste piante verranno, dopo gli esperimenti compiuti nel giardino, introdotte nelle colonie francesi di Madascar e a Bourbon (oggi La Reunion).

Tali esperimenti, così incoraggianti dal punto di vista economico e scientifico, si interrompono però quasi subito e non trovano alcun seguito. Il governo francese, che li ha patrocinati, si rende infatti conto di non avere interesse a proseguirli. Gli investimenti in ricerche sulle piante, richiedono, per essere remunerativi, il possesso di dominii coloniali sufficientemente estesi da poter garantire, attraverso le applicazioni delle conoscenze acquisite, un profitto sicuro. Non è il caso della Francia, che, anzi, sconfitta nella Guerra dei Sette Anni (1754-63), assiste proprio in quegli anni al crollo del suo impero coloniale. La scienza francese è costretta a cambiare direzione e, come vedremo più avanti, a rivolgere altrove i suoi interessi.
Tocca così all’Inghilterra, che esce vittoriosa dalla Guerra dei Sette Anni e che da ora in avanti dominerà incontrastata sugli oceani di tutti i continenti, assumere il ruolo di guida nel campo della ricerca naturalistica. Indubbiamente indicativa della mutata situazione è la nascita nel 1764 dei due giardini botanici inglesi alle isole caraibiche di Saint Vincent e Saint Thomas. Ma ulteriore e più chiaro segnale del cambiamento in corso sono i risultati ottenuti a seguito del primo viaggio intorno al mondo compiuto da James Cook tra il 1768 e il 1771. A bordo con lui è il naturalista Joseph Banks, che al suo ritorno mette a disposizione del governo inglese le numerose osservazioni compiute nel corso del viaggio, proponendo una serie di fortunate iniziative economiche, tra cui l’allevamento delle pecore merinos in Australia. E’ sua inoltre la proposta di introdurre l’albero del pane da Tahiti alle colonie inglesi d’America con lo scopo di utilizzarlo come alimento base per gli schiavi neri trasferiti dall’Africa per lavorare nelle piantagioni di zucchero delle Antille britanniche. Un primo invio di piantine, trasportate sul vascello Bounty, non giungerà però a destinazione; pare anzi che esse siano state la causa dell’ammutinamento dell’equipaggio: per i marinai della nave infatti l’acqua scarseggiava e veniva severamente razionata allo scopo di consentire la sopravvivenza del prezioso carico vegetale conservato nella stiva.
Il progetto di gran lunga più vantaggioso tra tutti quelli ideati da Banks è però quello relativo alla trasformazione dei Giardini Reali di Kew, fondati vicino a Londra dalla principessa Augusta attorno a metà Settecento, da giardini di piacere a centro di ricerca scientifico-botanica. Lo scopo è quello di avere a disposizione una struttura adatta allo studio e alla coltivazione delle piante vive secondo le nuove metodologie scientifiche messe a punto, come si è visto, dai naturalisti francesi: un centro, in altri termini, in grado di coordinare, sulla base di schemi razionali e programmati, tutti gli esperimenti diretti ad accertare la possibilità di trasferire piante ritenute utili da un continente all’altro dell’impero.
Gli esperimenti compiuti a Kew furono numerosissimi. Essi esulano perlopiù dal campo alimentare, per entrare piuttosto in quello della produzione manifatturiera (tessile e non) o in quello dell’apparato militare. Un caso tuttavia ci interessa direttamente: le conoscenze scientifiche raggiunte attraverso gli studi effettuati a Kew sono infatti all’origine del trasferimento del dalla Cina all’India. Tale trasferimento fu effettuato dietro iniziativa della Compagnia delle Indie Orientali che si rivolse al botanico Robert Fortune. Fortune non era un naturalista istituzionale, e però derivava le sue conoscenze dal patrimonio scientifico costruito a Kew, sulla base del quale era riuscito a scioprire che la differenza tra tè nero e tè verde non è dovuta, come aveva decretato più di un secolo prima il botanico svedese Carlo Linneo, ad appartenenza a specie distinte, ma a diverso trattamento cui vengono sottoposte le foglie della stessa specie. L’incarico affidato a Fortune dalla Compagnia di trasferire il tè dalla Cina all’India venne portato a termine con successo nel 1851 con l’arrivo in India attraverso il porto di Hong Kong, divenuto proprio allora britannico, di 2.000 piantine e di 17.000 semi di tè, corredati delle necessarie informazioni relative al loro habitat e inoltre accompagnati da alcuni uomini esperti nella loro coltivazione. I risultati economici dell’operazione non si fecero attendere: nel giro di qualche anno il tè cinese fu sostituito sulle tavole europee da quello proveniente dalle grandi piantagioni di Darjeeling, Assam e Ceylon. Senza la base scientifica fornita dagli esperimenti effettuati dai botanici il trasferimento non sarebbe potuto avvenire.
La Francia, che, come si è visto, era stata costretta a rinunciare alla ricerca finalizzata al trasferimento di piante da un continente all’altro, non rinunciò tuttavia ad applicare i risultati della ricerca scientifica per incrementare la produzione alimentare all’interno dei propri confini. Un esempio di tale applicazione ci è fornito dall’attività svolta da Antoine-Augustin Parmentier negli anni a cavallo tra Settecento eOttocento con lo scopo di avviare e di diffondere sul suolo francese la coltivazione della patata. Ricordo che la patata era giunta in Spagna all’inizio del Cinquecento, ma si era diffusa in Europa soltanto come curiosità, e non come pianta alimentare. Anzi in un primo tempo essa era andata incontro a paure e pregiudizi. Le condizioni ancora per tutto il Seicento non erano favorevoli alla sua diffusione. Ma la situazione muta nel Settecento, in concomitanza con il forte incremento demografico, che caratterizzò tutta l’Europa di allora, e la conseguente necessità di aumentare le rese della produzione agricola. La patata rispondeva perfettamente alla situazione: aveva una resa di più di 30 quintali per ettaro all’anno contro i 4 del grano. Ma il vantaggio in termini di rendimento non avrebbe potuto da solo determinare la diffusione della patata. Per tale diffusione fu necessario infatti un apparato scientifico in grado di selezionare le piante, di identificare il clima adatto, e di individuare i suoli più convenienti. E infine un robusto apparato statale, sufficientemente solido da poter imporre l’introduzione della nuova pianta nella dieta. Parmentier cominciò la sua serie di analisi chimiche nel 1771 e, dopo vari esperimenti, scoprì l’identità dell’amido estratto dalle patate e dal grano. Egli riuscì inoltre a determinare le condizioni climatiche e del suolo più adatte alle patate, scoprendo che le patate crescono nelle situazioni non adatte al grano, e che pertanto esse si integrano con questo, ma non lo sostituiscono. Dopo vari anni, raccogliendo i fili delle sue ricerche e dei suoi esperimenti, pubbicò un trattato sulla patata contente la descrizione delle diverse varietà, le istruzioni sulla piantagione e la coltivazione, consigli su preparazione, cottura e condimento, ricette per fare il pane con la fecola invece che con la farina.
Dalla Francia la patata passò all’Irlanda, dove divenne la maggior fonte di sostentamento per le masse contadine, tanto da determinare nel periodo che va dalla fine del Settecento alla prima metà dell’Ottocento un aumento vertiginoso della popolazione, che passò da circa 5 a 8 milioni di anime. Nel corso di questo periodo era ripetutamente avvenuto che il raccolto di patate andasse distrutto. E però si era trattato di episodi circoscritti. Episodi che divennero più frequenti a partire da 1840, sfociarono nel 1845 nella perdita totale dei raccolti. Le piantine di patate furono attaccate improvvisamente e tutte quante sterminate. Al posto delle foglie e dei fiori non rimasero che steli appassiti e nerastri. Il problema investì ben presto l’intera isola, tanto che nessuna delle varie qualità di tubero utilizzate in Irlanda restò indenne. La causa di tale catastrofe fu individuata in un fungo di origine americana, noto oggi con il nome di peronospora della patata (Phytophthora infestans). Le condizioni delle popolazioni rurali divennero spaventose. A questo riguardo occorre tenere presente che i contratti agrari erano strutturati in modo da costringere il contadino a mangiare patate e a pagare il fitto ai proprietari con altri generi alimentari.  Di fronte alla carestia il governo inglese inviò in Irlanda una Commissione d’inchiesta, incaricata di fare il punto sulla situazione. Ma il muro eretto dai proprietari terrieri rese impossibile l’attuazione di un programma di intervento. Nel 1846 la violenta invasione di Phytophtora si ripetè: la distruzione del raccolto fu totale, al pari dell’angoscia e della desolazione che ad essa seguirono. Dopo che per due anni consecutivi il raccolto era andato completamente distrutto, la situazione degenerò e a ssunse la dimensione di una vera e propria carestia, una catastrofe energetica di immensa portata, forse la più grave della storia europea. Si verificarono sommosse, disordini e tumulti, ai quali seguirono leggi speciali e repressioni. Il bilancio finale fu la morte per fame e per malattia di più di un milione di individui e un’emigrazione in massa verso l’America che è stata calcolata per gli anni tra il 1847 e il 1854 di oltre un milione e mezzo di persone, molte delle quali perirono per stenti durante la traversata. A seguito di questa catastrofe gli studiosi delle piante, e più in particolare i fitopatologi hanno dedicato nel corso dei decenni a cavallo tra 800 e 900 moltisima attenzione alla malattia della patata e sono riusciti a mettere a punto varietà molto resistenti. Il problema tuttavia ancora oggi non è del tutto risolto.
L’altra pianta che si estese nell’Europa del Settecento è il mais che a partire dalla fine del secolo, e nel giro di pochi decenni, si affermò come coltura fondamentale nelle campagne dell’Europa centro-meridionale, determinando soprattutto negli Stati balcanici, il passaggio dalla pastorizia all’agricoltura e contribuendo inoltre al forte aumento della popolazione in Polonia, Ungheria e Stati danubiani. Intorno alla metà dell’800 esso era diventato per i contadini delle zone più povere la base esclusiva dell’alimentazione, mentre il frumento veniva destinato alla vendita. Queste comunità di contadini poveri iniziarono allora a venir colpite dalla pellagra, nota anche come mal della rosa, una malattia mortale dovuta a carenza di vitamina PP (Pellagra Preventing). La presenza nel mais di tale vitamina in forma legata richiede, come sappiamo oggi, la necessità di particolari accorgimenti nelle modalità di assunzione del cereale, accorgimenti che, pur noti alle società precolombiane, non erano stati adottati dalle popolazioni europee dell’epoca. Nell’Italia settentrionale, e più in particolare in Veneto e in Lombardia, dove il mais era stato introdotto a partire dalla fine del Seicento e dove era rapidamente diventato l’unica fonte di sussistenza per la massa dei braccianti e dei coloni, impoveriti dal processo di privatizazzione della terra, la pellagra si diffuse nelle campagne nel corso del 700 e raggiunse la massima diffusione a metà dell’Ottocento: più di 40.000 malati furono contati nel censimento del 1858. Il nuovo Stato nazioneale, appena costituito, non seppe intervenire in alcun modo. Fu così necessario aspettare che la dieta dei contadini si arricchisse (anni Venti e Trenta del Novecento) perché la malattia regredisse e infine scomparisse dal nostro paese. Occorre però tener presente che tale malattia colpisce ancora molte zone del mondo.

d) Da fine Ottocento a oggi E’ l’epoca che si caratterizza per una massiccia prevalenza dell’intreccio di scienza e denaro. Il centro della nostra storia si sposta dall’Europa agli Stati Uniti. La pianta più interessata è ancora una volta il mais. Negli Stati U niti il mais comincia ad essere coltivato a partire dagli ultimi decenni dell’Ottocento, quando le innovazioni tecniche consentono la costruzione di aratri sufficientemente robusti e nello stesso tempo maneggevoli da riuscire a estirpare la prateria e sostituirla con grandi piantagioni in parte di frumento e in parte di mais. E’ a cominciare da allora che gli Stati Uniti si sono avviati verso la strada che li ha portati a diventare i primi produttori di mais del mondo. Ma la meccanizzazione dell’agricoltura non è che l’inizio di un nuovo cammino.
Qualche decennio più tardi vengono sperimentate le prime tecniche di ibridazione, che consentono di selezionare, attraverso l’incrocio tra individui recanti ciascuno determinati caratteri ritenuti interessanti, nuovi individui all’interno dei quali tali caratteri si assommano secondo gli obiettivi ricercati. Senza le tecniche di ibridazione la coltura del mais non si sarebbe sviluppata in maniera così estesa negli Stati Uniti. Apro una parentesi e ricordo che gli Stati Uniti sono oggi il primo produttore mondiale: con più di 150 milioni di tonnellate su un totale mondiale di 500 milioni; vorrei sottolineare inoltre che oggi il mais è diffuso in tutte le zone della terra a clima caldo e temperato: dall’equatore fino al 50° parallelo, dal livello del mare fino a 3000 metri di altitudine, sotto le piogge o in condizioni semiaride, e con cicli di crescita che variano da 3 a 13 mesi. La produzione globale di mais è all’incirca di 500 milioni di tonnellate all’anno con una resa per ettaro che varia da circa 80 quintali per ettaro (nei paesi industrializzati) ai 20 quintali per ettaro dei paesi in via di sviluppo. Più della metà del mais prodotto è utilizzato direttamente come cibo per gli uomini (in particolare in Africa e in America del Sud). Il resto viene destinato agli animali e, in misura molto inferiore, all’industria, sia alimentare che non, per la produzione di zucchero, sciroppi, bevande, chewing-gum, colle, ecc...
Ma torniamo agli ibridi, che hanno reso possibli i dati appena elencati. La storia scientifica delle ibridazioni comincia a metà Ottocento con le ricerche di Charles Darwin, ricerche che egli descrisse in maniera molto particolareggiata all’amico Asa Gray, un naturalista americano. Fu un allievo di Gray, William Beal, professore all’Università del Michigan, a proseguire il lavoro (siamo alla fine degli anni 70). Ma i risultati dei suoi studi non furono del tutto soddisfacenti.
Il passo successivo fu compiuto da Georg Shull, che era ricercatore in un laboratorio vicino a New York: I risultati delle sue lunghe ricerche, positive sul piano scientifico, si rivelarono però inadatti ad essere applicati sul campo: la produzione di ibridi era ancora troppo costosa. Fu quindi la volta di Donald Jones, della stazione sperimentale agricola del Connecticut, che negli anni 20 del Novecento riuscì finalmente a mettere a punto, grazie alle conoscenze acquisite a seguito della formulazione da parte di Mendel delle leggi sull’ereditarietà dei caratteri, un metodo utilizzabile e vantaggioso per gli agricoltori. Gli esperimenti sull’ibridazione di Jones sfociarono nella effettiva realizzazione del mais ibrido coltivabile con notevole vantaggio dal punto di vista della resa. Attraverso una selezione sempre più accurata, consentita da investimenti in denaro sempre più cospicui, fu possibile produrre varietà di mais ad altissima resa e adatte inoltre alle zone climatiche più disparate. Si incorporarono poi speciali caratteristiche, come la resistenza alle malattie e la tolleranza alla siccità; e si svilupparono piante in grado non solo di produrre due o tre pannocchie invece di una, ma nelle quali (piante) le pannocchie si trovavano sistemate sul fusto in modo uniforme allo scopo di agevolare la raccolta meccanizzata. Il prodotto naturale fu così trasformato in un artefatto risultante dall’applicazione delle leggi sull’ibridazione e sulla selezione a fini di profitto.
L’affermazione sul campo del mais ibrido è iniziata nel 1935 (anno in cui solo l’1% del mais prodotto negli Stati Uniti era ibrido). Oggi tutto il mais prodotto negli Stati Uniti e nei paesi industrializzati è ibrido. Anche in America latina il mais ibrido sta gradualmente prevalendo su quello originario, con grande incremento nella resa. E però con il rischio di aprire il problema del l’impoverimento dal punto di vista della biodiversità.
Una accelerazione e una estensione nella selezione dei caratteri vantaggiosi sono state rese possibili negli ultimi decenni con lo sviluppo, soprattutto negli Stati Uniti, del settore della biologia molecolare. Infatti, mentre gli ibridi possono essere ottenuti soltanto all’interno della stessa specie e dopo lunghi e ripetuti tentativi che si prolungano per anni e anni, con le tecniche molecolari è diventato possibile trasferire in tempi brevi materiale genetico addirittura da una specie all’altra. Anche fra specie lontane, perfino tra animali e piante.
La biologia molecolare rende virtualmente possibile il trasferimento di piante di mais (o anche di altre specie) in ogni zona della Terra: è sufficiente infatti corredare una data specie vegetale, dei geni prelevati da un’altra specie vegetale o anche animale, geni in grado di rendere la prima specie resistente al gelo, o alla siccità, o alla mancanza di luce, o a un tipo di suolo piuttosto che a un altro, ecc...
La biologia molecolare, meglio nota con il termine di bio-tecnologie o ingegneria genetica, è diventata un affare, un business, di grande importanza dal punto di vista dei profitti. E’ molto difficile valutare le future conseguenze della ricerca transgenica dal punto di vista tecnico-scientifico-biologico.Tanto più per chi non è esperto. Dunque non ne parlerò. Non è qui la sede. E però, prima di concludere, vorrei accennare almeno a una questione: al di là delle problematiche tecnico-scientifiche riservate agli esperti, esistono aspetti sui quali ognuno di noi può provare a riflettere e a farsi un’opinione. A tale proposito desidero accennare ad alcuni punti che suscitano parecchi interrogativi.
In primo luogo ricordo, a maggior chiarimento, che le ricerche nel campo della ibridazione, delle quali ho parlato più sopra, erano state effettuate all’interno di istituzioni pubbliche (laboratori, centri, università, ecc...), sostenute e finanziate dalla collettività. Tali ricerche erano di conseguenza collegate con i bisogni e con le richieste della collettività, che veniva inoltre informata dei risultati scientifici man mano raggiunti. Le indagini e gli esperimenti nel campo delle biotecnologie agricole e sanitarie sono invece nelle mani di pochissimi privati: le multinazionali, 15 in tutto, delle quali 13 americane, che investono migliaia di dollari in ricerche orientate alla produzione di organismi geneticamente modificati con lo scopo di incrementare i loro profitti. Tali aziende non hanno alcun obbligo di pubblicare e di diffondere i risultati delle loro ricerche. Esse hanno pertanto hanno rescisso ogni legame con la collettività e con le sue esigenze. Ma non solo: grazie al loro potere economico, esse riescono ad assicurarsi l’appoggio del potere politico che rischia così di trasformarsi (quando non si trasforma) in porta-parola dei loro privati interessi commerciali. In questo modo lo sviluppo delle biotecnolgie, che pure potrebbe contribuire al benessere collettivo, potrebbe rischiaredi orientarsi verso un rafforzamento del potere industriale, concorrendo così ad aumentare il divario tra Nord e Sud del mondo.
Aggiungo ancora che le multinazionali impegnate nella biotecnologia, possono, allo scopo di tutelare le loro invenzioni, brevettarle, trasformando così la pianta (un bene di tutti, secondo le parole delle Nazioni Unite) in una merce di loro esclusiva proprietà e costringere di conseguenza gli agricoltori a dover dipendere dalla singola multinazionale che detiene il brevetto, per procurasi ogni anno la semente. Come è stato detto dallo studioso di storia dell’agricoltura americano Jack R. Kloppenburg, il seme passa così dall’essere prodotto e mezzo di produzione, all’essere solamente prodotto: l’agricoltore, in altre parole, viene privato del mezzo di produzione in quanto deve comprare il seme dalla multinazionale che ne detiene la proprietà e gli resta solo il prodotto (il raccolto). Mi fermerei qui per ora e inviterei a riflettere su come lo sviluppo delle biotecnologie sollevi importanti questioni di ordine economico e politico, e faccia emergere con chiarezza il conflitto tra libertà del potere economico da un lato e controllo da parte del potere politico dallaltro, soprattutto per quanto riguarda gli interessi privati nel campo dell’alimentazione mondiale e della salute, due campi che dovrebbero restare nel dominio del potere pubblico. E la preponderanza, che può realizzarsi in alcuni casi, degli interessi privati rispetto al controllo politico potrebbe essere la base di partenza per avviare la comprensione delle dinamiche che sottostanno a determinate scelte scientifiche piuttosto che ad altre.

 

6) Il riso: molti uomini per poca terra, poca terra per molti uomini
Originaria dell’Asia sud-orientale (Cina e Indocina), la coltura del riso è stata per millenni la più evoluta e la più diffusa. Meno antica di quella del grano, che risale a circa 5000 anni a. C., essa prese l’avvio intorno al 2000 a. C. e da allora è rimasta praticamente immutata sino agli anni Cinquanta del Novecento.

a) L’irrigazione
Caratteristica dell’agricoltura del riso è la ricostituzione della fertilità del terreno quasi esclusivamente attraverso un’irrigazione continua, ottenuta tramite la costruzione di una complessa e diffusa rete idraulica. La presenza di corsi d’acqua è fondamentale per l’agricoltura irrigua, poiché il limo trasportato dai fiumi, ricco di potassio, fosforo e argilla (come il loess cinese, che manca ai suoli europei), permette l’apporto costante sali e sostanze nutritive alle piante di riso. L’acqua piovana è molto più povera di sali minerali dell’acqua di fiume, e anche molto più scarsa. Grazie all’irrigazione diventa così possibile effettuare una coltivazione continua, non soggetta a rotazione, sempre sullo stesso fondo, e, in molti casi, ottenere anche più di un raccolto all’anno. Il rendimento per ettaro diventa altissimo e consente di alimentare popolazioni molto dense.
Le radici del riso hanno bisogno di una grande quantità di ossigeno, del quale l’acqua stagnante le priverebbe: di conseguenza non esiste nessuna risaia in cui l’acqua non sia in movimento per rendere possibile l’ossigenazione. La tecnica idraulica non può dunque limitarsi a  provocare l’allagamento dei campi, ma deve funzionare in maniera molto più complessa, al fine di sospendere e alternativamente creare il movimento delle acque. Un sistema di drenaggio adeguato deve inoltre consentire di eliminare rapidamente dai campi le acque eccedenti, nonché di prosciugare la risaia, soprattutto prima del raccolto.
In Cina l’irrigazione prese avvio nel IV sec a. C., in concomitanza con una politica governativa di deforestazione e di miglior sfruttamento della terra. Fu questa l’epoca in cui il Paese, rivolgendosi all’idraulica e alla produzione intensiva del riso, cominciò a dare forma al paesaggio classico della sua storia.
La costruzione delle opere di controllo delle acque fu fin dall’inizio un compito espletato essenzialmente dal potere pubblico: i canali di irrigazione, i bacini di raccolta, le vie d’acqua artificiali e le opere di drenaggio e di controllo delle inondazioni erano costruite dallo Stato con il duplice scopo di incrementare la produttività agricola e di consentire il trasporto del riso (con il quale i contadini pagavano il loro tributo allo Stato) verso le grandi città, sedi della burocrazia statale. Di qui il riso veniva inviato all’esercito, senza il quale l’imperatore e i suoi funzionari non avrebbero potuto mantenere la loro posizione di comando. L’irrigazione fu dunque una condizione indispensabile per l’agricoltura intensiva del riso, sulla cui base la società agraria cinese si venne sviluppando, così come la società industriale del capitalismo moderno europeo ebbe a fondamento del suo progresso economico il carbone e l’acciaio.
La costruzione dei canali veniva generalmente promossa mediante editto imperiale e richiedeva lo sforzo di decine di migliaia di uomini, che lavoravano in regime di corvée sotto la supervisione di ufficiali incaricati dal potere centrale. In complesso, una immensa concentrazione di lavoro, che non avrebbe potuto funzionare se le grandi linee del sistema amministrativo non fossero state rigidamente controllate dall’alto. Le risaie, dice lo storico francese Fernand Braudel, hanno portato con sé forti discipline sociali.

b) Il lavoro dei campi
Le fatiche investite generazione dopo generazione non si limitarono tuttavia alla fabbricazione dell’immensa, capillare rete idraulica artificiale, che ancora oggi innerva larga parte del territorio cinese.
Le attività quotidiane dei campi richiedevano una quantità di lavoro non meno gravosa. L’agricoltura irrigua del riso si caratterizzò infatti, fino a tempi molto vicini a noi, per lo scarso uso sia di attrezzi agricoli, sia di animali da lavoro. Tutte le operazioni venivano svolte dall’uomo, con le sue sole energie e con pochi aiuti. Perfino la preparazione dei campi era effettuata dalla forza del contadino, che si avvaleva della zappa oppure trainava da sé, spesso senza l’ausilio dell’animale, un aratro rudimentale perlopiù costruito in legno e adatto ai suoli leggeri. Il terreno così arato veniva quindi reso uniforme con un erpice, trascinato anch’esso dall’uomo. Seguiva l’allagamento dei campi, previa apertura degli argini dei canali, e l’immissione controllata dell’acqua per mezzo di una primitiva ruota idraulica azionata a mano o con i piedi, meglio nota con il nome di “macchina a schiena di drago”. Si passava quindi al trapianto dei germogli, fatti crescere in precedenza in piccoli vivai, abbondantemente concimati. A questa fase di lavoro, che richiedeva un’immensa fatica, seguiva la liberazione del campo dai granchi e dalle erbe che infestavano le acque: un’operazione quest’ultima che, sebbene resa meno problematica nei terreni dove il riso era stato trapiantato rispetto a quelli dove era stato piantato direttamente, implicava tuttavia, ancora un a volta, un altissimo apporto di lavoro umano. Le attività si concludevano con il prosciugamento dei campi, che avveniva tramite l’uso di pompe a pedale analoghe a quelle utilizzate per l’allagamento, e quindi con il raccolto, che si effettuava mediante il sussidio di falcetti e coltelli, e infine con la trebbiatura e la vagliatura, basate anch’esse, non meno degli altri processi lavorativi fin qui descritti, sull’assiduo contributo energetico del corpo umano.

c) L’assenza dell’animale
La complessità delle operazioni descritte e la necessità di costanti e attente cure da parte del contadino alle successive fasi delle attività campestri richiedevano, come di è visto, l’uso assiduo, quasi esclusivo, della mano dell’uomo e hanno pertanto reso difficile la sostituzione di essa sia con l’animale, sia con mezzi meccanici. Infatti quanto più complicato e multiforme è lo svolgersi dei compiti lavorativi, tanto più si pongono come insostituibili la versatilità e l’intelligenza dell’uomo, fino al punto da escludere la convenienza ad avvalersi di sussidi o di sostituti (animali da tiro e macchine). Sembra dunque non essere un caso, come ha ripetutamente sostenuto lo storico italiano Paolo Malanima, che i processi lavorativi della coltivazione del riso siano stati meccanizzati soltanto in epoca molto recente.
L’assenza dell’animale dal ciclo produttivo della coltura irrigua del riso portò con sé una scarsissima disponibilità di carne e di latticini per l’alimentazione; e inoltre sospinse le risaie verso l’abitato, attirate dai rifiuti cittadini, dagli escrementi umani, e dal fango delle strade che fertilizzavano i vivai, dove crescevano i germogli di riso. Di qui un incessante andirivieni di contadini, che si recavano in città per acquistare concime e vendere riso; di qui gli odori insopportabili che aleggiavano ovunque sui campi e sulle città cinesi. La simbiosi tra città e campagna, ricorda ancora Braudel, fu più forte in Asia che in Europa.

d) Rese unitarie, dimensione dei poderi e incremento demografico
L’irrigazione continua e la costante cura nel lavoro dei campi resero la produttività della terra coltivata a riso particolarmente elevata.
Un ettaro di terra a riso rendeva, prima dell’introduzione dei fertilizzanti chimici, circa 21 quintali di prodotto, contro i 5 quintali di un ettaro a grano; o anche, dal punto di vista energetico, sette milioni di calorie contro un milione e mezzo. Queste cifre, da sole, ci dicono l’enorme superiorità della risaia. E inoltre ci spiegano come mai l’unità di coltura delle agricolture irrigue fondate sul riso fosse molto piccola. In Cina in età moderna una famiglia media poteva essere nutrita con il prodotto ricavato da un ettaro di terreno; in Europa erano necessari quasi dieci ettari. Qui il raccolto per superficie coltivata era basso, sia a causa della natura dei suoli non irrigui, sia a causa delle rese relativamente modeste del grano. Così, mentre il sistema agrario orientale si caratterizzò per una bassa intensità di terra e un’elevata intensità di lavoro, quello europeo si distinse per una bassa resa unitaria e per un conseguente utilizzo estensivo della superficie lavorata. In Europa, in altri termini, per alimentare una persona occorreva molta più terra. Le operazioni agricole, in particolare l’aratura, l’erpicatura e la trebbiatura, non potevano essere svolte con le sole forze del corpo umano: l’estensione da sottoporre a coltura era troppo vasta. Ecco allora intervenire l’animale, capace di compiere i gravosi e iterativi lavori richiesti dall’agricoltura asciutta del grano, trainando l’aratro pesante dotato di ruote, indispensabile per penetrare in profondità i suoli pesanti dell’Europa continentale, e inoltre di fornire con i suoi escrementi l’energia chimica necessaria per rendere il suolo produttivo. Nell’Europa preindustriale fu l’animale e non l’acqua dei fiumi, come in Asia, il mezzo in grado di restituire al suolo i minerali necessari (fosforo, potassio e azoto). Senza l’animale da lavoro la superficie asciutta coltivata a grano avrebbe dovuto essere inferiore, e ne sarebbe conseguita una più bassa produttività del sistema agricolo. Alimentare il contadino e la sua famiglia sarebbe stato estremamente problematico; del tutto impossibile far fronte al fabbisogno degli abitanti delle città. La civiltà agraria europea sfruttò su vasta scala il lavoro animale, investendo capitali per il mantenimento e l’utilizzo efficiente (innovazioni tecniche, ferratura, bardatura, ecc...) di buoi, cavalli, asini e muli.
Diversamente dal sistema irriguo asiatico fondato sulla coltura del riso, il sistema agrario europeo basato sulla coltura asciutta del grano si caratterizzò per l’alta intensità della superficie coltivata, la bassa intensità del lavoro svolto e l’alta intensità del capitale investito.

e) Densità demografica, costo del lavoro e condizioni tecniche
L’elevata produttività della terra costituì uno stimolo di rilievo in direzione di una forte densità demografica. Questa caratterizzò per secoli, e caratterizza tuttora, le grandi regioni asiatiche coltivate a riso: Giava, il delta del Tonchino, le provincie meridionali della Cina. In tali zone l’incremento demografico portò come effetto ad un aumento dell’intensità di lavoro (più concime, maggior attenzione nei trapianti e nella liberazione delle acque dagli infestanti, ecc...), e al conseguente raggiungimento di una resa della terra ancora più elevata. In altri termini, in Oriente la coltura irrigua del riso richiese e nello stesso tempo consentì la presenza di un elevato numero di lavoratori. In Europa le scelte furono diverse: all’incremento demografico si fece fronte infatti con maggiori investimenti in terra (incremento della superficie a coltura attraverso deforestazione e dissodamento) e in capitale (utilizzo di animali e, a partire dall’Ottocento, di mezzi meccanici).
Il tradursi dell’elevata resa della risaia in un maggior numero di lavoratori, invece che in un miglioramento delle condizioni di vita, ebbe per conseguenza, da un lato il cosiddetto paradosso asiatico, ossia la possibilità di convivenza tra alta produttività per unità di superficie coltivata e denutrizione della popolazione, e dall’altro un’abbondante offerta di lavoro, cui si accompagnò un basso costo della manodopera. All’interno di siffatta situazione gli incentivi in direzione del risparmio di lavoro mediante lo sfruttamento di animali o mezzi meccanici che integrassero le fatiche dell’uomo, non ebbero, diversamente da quanto accadde in Europa, alcun richiamo. Accanto a queste considerazioni è infine opportuno ricordare come lo scarso utilizzo di sussidi energetici nell’agricoltura irrigua sia da attribuire anche alle condizioni tecniche in cui si svolgeva la coltivazione del riso, che fino a tempi molto vicini a noi, ha richiesto, come si è accennato più sopra citando le tesi di Malanima, l’uso costante e insostituibile della mano dell’uomo.

 

7) Bibliografia

H.G. Baker, Plants and Civilisation, Wadsworth, Belmont 1978

Lucy Brockway, Science and Colonial Expansion, Academic Press, New York-London 1979

Sergio Conti, Giuseppe Dematteis, Carla Lanza, Ferruccio Nano, Geografia dell’economia mondiale, Utet, Torino 1999

Alfred Crosby, Lo scambio colombiano, Einaudi, Torino 1992

Harm J. De Blij, Geografia umana, Zanichelli 2000

Diane Galloway, Peter Robinson, Improving Plants. From Breeding to Biotechnology, Hobson Publishing, Cambridge 1989

Henk Hobbelink, Biotechnology and the Future of World Agriculture, Zed, London and New Jersey 1999

Jack Ralph Kloppenburg, First the Seed, Cambridge University Press, Cambridge, Massachusetts 1990

Paolo Malanima, Energia e crescita nell’Europa preindustriale, NIS, Roma 1996

John R. McNeill, Qualcosa di nuovo sotto il sole Storia dell’ambiente nel XX secolo, Einaudi, Torino 2002

Reay Tannahill, Food in History, Penguin, London 1988

 

 

Fonte: http://www-3.unipv.it/iscr/programmi_dispense_02_03/scienze/visconti/geografia.doc

Sito web da visitare: http://www-3.unipv.it/

Autore del testo: indicato nel documento di origine

Il testo è di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente i loro testi per finalità illustrative e didattiche. Se siete gli autori del testo e siete interessati a richiedere la rimozione del testo o l'inserimento di altre informazioni inviateci un e-mail dopo le opportune verifiche soddisferemo la vostra richiesta nel più breve tempo possibile.

 

Geografia antropica

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

Geografia antropica

 

"Ciò che sappiamo è una goccia, ciò che ignoriamo un oceano!" Isaac Newton. Essendo impossibile tenere a mente l'enorme quantità di informazioni, l'importante è sapere dove ritrovare l'informazione quando questa serve. U. Eco

www.riassuntini.com dove ritrovare l'informazione quando questa serve

 

Argomenti

Termini d' uso, cookies e privacy

Contatti

Cerca nel sito

 

 

Geografia antropica