Home Page > indice scienza > comunicati                                   sei su www.librizziacolori.eu

La pagina è realizzata con lo scopo di promuovere l'interesse per la scienza: gli articoli citati e i comunicati sono redatti dal CNR che li pubblica sul proprio sito.  Il sito del CNR  ha questo indirizzo: http://www.cnr.it/sitocnr/home.html

 

COMUNICATI:

Patterned, l'hard disk ad hoc

Celiachia: come scovare il glutine nascosto

Calcio: le tecnologie innovative a supporto degli arbitri

Napoli diventa per tre giorni capitale delle crociere

Con i fotoni la matematica diventa un'opinione

Anziani: 3 milioni a rischio demenza

Cirrosi e cancro al fegato: individuato un "marcatore"

Un nuovo cereale per i celiaci

Il clima entra in classe

Cambiamenti Climatici: le ricerche del CNR

Patterned, l'hard disk ad hoc

Nanomagneti protagonisti della Conferenza internazionale ICFPM, che si terrà dal 9 al 12 ottobre al CNR. Da questi elementi chiave delle nanotecnologie, in pochi milionesimi di millimetro, arriveranno possibilità di registrazione enormi e dischi ingegnerizzati

 

La tecnologia richiede dispositivi sempre più piccoli, multifunzionali e con maggiori prestazioni. La risposta è rappresentata dalle nanotecnologie, delle quali i nanomagneti rappresentano gli elementi chiave in quanto componenti di base (di dimensioni di appena poche decine di nanometri: un nanometro è un milionesimo di millimetro) di sistemi applicati in settori strategici: produzione e trasformazione dell'energia, telecomunicazioni, immagazzinamento delle informazioni, trasporto, sensoristica, elettronica di consumo e biomedicina. Per discutere di questi temi, specialisti da tutto il mondo si riuniranno in occasione della VI Conferenza internazionale sulle nanoparticelle magnetiche (ICFPM), che si terrà dal 9 al 12 ottobre a Roma, presso il Consiglio Nazionale delle Ricerche, promossa dal Progetto Magnetismo e Superconduttività del Dipartimento Materiali e dispositivi del CNR.

Il settore di maggiore impatto tecnologico ed economico e in cui i progressi sono stati più rapidi per i nanomagneti è la registrazione magnetica (cioè l'operazione di archiviazione ed elaborazione dati che compiamo quotidianamente sui nostri computer), che nel 2007 ha raggiunto un volume di affari che si aggira sui 30 miliardi di dollari, solo per quanto concerne la produzione e il mercato di circa 500 milioni di dischi rigidi. Rispetto al primo hard disk, commercializzato dall'IBM nel 1956, la densità di informazione è aumentata di 100 milioni di volte (da 2k Bits/in2 a 240 Gbits/in2, cioè da 2000 bit a 240 miliardi di bit per pollice quadro). Le dimensioni si sono invece drasticamente ridotte, dai 50 piatti impilati da 24 pollici ciascuno del primo hard disk agli attuali mini dischi da un pollice. Ma l'utilizzo di “strutture patterned” per registrazione perpendicolare, nelle quali ogni nanomagnete rappresenta un bit di informazione, sta aprendo la strada ad una nuova generazione di dischi rigidi con prospettive di densità di registrazione dell'ordine del Tbit/in2 (1000 miliardi di bit per pollice quadro). Ai mezzi patterned è dedicata la relazione di invito dell'ICFPM, che sarà tenuta da Thomas Thomson del centro di ricerca Hitachi a San José.

Ma anche la ricerca italiana ha dato un notevole contributo allo sviluppo di questo tipo di hard disk. “La realizzazione di strutture regolari e ordinate (patterned) di nanomagneti è affascinante per la possibilità di modulare le proprietà magnetiche per specifiche prestazioni, sino a ingegnerizzare dispositivi ad hoc, con le prestazioni richieste”, spiega Dino Fiorani, dirigente di ricerca presso l'Istituto di Struttura della Materia (ISM) del CNR e chairman della Conferenza, che con il progetto europeo HIDEMAR ha vinto il premio Descartes nel 2005. “Ciò è possibile agendo su dimensioni, forma e superficie delle particelle mediante tecniche nanolitografiche o metodologie chimiche innovative”. I tempi di immissione dei dischi patterned sul mercato, prosegue Fiorani, “sono legati all'individuazione di una tecnologia di fabbricazione che coniughi semplicità, rapidità di produzione, alta resa e basso costo”. A presentare nuove soluzioni di dischi rigidi per la registrazione magnetica perpendicolare sarà Gaspare Varvaro dell'ISM-CNR, che illustrerà i vantaggi dei dischi “tilted” studiati dal gruppo di Fiorani ed Elisabetta Agostinelli.

La Conferenza ha il patrocinio del Ministero dell'Università e Ricerca, del Ministero degli Esteri, della Società Europea di Fisica, della Società Italiana di Fisica e dell'Accademia dei Lincei.

 

Roma, 8 ottobre 2007

 

La scheda

Chi: Progetto Magnetismo e Superconduttività del Dipartimento Materiali e dispositivi del CNR

Che cosa: VI Conferenza internazionale sulle nanoparticelle magnetiche (ICFPM)

Dove: dal 9 al 12 ottobre a Roma, presso il Consiglio Nazionale delle Ricerche, (programma completo http://www.icfpm.mlib.cnr.it/program/oral.pdf )

Informazioni per i giornalisti: Dino Fiorani, Istituto di Struttura della Materia-CNR, Tel. 06-90672553, 329-4013986, Fax. 06-90672470, E-mail: dino.fiorani@ism.cnr.it, sito web www.icfpm.mlib.cnr.it

 Capo Ufficio Stampa: Marco Ferrazzoli, tel. 06/4993.3383 - 333/2796719     e-mail: marco.ferrazzoli@cnr.it 

 

torna a inizio pagina

 

 

Celiachia: come scovare il glutine nascosto

Una nuova tecnica diagnostica elaborata dal Cnr di Napoli permetterà di identificare questa proteina, presente nei cibi freschi, pre-confezionati e surgelati ma anche nei medicinali e persino sulla colla di buste e francobolli. Si riducono, così, i rischi per la salute dei celiaci.

Con un test di spettroscopia ad altissima sensibilità sarà possibile rilevare minime tracce di glutine negli alimenti ma anche in altri prodotti insospettabili, rendendo più sicura la vita dei molti pazienti affetti da celiachia. L’innovativa metodologia, basata sulla spettroscopia di fluorescenza di correlazione (Fcs), è stata messa a punto da un team di ricercatori, coordinato da Sabato D’Auria, dell’Istituto di biochimica delle proteine (Ibp) del Consiglio nazionale delle ricerche di Napoli.

“Il glutine si trova principalmente nei cibi ma può ‘nascondersi’ anche in altri prodotti di uso comune, come adesivi di buste e francobolli, medicinali e vitamine”, spiega Sabato D’Auria. “E l’ingestione, anche di esigue quantità, può provocare nei pazienti celiaci disagi a diversi livelli”.

La celiachia è causata da una risposta ‘sbagliata’ che il nostro sistema immunitario attua nei confronti del glutine. “Infatti”, prosegue il ricercatore, “il soggetto intollerante tratta il glutine come fosse un agente infettivo verso cui l’intestino tenue risponde con una reazione immunitaria che ne causa il suo danneggiamento e la conseguente inabilità ad assorbire altri nutrienti dal cibo. E’ molto importante, quindi, che il soggetto celiaco non ne ingerisca la benché minima traccia”.

Prodotti ‘liberi da glutine’ sono disponibili sul mercato alimentare di Stati Uniti ed Europa. “Ma l’informazione commerciale potrebbe essere ingannevole”, precisa D’Auria. “Ad esempio una pizza o un prodotto cosmetico etichettati ‘senza glutine’ potrebbero contenerne bassissime quantità senza che i produttori ne siano a conoscenza, vista la bassa sensibilità dei test attualmente utilizzati. Il nostro metodo, quindi, si presenta di notevole aiuto ai fornitori, che lo potrebbero incorporare direttamente nelle loro linee di produzione”.

I risultati ottenuti con la nuova tecnica presentano una sensibilità di rilevazione pari a 0.006 parti per milione (ppm) di gliadine, principali proteine responsabili della celiachia, rispetto alle 32 ppm degli attuali metodi reperibili in commercio.

I ricercatori hanno dapprima isolato gli anticorpi da uno speciale gruppo di topi cresciuti per parecchie generazioni con una dieta priva di glutine. “Esposti per la prima volta al glutine, i topi hanno prodotto immunoglobuline (IgG), con maggiori specificità per le gliadine rispetto a quelle prodotte da topi alimentati con una dieta normale”, spiega D’Auria. “Successivamente, un campione di cibo è stato sciolto in un cocktail di enzimi miscelata con una soluzione concentrata di gliadine marcate con una molecola fluorescente. Abbiamo poi aggiunto alla mistura le IgG isolate dal ceppo di topi selezionato”.

In questo modo, utilizzando la tecnica spettroscopica, i ricercatori sono in grado di rintracciare i livelli di fluorescenza. “Infatti, se il cibo non contiene nessuna traccia di glutine, il numero di gliadine marcate legate agli anticorpi rimane invariato”, prosegue il ricercatore. “Se, invece, nel cibo è presente del glutine, le gliadine non marcate competono con quelle fluorescenti e si legano agli anticorpi. E’ possibile, così, misurare la presenza di gliadine fluorescenti libere in soluzione; misura, questa, direttamente proporzionale alla quantità di glutine presente nel campione di cibo analizzato.

Il saggio con FCS non è stato il primo metodo di rivelazione del glutine messo a punto dal Cnr di Napoli. “In precedenza, infatti”, conclude D’Auria, “eravamo riusciti ad isolare una proteina ricombinante ed utilizzarla come sonda specifica per rilevare il glutine, senza però ottenere gli attuali risultati”.

Ma il lavoro dei ricercatori di Napoli prosegue ancora. “Il nostro obiettivo è ora quello di miniaturizzare il saggio FCS per renderlo più semplice in modo da poter essere utilizzato anche da persone non specializzate come i pazienti stessi”.

Roma, 5 ottobre 2007

La scheda

Chi: Istituto di biochimica delle proteine (Ibp) del Cnr di Napoli

Che cosa: tecnica di spettroscopia di fluorescenza di correlazione (Fcs) per identificare minime tracce di glutine negli alimenti e altri prodotti

Informazioni: Sabato D’Auria, Ibp-Cnr, Napoli, tel. 081/6132250, e-mail s.dauria@ibp.cnr.it

tratto da: http://www.stampa.cnr.it/documenti/comunicati/italiano/2007/Ottobre/138_OTT_2007.HTM

 

 

torna a inizio pagina

 

 

 

Calcio: le tecnologie innovative a supporto degli arbitri

Sperimentati con successo i sistemi di rilevazione di goal fantasma, fuorigioco ed eventi nell’area di rigore, realizzati e brevettati dall’Issia-Cnr di Bari in convenzione con la Figc. Precisione, non invasività, immediatezza e riservatezza pongono i prototipi all’avanguardia a livello mondiale offrendo al calcio italiano un supporto di trasparenza

Le infinite e accanite discussioni tra esperti e sportivi sull’operato dell’arbitro, durante e dopo le partite di calcio, potranno avere termine: gol, fuori gioco ed eventi in area di rigore diverranno oggettivi e incontestabili, grazie alla tecnologia messa a punto dall’Istituto di studi sui sistemi intelligenti per l’automazione del Consiglio Nazionale delle Ricerche di Bari (Issia-Cnr). A fugare in tempo reale e senza interferenze nel gioco ogni dubbio di arbitri, assistenti e tifosi, consentendo di stabilire con esattezza e segnalare la posizione di pallone e giocatori, un sistema di rilevazione ‘made in Italy’, basato su immagini registrate ed elaborate da telecamere installate lontano dal campo e trasmesse a un personal computer dotato di apposito software.

“La sperimentazione pilota delle ‘tecnologie innovative a supporto degli arbitri nel gioco del calcio’ eseguita nello stadio Friuli di Udine”, spiega Arcangelo Distante, direttore dell’Issia-Cnr, “ha confermato l’efficacia dei tre prototipi per la rilevazione di Goal fantasma, Fuorigioco e Monitoraggio eventi nell’area di rigore (Megar), costituiti da ‘macchine intelligenti di visione’: una catena hardware che parte da una telecamera digitale e arriva al server che acquisisce, memorizza, visualizza ed elabora in tempo reale le immagini di un’intera partita di calcio”.

La componente ‘intelligente’ è costituita dal software sviluppato dall’Issia-Cnr (algoritmi innovativi nel campo della visione artificiale), mentre la console multimediale consente il riscontro oggettivo degli eventi, il server supervisore prende le decisioni finali e trasmette alla terna arbitrale le informazioni. La sperimentazione, avviata nel marzo 2006 dopo l’approvazione dell’International Board della Fifa, si è conclusa il 29 maggio scorso con la consegna dei prototipi da parte dell’Issia-Cnr alla Federazione Nazionale Giuoco Calcio (Figc). “Sono sistemi innovati e avanzati a livello internazionale”, sottolinea Distante, “che per l’Italia avrebbero il valore aggiuntivo di supporto alla trasparenza degli eventi sportivi, rappresentando una sorta di ‘referto elettronico’ a disposizione del designatore degli arbitri, in aggiunta ai giudizi degli attuali osservatori”.

Ma quali sono le caratteristiche tecnologiche essenziali del sistema e i risultati ottenuti dalla sperimentazione? Precisione, non invasività, immediatezza, riservatezza, semplicità e trasparenza sono i principali vantaggi emersi. “I prototipi”, spiega Distante, “sono provvisti di sensori di rilevamento ottico dotati di una risoluzione spaziale da 0.5 a 2 megapixel e di risoluzione temporale da 25 a 200 immagini al secondo, dunque di gran lunga superiore a quella dell’occhio umano. Inoltre, la tecnologia è assolutamente non invasiva per le strutture, per le persone presenti sul campo di gioco e a bordo campo e per gli spettatori. I sensori sono infatti posti in alto sulle tribune, senza interferire con la partita. I sistemi elaborano in tempo reale le sequenze di immagini: gli eventi di interesse, in accordo con le direttive FIFA, vengono segnalati in tempo reale alla direzione arbitrale via radio, senza interruzione di gioco. Le tecnologie dunque non si sostituiscono, ma sono di supporto alla direzione nel prendere la decisione. Inoltre, ogni evento è disponibile per un riscontro off-line come una sorta di referto elettronico, per esempio per finalità formative o per una valutazione oggettiva del processo decisionale. Infine, i sistemi sono basati su tecnologie aperte e di facile utilizzo”.

“Le tecnologie innovative per il gioco del calcio”, dichiara il Vice Presidente del Cnr, Federico Rossi, “sono la dimostrazione di come nella ricerca scientifica un risultato nato per un obiettivo possa, con opportuni aggiustamenti, trovare applicazione nei campi più disparati. Le tecniche applicate nei sistemi di rilevazione per il gioco del calcio derivano infatti dalla telesorveglianza, finalizzata sia a garantire la sicurezza di persone e cose, sia a monitorare il corretto processo industriale. Lavorando alla realizzazione di una cella robotizzata per il controllo di qualità di prodotti industriali, attraverso speciali macchine di visione, i nostri ricercatori hanno capito che quelle metodologie potevano essere usate per risolvere anche   la questione dei gol fantasma. Tali tecnologie testimoniano sia la qualità della ricerca scientifica svolta dai nostri ricercatori, sia la competitività a livello internazionale. Infatti, sia la FIGC, sia la FIFA hanno creduto e supportato l’iniziativa. Penso – ha concluso Federico Rossi - che ora sia opportuno passare alla fase di ingegnerizzazione e fruizione di questi prototipi”.

 

Roma, 2 ottobre 2007

 

La scheda

Chi: Istituto di studi sui sistemi intelligenti per l’automazione del Consiglio Nazionale delle Ricerche di Bari (Issia-Cnr), Federazione Italia Giuoco Calcio (Figc)

Che cosa: presentazione dei risultati sperimentali dei prototipi Goal fantasma, Fuori gioco, Megar-Monitoraggio Eventi nell’Area di Rigore, sviluppati nell’ambito delle convenzioni operative CNR-FIGC e CNR-Società Pozzo S.p.A

Per informazioni: Arcangelo Distante, Direttore dell’Istituto di studi sui sistemi intelligenti per l’automazione del Consiglio Nazionale delle Ricerche di Bari (Issia-Cnr); tel. 080.5929420, e-mail: distante@ba.issia.cnr.it,

sito web http://www.issia.cnr.it/htdocs%20nuovo/prototipiok/

letto su: http://www.stampa.cnr.it/documenti/comunicati/italiano/2007/Ottobre/137_OTT_2007.HTM

 

 

torna a inizio pagina

 

 

Napoli diventa per tre giorni capitale delle crociere

 

In un convegno organizzato dall’Irat-Cnr, in collaborazione con l’ateneo “Parthenope”, l’International association of maritime economists  (Iame) e l’Association for tourism and leisure education (Atlas), si discute della competitività della crocieristica e del suo ruolo nello sviluppo locale

 

E’ dedicato all’attività crocieristica il convegno internazionale “Cruise shipping opportunities and challenges: markets, technologies and local development”, che si svolge il 4, 5 e 6 ottobre nel capoluogo campano presso l’università “Parthenope” (via Acton n.38).

Organizzata dall’Istituto di ricerche sulle attività terziarie (Irat) del Cnr di Napoli, in collaborazione con l’ateneo “Parthenope”, l’International association of maritime economists  (Iame) e l’Association for tourism and leisure education (Atlas), la manifestazione  mira a identificare le opportunità, i temi e le sfide per accrescere la competitività dell’industria crocieristica e il suo ruolo di sostegno allo sviluppo locale.

“Il settore crocieristico”, ha sottolineato Alfonso Morvillo, direttore dell’Irat-Cnr, “è determinante per il rilancio dell’economia mondiale, soprattutto per quei paesi che hanno per vocazione l’attività turistica. Napoli, la Campania e il nostro Mezzogiorno devono attivarsi affinché vengano create le condizioni per favorire l’incremento del ‘cruise shipping’ che, anche attraverso l’indotto, porterebbe nuova linfa all’economia territoriale”.

“La nostra università, da sempre specializzata in materia”, ha aggiunto il rettore dell’università Parthenope Gennaro Ferrara,  “è pronta a dare il suo contributo alle imprese e agli enti locali affinché venga implementata la conoscenza e il sapere che il settore richiede, soprattutto attraverso la formazione delle futura classe dirigente”. 

Tutti di elevata competenza i relatori internazionali (provenienti  da Turchia, Germania, Grecia, Korea, Francia, Norvegia, Sud Africa, solo per citarne alcuni) che si confronteranno nel corso della ‘tre giorni’, articolata in 2 sessione plenarie e in 10 sessioni parallele. Tra i partecipanti, docenti universitari e rinomati studiosi della materia, quali Peter Wild, Peter Burns, Heather Leggate, e operatori del settore, tra cui Pierluigi Foschi (presidente Costa Crociere), Manuel Grimaldi (Ceo Grimaldi Group), Domenico Pellegrino (managing director Msc Crociere), Alfons Guinier (segretario generale Ecsa), Jaques Hardelay (Ceo AkerYard), Umberto Masucci presidente Federagenti). Tra le autorità annunciate al convegno, il Ministro per le riforme e le innovazioni nella P.A. Luigi Nicolais, il presidente della Commissione trasporti e turismo della Commissione Europea Paolo Costa e il presidente dell’Autorità portuale di Napoli, nonché presidente di Assoporti, Fancesco Nerli.

Le adesioni pervenute, confortate dalla presenza di manager pubblici e privati del settore, presagiscono un confronto serrato teso a verificare lo ‘stato dell’arte’ del settore nello scenario internazionale.

 

Roma, 2 ottobre 2007

La  scheda

Che cosa: convegno internazionale sull’attività crocieristica “Cruise shipping opportunities and challenges: markets, technologies and local development”

Chi: Istituto di ricerche sulle attività terziarie del Cnr, Napoli; università “Parthenope”, Napoli; International association of maritime economists  (Iame); Association for tourism and leisure education (Atlas)

Dove: università “Parthenope”, Napoli, via Acton n. 38

Quando: 4, 5 e 6 ottobre

Per informazioni: Antonio Coviello, tel. 081/2470964; e-mail: a.coviello@irat.cnr.it

letto su: http://www.stampa.cnr.it/documenti/comunicati/italiano/2007/Ottobre/136_OTT_2007.HTM

torna a inizio pagina

 

 

Confermato: con i fotoni la matematica diventa ‘un’opinione’

Eccezionale esperimento dell’Inoa-Cnr dimostra, per la prima volta, che quando si aggiungono e sottraggono fotoni da un campo di luce le regole dell’aritmetica non valgono più. La scoperta, pubblicata su Science, rende possibile creare computer di altissima precisione e del tutto impenetrabili alle intercettazioni.

Due più due fa quattro? E, soprattutto, quattro meno due fa due? Non sempre. Nella meccanica quantistica, quando si aggiungono e sottraggono fotoni, le normali regole dell’aritmetica non valgono più. Le bizzarre leggi delle microscopiche particelle di luce sono state verificate per la prima volta grazie a un esperimento eccezionale, condotto da un gruppo di ricercatori dell’Istituto nazionale di ottica applicata (Inoa) del Consiglio nazionale delle ricerche di Firenze, del Laboratorio europeo di spettroscopia non lineare (Lens), del Dipartimento di Fisica dell’Università di Firenze e della Queen’s University di Belfast. I risultati sono pubblicati sul numero odierno di Science. La scoperta rende possibile la creazione di nuovi strumenti e computer dalla precisione e capacità finora irraggiungibili e del tutto impenetrabili alle intercettazioni. “Nel nostro laboratorio – spiega Marco Bellini dell’Inoa-Cnr - abbiamo dimostrato per la prima volta come aggiungere e sottrarre in modo assolutamente controllato singole particelle di luce, i fotoni, da un campo luminoso di tipo classico, simile cioè a quello emesso dal sole o da una comune lampadina”. Tali particelle luminose fondamentali e indivisibili obbediscono alle regole della meccanica quantistica, diverse rispetto agli oggetti di uso comune, seguendo comportamenti apparentemente bizzarri e illogici. “Il nostro gruppo, cui partecipano Valentina Parigi del Lens, Alessandro Zavatta dell’Università di Firenze e Myungshik Kim dell’Università di Belfast, aveva già mostrato come far percorrere a un solo fotone due cammini alternativi, in modo da farlo trovare contemporaneamente in due posizioni diverse. Nell’ ultimo esperimento, abbiamo invece dimostrato come, se si aggiunge un fotone e subito dopo se ne estrae un altro da un particolare campo luminoso, il numero finale di fotoni può diventare completamente diverso da quello iniziale. Ancora più sorprendente è che la semplice sottrazione di un fotone da particolari campi luminosi ha come risultato un aumento, anziché una diminuzione nel numero di fotoni restanti. Come se si aumentasse il numero di palline contenute in una scatola tutte le volte che se ne estrae una!”.

Sebbene apparentemente controintuitivi, questi risultati sono in realtà esattamente quelli previsti per gli oggetti microscopici dalle bizzarre leggi della meccanica quantistica, che gli esperimenti di Bellini e degli altri ricercatori hanno permesso per la prima volta di verificare in modo diretto. Ma a quali risultati può portare questa eccezionale scoperta? “A parte l’estremo interesse per l’avanzamento delle nostre conoscenze fondamentali sul funzionamento dell’Universo, potremo forse avere presto importanti e innovative ricadute applicative. L’aver realizzato sequenze perfettamente controllate di aggiunte e sottrazioni di singoli fotoni da un campo luminoso apre la strada alla generazione di luce dalle proprietà completamente nuove, ad esempio alla costruzione di nuovi strumenti per misure di forze e spostamenti infinitesimali, dalla precisione finora irraggiungibile. Un computer basato su queste proprietà quantistiche potrebbe risolvere in modo rapido ed efficiente problemi attualmente irrisolvibili anche per le macchine più potenti. Inoltre, si potrebbero realizzare particolari stati di luce per la comunicazione a distanza di dati riservati, assolutamente impenetrabile alle intercettazioni”.

La cosiddetta ‘crittografia quantistica’ si basa su messaggi codificati con una chiave segreta, sistema che però oggi pone il problema dello scambio della chiave tra mittente e destinatario: per quanto sicura sia la procedura, infatti, una spia può sempre inserirsi nella trasmissione, leggere i dati e reindirizzarli al destinatario senza che la sua presenza venga rivelata. Con una ‘chiave quantistica’ che segua le leggi degli stati di luce ora prodotti in laboratorio, vale invece il ‘principio di indeterminazione di Heisenberg’, secondo cui è impossibile misurare le caratteristiche di un sistema senza modificarlo: l’eventuale spia, insomma, altererebbe in modo incontrollabile la chiave e verrebbe scoperta”. La privacy sarà finalmente assicurata?

Roma, 28 settembre 2007

La scheda

Che cosa: esperimento sulla fotonica

Chi ricercatori dell’Istituto nazionale di ottica applicata (Inoa) del Consiglio nazionale delle ricerche di Firenze, del Laboratorio europeo di spettroscopia non lineare (Lens), del Dipartimento di Fisica dell’Università di Firenze e della Queen’s University di Belfast.

Per informazioni: Marco Bellini, Istituto nazionale di ottica applicata del Consiglio nazionale delle ricerche di Firenze, tel. 055/4572493-2459-2215, cell. 347/8004554, e mail: bellini@inoa.it, sito web: www.inoa.it/home/QOG/

letto su: http://www.stampa.cnr.it/documenti/comunicati/italiano/2007/Settembre/135_SET_2007.HTM

torna a inizio pagina

 

 

Anziani: 3 milioni a rischio demenza

 

Triplicato il rischio di insorgenza della patologia nella popolazione affetta da deficit

cognitivo lieve in Italia. E’ il risultato della ricerca Ilsa, condotta da Istituto di Neuroscienze del Cnr, Università di Firenze e Iss, pubblicata sulla rivista Neurology

 

Sono circa tre milioni, in Italia, gli ultrasessantacinquenni affetti da deficit cognitivo di grado lieve: un anziano su quattro. Non tutte queste persone, ovviamente, sono destinate ad una progressione del deficit verso la demenza, ma il rischio di patologia conclamata nei quattro anni successivi è triplicato rispetto ai soggetti anziani ma con funzioni cognitive normali. E’ quanto risulta da una osservazione condotta, nell’ambito del Progetto Ilsa (Italian Longitudinal Study on Aging), da Antonio Di Carlo e Marzia Baldereschi dell’Istituto di Neuroscienze (In) del Consiglio Nazionale delle Ricerche di Firenze, insieme con Domenico Inzitari, Marco Inzitari e Maria Lamassa dell’Università di Firenze e con Emanuele Scafato, coordinatore scientifico dell'Ilsa presso l’Istituto Superiore di Sanità (Iss).

“Sulla scia di analoghe ricerche condotte a livello internazionale, questo studio ha fornito una valutazione originale  sul significativo aumento del rischio di ammalarsi di una patologia invalidante come la demenza a partire da una condizione molto frequente quale il deficit cognitivo”, spiega Antonio Di Carlo, dell’In-Cnr. “Tale aumento di tre volte circa del rischio è estremamente rilevante, considerando oltretutto il tasso già elevato di incidenza della demenza che, nella popolazione anziana generale, è di circa l'uno per cento annuo, e pone in risalto la necessità di opportune azioni preventive”.

Lo studio Ilsa, che da oltre un decennio si occupa dell’invecchiamento e delle condizioni di salute degli ultrasessantacinquenni in Italia, ha già fornito in passato stime sulla frequenza della demenza nella popolazione italiana, valutata in circa 700.000 casi, quantificando in circa 150.000 le persone che (sofferenti o meno di deficit cognitivo lieve) si ammalano di tale patologia ogni anno.

Gli autori dello studio pubblicato sulla rivista Neurology, organo ufficiale dell’American Academy of  Neurology, sono concordi nel ritenere che “il controllo dei principali fattori di rischio per la patologia cerebrovascolare, come l’ipertensione arteriosa (che colpisce il 60 per cento circa della popolazione anziana), il diabete (13 per cento), il fumo, nonché la prevenzione delle recidive dell’ictus, possano comunque contribuire in maniera significativa a controllare o a ridurre anche il rischio di deterioramento cognitivo nella popolazione anziana. Solo per citare l'ipertensione arteriosa, nel nostro Paese oltre un terzo degli anziani ipertesi non è trattato, e circa la metà dei pazienti trattati non ha un controllo soddisfacente della pressione arteriosa”.

 

Roma, 21 settembre 2007

 

La scheda

 

Chi: Istituto di Neuroscienze del Cnr, Università di Firenze, Istituto Superiore di Sanità

Che cosa: Studio sulla frequenza di deficit cognitivo nella popolazione anziana in Italia, pubblicato sulla Rivista Neurology

Per informazioni: Antonio Di Carlo, Istituto di Neuroscienze del Cnr, cell. 339/7188541, tel. 055/4223341, dicarlo@in.cnr.it

tratto da: http://www.stampa.cnr.it/documenti/comunicati/italiano/2007/Settembre/134_SET_2007.HTM

 

torna a inizio pagina

 

 

 

Cirrosi e cancro al fegato: individuato un ‘marcatore’

L’Inmm-Cnr di Roma ha scoperto che l’NGF, il fattore di crescita nervoso scoperto da Rita Levi Montalcini, è presente in livelli anomali nei pazienti affetti da tali patologie. Si apre così la strada per una diagnosi precoce, senza metodi invasivi e quindi per  una maggiore curabilità. Lo studio è pubblicato sul World Journal of Gastroenterology

 

L’NGF, il fattore di crescita nervoso scoperto dal premio Nobel Rita Levi Montalcini, è presente nei malati di cirrosi e di tumore del fegato in livelli fino a 25 volte superiori al normale: potrebbe dunque essere utilizzato come marcatore di tali patologie, permettendone una diagnosi precoce e quindi una maggiore curabilità, per di più con un semplice esame del sangue e senza il ricorso alla invasiva e rischiosa biopsia. Questi i risultati di una ricerca del gruppo diretto da Annalucia Serafino dell’Istituto di neurobiologia e medicina molecolare del Consiglio nazionale delle ricerche di Roma (Inmm-Cnr), appena pubblicati sulla rivista World Journal of Gastroenterology.

“Il tumore del fegato (epatocarcinoma) è una patologia in costante aumento, in gran parte dovuta all’evoluzione delle epatiti virali croniche B e C”, spiega la dr.ssa Serafino. “Attualmente vi sono molte interessanti possibilità terapeutiche, il cui successo è fondamentalmente legato alla diagnosi precoce. In particolare, nell’epatite C, il processo di trasformazione in carcinoma epatico è preceduto da un periodo, anche molto lungo, di progressiva trasformazione fibrotica (cirrosi). La diagnosi fondamentalmente si basa ancora nella biopsia, tecnica invasiva e non del tutto priva di rischi”. La disponibilità di ‘marcatori’ che seguano l’evoluzione della malattia e rivelino le fasi precoci della trasformazione neoplastica consentirebbe ovviamente enormi vantaggi.

Ecco dunque l’importanza dello studio, condotto ed eseguito dall’Inmm-Cnr in collaborazione con l'Ospedale Regina Elena, l’Ospedale di Marino e l’Università di Tor Vergata. “L’NGF è il fattore di crescita nervoso essenziale per la sopravvivenza, il differenziamento ed il mantenimento delle cellule neuronali del sistema nervoso centrale e periferico”, prosegue Annalucia Serafino, “ma può avere un ruolo sia nella riparazione tissutale del polmone e della pelle, nell’infiammazione cronica e nelle patologie fibrotiche, sia nei tumori del polmone, della prostata e della mammella. La nostra ricerca dimostra che l’NGF potrebbe essere implicato anche nello sviluppo del cancro al fegato”. L’indagine parte dall’osservazione che campioni bioptici di pazienti con cirrosi ed epatocarcinoma mostrano alti livelli di espressione di NGF e del suo recettore trkANGF nel tessuto patologico, mentre queste due molecole non sono presenti nel fegato sano. “Inoltre, campioni ematici di tali pazienti confermano livelli di NGF insolitamente alti, circa 25 volte superiori a quelli di individui sani”, conclude la ricercatrice dell’Inmm-Cnr. “Questi dati, ottenuti da un numero limitato di campioni (20 pazienti), se confermati da una casistica più vasta e completa individuerebbero definitivamente in NGF un marcatore diagnostico e prognostico del tumore del fegato, facilmente dosabile con un semplice test del sangue. Inoltre, tale molecola potrebbe in futuro dimostrarsi un buon bersaglio per eventuali terapie antitumorali mirate”.

 

Roma, 19 settembre 2007

 

La scheda

Che cosa: ruolo dell’NGF in cirrosi e di tumore del fegato, pubblicato in ‘World Journal of Gastroenterology’

Dove: Istituto di neurobiologia e medicina molecolare del Consiglio nazionale delle ricerche di Roma (Inmm-Cnr)

Per informazioni: Annalucia Serafino, Inmm-Cnr, tel. 06/49934202, cell. 335/6523984, Annalucia.Serafino@ARTOV.INMM.CNR.IT

tratto da: http://www.stampa.cnr.it/documenti/comunicati/italiano/2007/Settembre/133_SET_2007.HTM

 

 

torna a inizio pagina

 

 

 

Un nuovo cereale per i celiaci

 

Il sorgo, utilizzato come foraggio, grazie a una selezione genetica è ampiamente adoperato negli Stati Uniti per la preparazione di  alimenti. Presto anche in Italia grazie alle sperimentazioni in Campania dell’Istituto di genetica e biofisica (Igb) del Cnr.

 

Dal sorgo nuovi alimenti per i celiaci. A proporre in Italia la prima filiera di questo cereale, già utilizzato negli Stati Uniti per questi pazienti, è un progetto spin-off dell’Istituto di genetica e biofisica (Igb) di Napoli, presentato durante il convegno internazionale “Health, Research, and Entrepreneurship: Sorghum Food for Celiac Patients” in corso nella città partenopea.

“Normalmente questa graminacea viene utilizzata come nutrimento per il pollame e altri volatili o come foraggio”, spiega Luigi Del Giudice dell’Igb-Cnr e responsabile del progetto, “ma di recente, negli Stati Uniti, sono stati selezionati e resi disponibili per la commercializzazione semi-ibridi food-grade, privi di glutine e di quei pigmenti che conferiscono al cereale il particolare colore rosso. Gli studiosi hanno evidenziato che tali varietà, oltre a essere idonee per i celiaci, presentano un alto contenuto di componenti anti-cancro; la semola derivata dal sorgo food grade possiede poi una elevata quantità di fibre dietetiche che la rendono molto apprezzata da tutti i consumatori. Tra i principali vantaggi per i pazienti celiaci spiccano il miglioramento qualitativo della vita e il risparmio nell’acquisto di tali prodotti  che sono alla portata di tutti”.

Ciò nonostante la farina di sorgo food-grade non è stata ancora introdotta in Italia. La prima ‘prova’ della filiera è partita in Campania, nei laboratori del Cnr: il sorgo dalle coltivazioni sperimentali di Foggia e di Ariano Irpino è arrivato sulle tavole sotto forma di biscotti, ben tollerati da alcuni pazienti campione che hanno potuto apprezzare le qualità del cereale.

Il progetto prevede la sinergia di numerose competenze scientifiche “esperti in agricoltura, ricerca biologica e analitica, produzione alimentare dietoterapica, gastroentrologia, strategie e marketing” aggiunge Del Giudice. “Sono inoltre previste collaborazioni con i ricercatori del Dipartimento di Agronomia e del Dipartimento di Chimica dell’Università del Kansas (USA)”.

 

Roma, 17 settembre 2007

 

La scheda

 

Che cosa: presentazione della prima filiera in Campania per la produzione di sfarinati a base di sorgo idonei all’alimentazione dei celiaci

Dove: Napoli, aula Magna del centro Congressi, Ateneo “Federico II”, via Partenope, 36

Quando: 17 settembre, ore 9.30

Per informazioni: Luigi Del Giudice, Istituto di Genetica e Biofisica (IGB) “Adriano Buzzati Traverso” del Cnr, Napoli, tel. 081/6132609, e mail: delgiudi@igb.cnr.it

tratto da: http://www.stampa.cnr.it/documenti/comunicati/italiano/2007/Settembre/132_SET_2007.HTM

 

 

torna a inizio pagina

 

 

 

 

Il clima entra in classe

Una mostra per comprendere il cambiamento climatico: cosa è, come funziona e come sta trasformando il territorio e dovrà modificare  le nostre abitudini di consumo

 

E’ vero o falso che l’uomo vivrebbe meglio senza l’effetto serra? O che un pomodoro cinese è più inquinante di uno della Campania?  E’ vero o falso che lo stereo in stand by consuma in un anno il triplo di energia di quella consumata per ascoltare la musica? E che per annullare le emissioni dei cittadini toscani ci vorrebbe un bosco grande una volta e mezzo 1a Toscana? Sono queste alcune domande che i ricercatori dell’Istituto di biometeorologia (Ibimet) del Consiglio nazionale delle ricerche di Firenze hanno preparato per i  120 ragazzi delle scuole superiori di Roma e provincia che partecipano  alla mostra “Cambiamenti climatici e sostenibilità”. Organizzata da Consiglio nazionale delle ricerche, Agenzia regionale per la protezione ambientale della Toscana  e dalla Regione Toscana,  la mostra è allestita all’interno della Conferenza Junior sui Cambiamenti Climatici, (Roma, 13 settembre, sede della FAO).

“Si parla molto di clima”, spiega Giampiero Maracchi, direttore dell’Ibimet-Cnr “ma spesso la conoscenza dei ragazzi è poco chiara e approssimativa se non viene ridiscussa e approfondita in classe. Accanto a un diffuso interesse, vi è molta confusione fra cambiamento climatico, gas serra, buco dell’ozono e Protocollo di Kyoto. Chiarire i diversi aspetti ed evidenziare gli impatti delle azioni quotidiane dell’uomo sull’equilibrio del Pianeta può essere, invece, uno strumento fondamentale per stimolare comportamenti sostenibili nei cittadini e in particolare nei ragazzi”.

La Mostra nasce in Toscana dalla fruttuosa collaborazione tra mondo della ricerca e governo regionale. La corretta percezione del problema è infatti il presupposto necessario per creare un tessuto locale capace di attivarsi sia con strategie di mitigazione che adattamento. “Se le strategie di mitigazione ai cambiamenti del clima sono delineate a livello internazionale, sottolinea il direttore Maracchi, “quelle di adattamento richiedono una pianificazione e una gestione locale in grado di valutare e integrare le specificità di territori e singole comunità. Il mondo della scienza e della ricerca deve diventare anche sempre più abile nel supportare la costruzione di una comunicazione ambientale localmente efficace”.

La Mostra, itinerante nelle 10 province toscane, è un percorso di divulgazione scientifica ed educazione alla sostenibilità radicato sul territorio. Un’occasione per gli studenti di incontrare i ricercatori del CNR i quali illustrano ai ragazzi i diversi aspetti del cambiamento del clima sia nei fenomeni globali che negli aspetti locali: gli impatti sul mare, sui boschi, sul suolo, sulla salute, la crescita delle emissioni di anidride carbonica e gas serra e il rispetto degli obiettivi del protocollo di Kyoto. Una parte della mostra è dedicata anche alle scelte sostenibili, sia nella filiera produttiva e industriale, sia nelle preferenze di consumo dei singoli individui.

La Mostra che oggi è a Roma,  è già stata visitata da oltre 1000 ragazzi delle scuole secondarie inferiori e superiori di Firenze, Prato, Pistoia, Massa e Grosseto, già ha varcato i confini regionali ed è in programma  in altre  regioni.  Entro  fine anno sarà a Lucca, Livorno, Arezzo, Pisa e Siena.  

Per un’azione di sensibilizzazione più efficace, i ragazzi saranno anche coinvolti nel concorso DimagrisCO2: una dieta per ripensare le scelte di consumo e tagliare le emissioni di anidride carbonica. Dal sito del concorso www.dimagrisco2.it è possibile scaricare la pubblicazione, in italiano e inglese, sulla manifestazione itinerante.

 

Roma, 13 settembre 2007

Chi: Istituto di biometeorologia del Cnr di Firenze, Regione Toscana, Arpat

Che cosa: mostra itinerante sui cambiamenti climatici

Quando e dove:  13 settembre 2007, Palazzo Fao

Per informazioni: Valentina Grasso, Ibimet -Cnr; tel: 055/3033711

tratto da: http://www.stampa.cnr.it/documenti/comunicati/italiano/2007/Settembre/131_SET_2007.HTM

 

 

torna a inizio pagina

 

 

Cambiamenti climatici: le ricerche del Cnr

In occasione della Conferenza nazionale sul clima, la pubblicazione di un volume che raccoglie 205 contributi degli istituti e dei ricercatori dell’Ente

 

Le ricerche sul clima hanno conosciuto, negli ultimi decenni, una crescita esponenziale, come pure i finanziamenti ad esse dedicati, che attualmente superano i tre miliardi di dollari a livello mondiale. Sullo studio degli eventi climatici si concentrano le agenzie dell’ONU e organismi scientifici internazionali come il WMO, l’UNEP, l’ICSU.

Lo scopo di queste attività è l’approfondimento delle conoscenze al fine di realizzare previsioni più attendibili e ridurre rischi e danni derivanti dal cambiamento climatico: per i ricercatori si tratta di una della sfide più complesse ed affascinanti, a cui non si è sottratto il CNR, che nel settore vanta una lunga tradizione, iniziata durante la presidenza di Guglielmo Marconi e rinnovata nel tempo con la creazione di numerosi Istituti, il varo di programmi finalizzati e strategici, la creazione del Dipartimento Terra e Ambiente (DTA), il maggiore dell’Ente (circa 20% delle risorse finanziarie e di personale). “Contribuire allo sviluppo economico e al benessere sociale del Paese. E’ con questo obiettivo – spiega il vicepresidente del CNR, Federico Rossi - che l’Ente lavora sulle problematiche scientifiche che riguardano i cambiamenti climatici, per fornire risposte attendibili ai responsabili istituzionali i quali devono assumere importanti decisioni in termini di prossime azioni di mitigazione e di adattamento”.

In occasione della Conferenza Nazionale sul Clima promossa dal Ministero dell’Ambiente (12-13 settembre prossimi), il CNR ha voluto essere presente con un volume che raccoglie in forma sintetica le ricerche più recenti e in corso svolte dall’Ente, spesso in collaborazione con Università, altri Enti di ricerca, Istituzioni pubbliche e imprese. Il volume curato dal DTA comprende 205 contributi realizzati da circa 500 ricercatori e tecnici afferenti a 24 Istituti, ed è articolato in sette capitoli che coprono tutte le tematiche climatologiche: modelli, impatto dei cambiamenti, ricostruzione dei climi del passato, metodi di osservazione e misura, processi fisici e chimici, valutazioni socio-economiche, rischi e mitigazione.

“Il volume – spiega il direttore del DTA del CNR, Giuseppe Cavarretta - fornisce una rassegna dei risultati ottenuti dal CNR, sia sulle problematiche generali tuttora aperte, sia sugli effetti locali dei cambiamenti climatici. Pubblicando questa collettanea anche su web sul sito www.dta.cnr.it, vogliamo rendere fruibili i risultati dagli organismi istituzionali e dal grande pubblico, che su questi problemi dimostra una sensibilità crescente”.

 

Roma, 7 settembre 2007

 

La scheda

Che cosa: presentazione volume ‘Clima e cambiamenti climatici, le attività di ricerca del CNR’

Dove-quando: Dipartimento Terra Ambiente, CNR, p.le Aldo Moro 7, Roma - 7 settembre 2007

Chi-info: Giuseppe Cavarretta, direttore Dipartimento Terra Ambiente CNR, tel. 06/49933836-3846 - cell. 333/7071130, e-mail giuseppe.cavarretta@cnr.it direttore.dta@cnr.it, www.dta.cnr.it

 

Effetti locali...

 

Il ‘warming’ italiano è maggiore di quello ‘global’

T. Nanni (1), M. Brunetti (1), M. Maugeri (2)

1 Istituto di Scienze dell’Atmosfera e del Clima, CNR, Bologna, Italia

2 Istituto di fisica generale applicata, Università di Milano, Italia

t.nanni@isac.cnr.it

Negli studi sul clima un capitolo importante, per chiarire quale possa essere il peso della variabilità naturale nell’attuale trend, è rappresentato dallo studio della variabilità climatica su periodi di tempo brevi (variabilità interannuale e/o interdecadale), che può essere collegata all’azione di forzanti naturali quali il ciclo solare, l’oscillazione Nord-Atlantica (NAO), El Niño e l’oscillazione meridionale (ENSO). In Italia, dove gli strumenti per la misura dei parametri meteorologici sono nati nel diciassettesimo secolo, le serie secolari di dati sono numerose, risalendo in alcuni casi alla seconda metà del settecento. Il CNR ha valorizzato questo patrimonio creando, in collaborazione con altri Enti, in primis con l’Ufficio Centrale di Ecologia Agraria (UCEA) del MPAF, un data base con i dati di temperatura e precipitazioni di oltre 100 stazioni, che, distribuite sul territorio nazionale, coprono l’arco di tempo degli ultimi 200 anni circa. Le serie, per essere utilizzate, sono state sottoposte ad un accurato esame per verificarne continuità, affidabilità e omogeneità.

Dai dati forniti dalla banca dati storici sul clima, per quanto riguarda il trend della temperatura, la variazione registrata sul nostro Paese è di un grado centigrado in 100 anni (nel periodo 1865-2003), più alta del valore medio registrato su scala globale, che è 0,74°C/100 anni (dati IPCC dal 1906 al 2005). Molto significativo è l’aumento delle ondate di calore, che è in rilevante crescita: il numero dei giorni “caldi” registrati nei mesi estivi, da giugno a settembre, è passato dal 10% del decennio 1960-70 al 40% del decennio 1990-2000.

Per le precipitazioni la valutazione è più complessa. L’analisi della serie completa di oltre 150 anni indica una leggera variazione, statisticamente non significativa. Se, invece, si considera l’andamento degli ultimi 50–60 anni, l’ammontare delle piogge risulta fortemente ridotto: nell’Italia meridionale piove il 12–13% in meno, in quella settentrionale la diminuzione è compresa tra 8 e 9%. Importante è anche il risultato che riguarda l’andamento giornaliero delle precipitazioni: si registra, infatti, la riduzione degli eventi di precipitazione leggera o moderata (inferiore a 20 millimetri al giorno) e aumento rilevante delle piogge intense o torrenziali (maggiori di 70mm/g). Ciò comporta per l’Italia una doppia penalizzazione: diminuisce la risorsa acqua ed aumentano gli eventi estremi che provocano alluvioni, esondazioni, frane, smottamenti ed altri dissesti idrogeologici.

 

Eventi estremi di Libeccio a Livorno

A. Scartazza, G. Brugnoni, B. Doronzo, B. Gozzini, L. Pellegrino, G. Rossini, S. Taddei, F. P. Vaccari, G. Maracchi

Istituto di Biometeorologia, CNR, Firenze, Italia

a.scartazza@lammamed.rete.toscana.it

Libecciate record, con velocità del vento che raggiunge o supera 100 km/h, sono eventi che a Livorno si ripetono periodicamente durante il semestre invernale, con una tendenza all’aumento della frequenza e degli eventi di maggiore intensità confermata dall’analisi climatologica dei dati meteorologici storici nell’ultimo decennio del ‘900 rispetto alla media trentennale. Nei primi cinque anni del XXI secolo, la frequenza è ulteriormente aumentata.

Le variazioni di frequenza e intensità potrebbero essere associate all’incremento della temperatura superficiale del mare (SST) osservato nel Tirreno a partire dagli anni ’80. L’incremento delle SST, infatti, aumenta l’evaporazione delle masse d’acqua, favorisce la formazione di intense depressioni ed aumenta il rilascio nell’atmosfera di grandi quantità di energia.

Per verificare quest’ipotesi è stata realizzata un’analisi incrociata tra la variazione della frequenza del Libeccio a Livorno e i valori delle SST del medio-alto Tirreno per differenti periodi stagionali. L’aumento medio di circa il 32% della frequenza del Libeccio in estate, confermato per il primo quinquennio del XXI secolo, durante il quale si registra un ulteriore aumento di circa il 22%, rispecchia infatti l’andamento delle SST. Nell’estate del 2003 (quando la temperatura, con un valore record, è stata di 3°C sopra la media stagionale e la temperatura del Mediterraneo è risultata la più alta degli ultimi tremila anni) sono stati registrati a Livorno episodi di Libeccio molto violenti, con raffiche di 80 e 90 km/h che hanno causato numerosi problemi sia in mare aperto che sulla terraferma. Anche nell’ottobre 2003 le anomalie termiche nel Tirreno settentrionale (con temperature prossime a 26°C) sono risultate associate ad eventi di pioggia molto intensi e a venti che hanno raggiunto i 100 km/h.

Si rileva anche una significativa, eppur debole, relazione positiva tra la media autunnale delle SST e la frequenza del Libeccio durante l’inverno seguente. In particolare, gli anni in cui le SST del mese di novembre hanno mostrato valori medi inferiori a 17°C, la frequenza del Libeccio nell’inverno è scesa ai valori minimi della serie storica. Al contrario, quando le SST medie di novembre hanno superato i 18°C, la frequenza è risultata più elevata.

 

Riscaldamento delle acque profonde nei laghi italiani

W. Ambrosetti, L. Barbanti e E. A. Carrara

Istituto per lo Studio degli Ecosistemi, CNR, Verbania, Italia

w.ambrosetti@ise.cnr.it

Negli ultimi 50 anni, in particolare dalla metà degli anni ’80, la stabilità della massa d’acqua del Lago Maggiore è aumentata sensibilmente e si sono ridotte le profondità raggiunte dal mescolamento convettivo invernale nel momento in cui nel lago viene a formarsi la cosiddetta “massa d’acqua nuova”. All’incremento del lavoro necessario alla piena circolazione delle acque, dato l’aumento di temperatura di tutta la colonna d’acqua, si è affiancato un minore effetto destabilizzante invernale esercitato dall’azione delle forze esterne. E’ quindi venuta a mancare l’energia necessaria al processo di destratificazione, che è progressivamente diminuito.

Da un’analisi della profondità di rimescolamento osservata nel periodo 1951-2007 risulta che a una ciclicità settennale di eventi di rimescolamento profondo, presente sino al 1970, è succeduto un periodo di ben 36 anni nel quale lo strato mescolato invernale non ha superato i 200 metri di profondità. Da sottolineare peraltro il fatto che la piena circolazione del 1956 è avvenuta con una temperatura dell’acqua su tutta la colonna di 5,8 gradi, mentre nel 1963 è stata di 5,9 °C, nel 1970 di 6,0 °C; nel 2006 il processo è avvenuto a 6,22°C. E’ una prima constatazione del fatto che entro tutta la massa d’acqua del Lago Maggiore si è verificato un notevole accumulo di calore dal 1963 al 2006.

Nell’ipolimnio (lo strato più profondo e freddo) è stato individuato uno strato d’acqua che contiene una sorta di ‘memoria climatica’: il suo andamento mostra cioè variazioni che si adeguano a quelle del clima, permettendo di stabilire il legame tra climate forcing e risposta del lago. L’andamento di questo strato (che favorisce la stagnazione ed il conseguente processo di meromissi: le acque rimangono separate in due strati, quello superiore ricco di ossigeno, quello inferiore che ne è privo) nei Laghi Maggiore, Garda e Orta dal 1963 al 2006 è in continua ascesa con un andamento pressoché identico e con contemporanee variazioni, positive e/o negative, che corrispondono a particolari eventi idrometeorologici. Particolarmente evidenti quelle del 1981, 1991 e 2005, i primi due causati da eccezionali eventi idrologici e la terza da un inverno eccezionalmente freddo. Ma gli stessi trend sono stati riconosciuti nelle memorie climatiche dei laghi di Como e Iseo, in laghi posti nel centro Italia, a nord delle Alpi, nell’ipolimnio del Lago Vittoria (Africa equatoriale) e in laghi australiani. Molte analogie sono state inoltre riscontrate per l’evento invernale del 1981 nel Mediterraneo al di sotto dei 2000 metri di profondità, nonché nel mare della Groenlandia tra 200 e 2000 metri di profondità.

E’ da ritenere di conseguenza che i processi idrodinamici che si verificano nelle acque dei corpi lacustri italiani siano dipendenti da situazioni climatiche che si manifestano su ampia scala e che possano essere interpretate nell’ottica di un cambiamento globale attualmente in atto sulla Terra.

 

Bacino del fiume Arno: aumentano gli eventi alluvionali

B. Gozzini (1), M. Baldi, G. Maracchi, F. Meneguzzo, M. Pasqui, F. Piani (1), A. Crisci1, R. Magno (1), F. Guarnirei (1), L. Genesio (1), G. De Chiara (1), L. Fibbi (1), F. Marrese(1), B. Mozzanti (2), G. Menduni (2)

1 Istituto di Biometeorologia, CNR, Firenze, Italia

2 Autorità di Bacino dell’Arno, Firenze, Italia

b.gozzini@ibimet.cnr.it

Questo lavoro ha preso in esame i cambiamenti climatici in atto e futuri sul bacino del fiume Arno in relazione al fenomeno climatico del Monsone dell’Africa occidentale.

La precipitazione annuale totale non è cambiata significativamente dal 1950, ma la frequenza dei giorni piovosi è diminuita fino all'inizio degli anni 80, mentre l'intensità giornaliera di pioggia è aumentata in modo significativa durante gli ultimi 30 anni. Gli eventi giornalieri della precipitazione in grado di produrre alluvioni stanno crescendo in frequenza e oggi sono più frequenti di quanto si sia mai verificato negli ultimi 150 anni, come pure sono aumentate le precipitazioni annuali estreme di durata molto breve.

Sono previsti gli aumenti sia delle alluvioni sia dei rischi di siccità sul bacino nel corso dei futuri decenni. Mentre il rischio dell'inondazione sta già aumentando in maniera significativa e si stima possa crescere velocemente nei prossimi anni, il rischio di siccità si è appena affacciato e può portare ad una sfida potenzialmente drammatica per la qualità dell'acqua e la sua disponibilità futura.

Da un punto di vista sinottico, la stagione autunnale si sta modificando verso quella estiva degli ultimi anni. La stagione invernale invece assomiglierà alla stagione attualmente autunnale in termini di frequenza di picco delle tempeste. Le estati diventeranno generalmente più asciutte, intervallate da tempeste di pioggia occasionali intense di durata breve fino a diventare molto asciutte e calde.

 

Stambecco a rischio nel Parco Nazionale Gran Paradiso

B. Bassano(2), A. von Hardenberg(2), R. Viterbi(2), A. Provenzale(1)

1 Istituto di Scienze dell’Atmosfera e del Clima, CNR, Torino, Italia

2 Centro Studi Fauna Alpina, Parco Nazionale Gran Paradiso, Italia

bruno.bassano@pngp.it

La variabilità meteo-climatica può avere effetti rilevanti sulla struttura e sul funzionamento degli ecosistemi alpini.

Le forti decrescite numeriche della popolazione di stambecchi corrispondono generalmente ad inverni con abbondante copertura nevosa. La forte dipendenza è presumibilmente dovuta al fatto che durante l’inverno gli stambecchi trovano cibo solo in poche zone relativamente libere dalla neve. Da uno studio della popolazione degli stambecchi nel Parco Nazionale Gran Paradiso (PNGP) risulta invece che negli ultimi anni, mentre la copertura nevosa è ulteriormente diminuita, la popolazione di stambecchi non solo non è aumentata ma ha iniziato a decrescere in modo netto, soprattutto a causa della scarsa sopravvivenza di neonati e giovani. Quali nuovi elementi sono entrati in gioco?

La possibilità al momento più probabile affida un ruolo importante alla vegetazione alpina. L’ipotesi è cioè che, a causa della scarsità della copertura nevosa e dell’aumento delle temperature invernali negli ultimi 50 anni in Piemonte e Val d’Aosta, la stagione di massima crescita e di massimo contenuto energetico della vegetazione sia anticipata ad un periodo primaverile precoce. Nei mesi di giugno e luglio, periodo caratterizzato da elevati fabbisogni energetici legati all’inizio della lattazione ed al suo mantenimento, le madri di stambecco si troverebbero quindi a consumare un alimento di minore digeribilità e con un minor contenuto energetico e ciò inciderebbe sulla quantità e qualità del latte e sulla sopravvivenza dei capretti.

Se questa ipotesi fosse vera, la popolazione di stambecchi del PNGP risulterebbe essere in condizioni critiche, tra inverni molto nevosi che uccidono gli individui adulti ed anziani ed inverni troppo poco nevosi che potrebbero avere conseguenze peggiori, perché incidono sul reclutamento di individui giovani nella popolazione.

 

Pianosa, un ‘pozzo’ naturale di CO2. Il ruolo delle foreste

F. Vaccari, F. Miglietta, G. Maracchi

Istituto di Biometeorologia, CNR, Firenze, Italia

f.vaccari@ibimet.cnr.it

G. Matteucci (1), G. Scarascia-Mugnozza (2)

1Istituto per i Sistemi Agricoli e Forestali del Mediterraneo, CNR, Rende (Cs), Italia

2Istituto di Biologia Agro-ambientale e Forestale del CNR, Porano, Terni, Italia

giorgio.matteucci@isafom.cs.cnr.it

I suoli, con la loro varietà di copertura vegetale, possono comportarsi come ‘pozzi’ di CO2 offrendo la possibilità di realizzare sistemi di produzione che incrementino la cattura di CO2 e ne riducano la presenza in atmosfera: un obbiettivo di ricerca, dunque, di primaria importanza. Le attività del CNR su questi aspetti si sono sviluppati lungo due linee di lavoro.

La prima ha riguardato una indagine campione condotta a Pianosa, i cui risultati indicano che l’isola – la cui superficie presenta una notevole varietà di coperture vegetali, dalla macchia mediterranea ad aree coltivate intensamente, da pascoli a pinete a zone di vegetazione spontanea - può essere considerata un ‘pozzo’ per la CO2, in quanto l’assorbimento supera le emissioni. In media, la quantità di carbonio assorbita per anno è valutata in 2,64 tonnellate di carbonio per ettaro. Pianosa, inserita nel Parco Nazionale dell’Arcipelago Toscano, si presenta quindi come un laboratorio naturale ideale per questi studi: il CNR, attraverso l’attività di nove Istituti e con l’apporto di quattro Università, ha creato il Pianosa Lab dove le ricerche sugli scambi tra suolo ed atmosfera vengono ulteriormente approfondite.

La seconda linea di lavoro riguarda gli esperimenti condotti su alcune foreste, nelle quali sono state installate stazioni di misura finalizzate a valutare la capacità di assorbimento della CO2 da parte delle piante e verificare l’importanza della riforestazione nel contrastare la crescita della concentrazione di CO2 in atmosfera. In particolare sono stati eseguiti esperimenti e vengono effettuati monitoraggi continui su foreste di Pino Laricio, Querce Caducifoglie, Faggi: i risultati indicano che la capacità di assorbimento si aggira sulle 4.0 tC/ha per anno, di cui il 60% va alla massa legnosa ed il 40% al terreno come carbone organico. I valori sono variabili dipendendo da fattori climatici e dal tipo di vegetazione: si tratta, comunque, di valori elevati a livello mondiale e questo indica che le foreste temperate sono molto attive nell’assorbimento della CO2.

 

Emissioni di gas ad effetto serra di un sistema urbano: confronto Roma-Firenze

A. Matese, B. Gioli, F. Miglietta, P. Toscano, F.P. Vaccari, A. Zaldei, G. Maracchi

Istituto di Biometeorologia, CNR, Firenze, Italia

a.matese@ibimet.cnr.it

Le aree urbane sono le principali responsabili delle emissioni di gas ad effetto serra del pianeta, nonostante la ridotta area che occupano, ma solo recentemente sono stati realizzati progetti volti al loro monitoraggio utilizzando misure micrometeorologiche. Sono state, ad esempio, confrontate le misure di flusso di anidride carbonica eseguite nel centro di Roma e Firenze. La tecnica usata è la correlazione turbolenta (eddy covariance), che si basa sulla misura ad alta frequenza della componente verticale della velocità del vento e della concentrazione di CO2. Il periodo in cui le due stazioni hanno operato permette di evidenziare i differenti effetti che la tipologia e struttura delle due città hanno sulle emissioni.

Dai risultati emergono le alte emissioni di anidride carbonica in entrambe le città, soprattutto nel periodo invernale. Il trend giornaliero mostra nelle prime ore della mattina i valori più alti, riflettendo l’aumento di volumi di traffico. I risultati della stazione di Roma evidenziano come la città sia una forte sorgente di emissione soprattutto nel periodo invernale, con un surplus in media del 13% rispetto al periodo estivo. Questa differenza dipende in modo evidente dai riscaldamenti domestici, visto che un'analisi dei volumi di traffico (l'altra importante sorgente di emissioni di anidride carbonica) non rileva una marcata stagionalità.

Una significativa relazione è stata trovata confrontando la temperatura media mensile e il flusso di CO2 medio mensile; mentre dall'analisi dei flussi orari di anidride carbonica si notano valori maggiori nei giorni feriali rispetto ai fine settimana, correlati ai diversi volumi di traffico. Il valore più elevato è stato misurato nelle prime ore della mattina, in concomitanza con l'instaurarsi di moti convettivi che trasportano verso l’alto la CO2 accumulata durante la notte negli strati bassi delle strade cittadine e con l'inizio della circolazione di veicoli che si recano al lavoro.

E’ possibile notare una leggera differenza tra le due città per quanto concerne il confronto tra i giorni feriali e il fine settimana. A Roma, la riduzione dei flussi nel fine settimana è maggiore del 53% rispetto agli altri giorni della settimana. A Firenze, il decremento non supera mai il 22%. Questo è dovuto in particolare alla differente collocazione delle zone residenziali e commerciali nel centro città. Infatti, ci sono molti più edifici residenziali e maggiori strade trafficate nel centro di Firenze rispetto a Roma, in cui sono prevalenti uffici e edifici commerciali.

 

Fluttuazione delle sardine in relazione ai cambiamenti climatici

M. Azzali, I. Leonori, A. De Felice

Istituto di Scienze Marine, CNR, Ancona, Italia

m.azzali@ismar.cnr.it

La biomassa dei piccoli pelagici varia moltissimo nello spazio e nel tempo. Questo fenomeno è di straordinaria importanza ecologica, biologica ed economica e riflette cambiamenti climatici su micro e macro scala di varia natura. La maggiore difficoltà per capire le relazioni tra fluttuazioni della biomassa e parametri ambientali è la mancanza di dati biologici e climatici sinottici per lunghi periodi.

In Adriatico i dati sui piccoli pelagici sono stati raccolti solo dal 1976 con metodologia acustica e i dati ambientali solo dal 1982 con metodologia satellitare. Dai dati raccolti, risulta in particolare che la biomassa totale dei piccoli pelagici è soggetta a fluttuazioni con periodicità da 3 a 5 anni, molto probabilmente legata a fattori ambientali (temperatura, clorofilla) e genetici. Tuttavia la variabilità delle singole specie è molto maggiore e ha una periodicità ancora sconosciuta, caratterizzata da picchi e collassi che sembrano strettamente collegati a eventi climatici su microscala.

Lo stock di alici (E. encrasicolus) nel periodo 1976-2005 ha presentato forti oscillazioni con un collasso negli anni 1986-90, che sembra potersi rapportare alla diminuzione della temperatura superficiale. Gli stock di sardine (S. pilchardus) e di spratti (S. sprattus) sono in progressiva diminuzione a partire dal 1996, in concomitanza con l’aumento della temperatura superficiale.

 

Eventi alluvionali, dissesto idrogeologico e trend climatico nella Locride

O. Petrucci (1), M. Polemico (2)

1 Istituto di Ricerca per la Protezione Idrogeologica, CNR, Cosenza, Italia

2 Istituto di Ricerca per la Protezione Idrogeologica, CNR, Bari, Italia

o.petrucci@irpi.cnr.it

Si definisce Evento Alluvionale (EA) l’insorgere simultaneo, a seguito di periodi piovosi, di frane, piene e allagamenti responsabili di danni a beni e/o persone. L’analisi applicata alla Locride (Calabria SE, un’area di 686 km2) si basa su 24 EA verificatisi in 80 anni e mostra che tendenzialmente gli eventi non presentano una maggiore ricorrenza e che l’area colpita si riduce nel caso di eventi di rara eccezionalità.

Gli EA si distribuiscono da ottobre ad aprile. Ottobre e novembre totalizzano il massimo numero di dissesti, di cui il 40% sono frane. Circa il 40% dell’area mostra una densità di frane omogenea, pari circa al valore medio per l’intera area. Le piene si addensano nelle zone costiere, dove gli elementi più vulnerabili sono i ponti e gli insediamenti abitativi. Sia per le frane che per le piene, la densità maggiore si registra nelle aree più antropizzate, ove l’impatto dei fenomeni genera più danni che nell’entroterra disabitato.

Bassi intervalli di ricorrenza delle frane (6-18 anni) caratterizzano le zone montane e in totale il 60% dell’area. Basso è anche il periodo di ricorrenza delle piene nei due maggiori bacini (Torbido e Bonamico), inclusi i settori interni ove gli eventi danneggiano alcuni abitati. Gli allagamenti sono diffusi in pianura: l’83% dell’area considerata è stata colpita almeno una volta da tale tipo di fenomeni.

Se si considerano anni con più di 10 EA il trend, validato con il test Mann-Kendall, indica un calo del 20% nel periodo di studio (circa 80 anni). Valori elevati si osservano fra il 1954 e il 1963; dal 1987 i valori sono molto bassi, ma il calo è sottostimato per le lacune di dati sugli EA della prima parte del ‘900. Si può quindi avanzare l’ipotesi che il calo pluviometrico possa aver contribuito alla riduzione degli EA.

 

Possibile aumento della frequenza di grandine in Toscana e nel centro Italia

F. Piani (1,2), A.Crisci (1), G. De Chiara (1), G. Maracchi (1), F. Meneguzzo (1), M. Pasqui (1)

1 Istituto di Biometeorologia, CNR, Firenze, Italia

2 Laboratorio per la Meteorologia e Modellistica Ambientale, Firenze, Italia

piani@lamma.rete.toscana.it , f.piani@ibimet.cnr.it

I danni da eventi atmosferici estremi sono drammaticamente aumentati negli ultimi anni, causando un aumento dei costi per agricoltori, industrie, compagnie assicuratrici, enti locali. Le rianalisi NCEP-NCAR, con risoluzione 2.5 gradi di latitudine e longitudine, sono state usate per identificare delle forzanti da cui ricavare relazioni statistiche per prevedere la frequenza delle grandinate.

Da questa analisi risulta una adeguata rappresentazione dei trend passati, dimostrando un aumento significativo nella frequenza di eventi di grandine. Anche gli scenari climatici hanno mostrato un soddisfacente accordo con i dati delle rianalisi, facendo concludere che la probabilità annuale di occorrenza di eventi di grandine sembra crescere nel prossimo futuro. In particolare, l’occorrenza sembra aumentare specialmente in primavera, anche se con un tasso inferiore rispetto a quello osservato negli ultimi anni. In estate, a fronte di un recente aumento a partire dalla seconda metà degli anni 70 del ‘900, si prevede un andamento sostanzialmente stazionario; in autunno l’accordo tra i dati dei due diversi datasets non sembra, invece, garantire un adeguato grado di affidabilità.

Occorre sottolineare che questi risultati devono essere considerati con cautela per diverse ragioni. La frequenza di eventi di grandine nel passato è stata ottenuta a partire da relazioni statistiche basate sulle rianalisi e calibrate su un campione di osservazioni piuttosto limitato, a causa della mancanza di dati a riguardo. Un altro ulteriore elemento di incertezza è dato dalla risoluzione piuttosto grossolana dei dati utilizzati per le proiezioni nel futuro.

 

Fluttuazioni nel livello del mare della Laguna di Venezia

S. Donnici (1), A. D. Albani, A. Bergamasco , L. Carbognin, S. Carniel, M. Sclavo (1), R. Serandrei-Barbero (1)

1 Istituto di Scienze Marine, CNR, Venezia, Italia

2 School of Biological, Earth and Environmental Sciences, University of New South

Wales, Sydney, 2052 NSW, Australia

s.donnici@ismar.cnr.it

L’analisi del livello medio mare dell’ultimo secolo relativo all’Alto Adriatico, pur confermando il trend crescente globale, mette in evidenza l’esistenza di oscillazioni.

A partire dalla fine del XIX secolo si registra una generale tendenza al riscaldamento e, in corrispondenza, una crescita del livello medio del mare. Nell’Adriatico settentrionale, dal 1896 al 2000, il tasso medio di crescita del livello marino, escludendo l’effetto della subsidenza (il movimento di abbassamento verticale della superficie terrestre), è stato calcolato in 1,15 mm/anno.

All’interno del secolo considerato si individuano poi oscillazioni dei valori di livello per intervalli temporali brevi, che forniscono valori di crescita significativamente diversi: meno 0,8 mm/anno dal 1971 al 1993, un deciso incremento in risalita di 3,3 mm/anno dal 1994 al 2000, una nuova fase di diminuzione di 8 mm annui dal 2001 al 2005.

Ne emerge come, per avere una indicazione di trend attendibile, si debba necessariamente disporre di serie storiche secolari.

 

Valutazione dei trend pluviometrici in Calabria

G. Buttafuoco (1), T. Calmiero (2), R. Coscarelli (3)

1 Istituto per i Sistemi Agricoli e Forestali,  CNR, Cosenza, Rende (CS), Italia

2 Dipartimento di Ingegneria Idraulica, Ambientale, Infrastrutture Viarie, Rilevamento,

Politecnico di Milano

3 Istituto di Ricerca per la Protezione Idrogeologica, CNR, Cosenza Rende (CS), Italia

g.buttafuoco@isafom.cnr.it

Sono state analizzate le serie storiche pluviometriche registrate in Calabria tra il 1916 ed il 2000. I dati hanno rilevato in generale un’estrema variabilità delle precipitazioni, significativi trend negativi per le precipitazioni annue, invernali e autunnali, un trend positivo per le precipitazioni estive.

Le ricerche hanno riguardato inizialmente le serie storiche registrate nel bacino del Fiume Crati, il più grande della Calabria: sono state utilizzate le 21 serie con un sufficiente numero di anni d’osservazione (più di 30 anni) e continuità nell’acquisizione dei dati fino al 2000. Le analisi hanno in parte confermato una diminuzione nel tempo della media delle precipitazioni e del numero di giorni piovosi.

Estendendo l’analisi all’intera regione, sono state utilizzate 109 serie storiche pluviometriche con una densità media di una stazione ogni 138 km2 e un numero minimo di 50 anni di osservazione, un minimo di cinque anni di osservazione nel decennio 1991-2000 e un minimo di tre anni nel quinquennio 1996-2000. Ne è risultato un generale trend negativo per le precipitazioni annue (99 stazioni su 109), per le precipitazioni invernali (102 stazioni), autunnali (101 stazioni), primaverili (102 stazioni) e relative al semestre autunno-invernale (102 stazioni). Un generale trend positivo è stato rilevato invece per le precipitazioni estive (90 stazioni su 109), mentre per le precipitazioni relative al semestre primavera-estate (49 stazioni) mostrano un trend negativo e 60 positivo.

Il calcolo ha permesso di identificare aree, quasi sempre localizzate lungo la fascia ionica, con una differenza negativa più o meno marcata rispetto alla media, e zone, ricadenti nell’area più meridionale dell’Appennino Calabrese e lungo la fascia settentrionale della Catena Costiera, con scostamenti positivi anche di un certo rilievo. Inoltre, l’analisi ha evidenziato, nonostante il trend negativo della media decennale, che nel periodo 1991-2000 la superficie di territorio che ha ricevuto un valore di precipitazione inferiore alla media annua si è ridotta rispetto ai decenni precedenti.

 

...ed effetti globali

 

Gli oceani, una ‘pompa’ di CO2

Tra i gas responsabili dell’effetto serra il ruolo principale spetta all’anidride carbonica (CO2), la cui concentrazione in atmosfera si pensa dovuta alle attività antropiche, basate sull’utilizzazione di combustibili fossili. In realtà, la presenza della CO2 dipende anche e soprattutto dalla interazione tra questo gas ed i vari componenti del sistema climatico: idrosfera, suolo, biosfera.

E’ ben noto che gli oceani sono sia pozzi che sorgenti della CO2: questo è possibile per la presenza della Sostanza Organica Disciolta (DOM), che è un miscuglio di Carbonio, Azoto, Fosforo e rappresenta la più grande riserva di carbonio organico reattivo disponibile sul pianeta. L’oceano agisce come pozzo attraverso due diversi processi: il primo (pompa fisica) consiste nel trasporto di grandi quantità di CO2 verso il fondo nella formazione delle acque profonde, il secondo (pompa biologica) consiste nella diffusione e nel rilascio nelle acque profonde della DOM e del CaCO3 in modo tale che grandi quantità di CO2 vengono immagazzinate negli oceani. In conseguenza, mentre negli strati superficiali la concentrazione della CO2 è in equilibrio con quella atmosferica, in profondità si registrano livelli che sono 50 volte più alti di quelli atmosferici. Processi di risalita della acque di fondo, così come una ridotta attività della pompa biologica, possono incrementare la concentrazione di CO2 in aria.

Tali processi sono ancora in gran parte da approfondire, anche perché il prevalere dell’azione di assorbimento rispetto a quella di emissione, o viceversa, dipende in larga misura dalle caratteristiche dei bacini e dalle proprietà chimico-fisiche delle acque. Il CNR da oltre 10 anni studia il ruolo della DOM nel Mediterraneo attraverso campagne di misura ad hoc, evidenziando come le strutture fisiche e le variazioni della circolazione termoalina (la circolazione causata dalla variazione di densità delle masse d'acqua) siano determinanti nel regolare i processi di emissione ed assorbimento della CO2. In particolare, la concentrazione di Carbonio Organico Disciolto è più elevata che negli oceani a causa della maggiore rapidità con cui si formano le acque di fondo e questo implica un maggiore assorbimento della CO2.

 

Aerosol: una medaglia a due facce

Fra le maggiori incertezze rilevate anche nell’ultimo rapporto IPCC, particolare importanza va attribuita al ruolo degli aerosol (anche detti particolato atmosferico o polveri) sul bilancio radiativo (rapporto fra radiazione solare e emissione terrestre). Gli aerosol, infatti, influenzano il clima in modo diretto, riflettendo la radiazione solare verso lo spazio, ed in modo indiretto, modificando le proprietà e la distribuzione delle nubi. Ambedue questi effetti causano un raffreddamento del clima della Terra. E’ ormai assodato che gli aerosol atmosferici prodotti dall’uomo hanno prodotto negli ultimi 100-150 anni un effetto netto di contrasto del riscaldamento prodotto dalla CO2 e dagli altri gas serra. Occorre notare anche che gli stessi processi (ad esempio l’uso di combustibili fossili o la combustione di biomasse) responsabili dell’immissione in atmosfera di gas serra, CO2 in primo luogo, causano anche la generazione di inquinanti gassosi e particolati (aerosol).

In questo senso, le problematiche del clima e della qualità dell’aria vanno quindi considerate come due facce della stessa medaglia. Basti considerare i noti effetti deleteri degli aerosol atmosferici sulla salute umana. L’esposizione agli aerosol inquinanti riduce l’aspettativa di vita media individuale di circa 8 mesi nei paesi EU-25 e per questo motivo i governi hanno introdotto o stanno introducendo a livello mondiale misure di limitazione della loro concentrazione in aria, che nella maggior parte dei paesi industrializzati e persino in alcuni paesi in via di sviluppo si va ormai abbassando, con un andamento che continuerà sempre più nel futuro. Tale diminuzione dei livelli di concentrazione è anche favorita dal breve tempo di vita degli aerosol, per cui limitandone le sorgenti la loro concentrazione è destinata a calare nello spazio di giorni. Al contrario, i gas serra hanno tempi di permanenza in atmosfera dell’ordine dei decenni o, in alcuni casi, di secoli, per cui limititandone le sorgenti la loro concentrazione diminuirà solo molto lentamente.

Conseguenza di tutto questo è che la parziale “protezione” che le emissioni antropiche di aerosol hanno fornito nell’ultimo secolo rispetto al riscaldamento prodotto dai gas serra andrà via via scemando, rendendo molto più urgenti le misure di riduzione dei gas serra.

 

Le “nubi brune”, la minaccia che arriva dall’Asia

I cambiamenti climatici sono un fenomeno tipicamente globale e questo determina un forte interesse per le perturbazioni introdotte dal rapido sviluppo economico di paesi in via di sviluppo, Cina e India in particolare, sul clima globale e quindi anche dell’Europa e dell’Italia. Il CNR è attivo nella ricerca sui cambiamenti climatici in queste aree, in particolare, attraverso Ev-K2-CNR. Quest’unità di ricerca partecipa al progetto ABC (Atmospheric Brown Cloud) attivato dall’UNEP, l’Agenzia delle Nazioni Unite sull’Ambiente, al fine di studiare l’effetto sul clima delle “nubi brune” che si formano su vaste zone inquinate del globo, in particolare dell’Asia.

La componente principale di queste nubi è rappresentata da minuscole particelle carboniose prodotte dai processi di combustione industriale in impianti con misure di controllo inadeguate, ma anche, forse in modo preponderante, dalla combustione di centinaia di milioni di fuochi domestici che bruciano in modo incontrollato ed inefficiente combustibili di cattiva qualità nelle aree più disagiate del pianeta. Queste particelle assorbono la radiazione solare e scaldano l’atmosfera, andando quindi ad aumentare l’effetto prodotto dai gas serra. Si stima che le nubi brune possano contribuire dal 15 al 30% del global warming.

L’unità di ricerca Ev-K2-CNR ha attivato nell’ambito del progetto ABC una stazione di misura nel Laboratorio Piramide in Himalaya, a 5050 m di quota. Tra gli importanti effetti delle “nubi brune” c’è infatti lo scioglimento dei ghiacciai himalayani, causato dall’aumento della temperatura e dalla deposizione delle particelle carboniose sulle superfici nevose, che assorbendo la radiazione solare ne favoriscono lo scioglimento.

La riduzione dell’estensione dei ghiacciai himalayani ed il cambiamento dei regimi del monsone asiatico avranno un grosso impatto sui sette maggiori fiumi dell’Asia che nascono nella catena himalayana (Gange, Indo, Brahmaputra, Salween, Mekong, Yangtze e Fiume Giallo), influenzando in modo rilevante la vita di miliardi di persone.

 

Vapor d’acqua, il primo gas serra

Anche se si parla quasi esclusivamente dell’effetto serra dovuto all’anidride carbonica (CO2), il principale responsabile dell’effetto serra dell’atmosfera è il vapore acqueo. L’importante differenza fra questi due gas è però che il vapore acqueo ha scambi rapidi con i suoi immensi serbatoi distribuiti sulla superficie terreste (oceani, ghiacciai e vegetazione) e che la sua concentrazione in atmosfera non può essere alterata in modo significativo dai processi antropici di produzione di vapore. Nel caso della CO2, invece, gli scambi con i serbatoi sono molto lenti e la concentrazione atmosferica naturale è bassa, così che l’accumulo in atmosfera dovuto alla produzione antropica diventa significativo. Pertanto, la produzione di vapore acqueo non altera l’equilibrio radiativo del sistema Terra e non può influenzare il clima, mentre la produzione di CO2 introduce una perturbazione ed è vista con preoccupazione in quanto effetto “forzante”.

Il ruolo secondario della CO2 come gas serra è spesso utilizzato per minimizzare il problema dell’uso dei combustibili fossili, pertanto bisogna chiarire che l’importanza della CO2 è relativa al valore della sua forzante e non al rapporto con l’effetto serra relativo al vapore acqueo. Il ruolo dominante del vapore acqueo come gas serra è invece importante in quanto parte di un meccanismo di retroazione (feedback). Infatti la sua concentrazione in atmosfera è controllata dalla dinamica atmosferica e può essere alterata da variazioni climatiche, generando un cambiamento del suo effetto serra e un’ulteriore perturbazione del clima. Se la retroazione è negativa (cioè se un aumento della forzante della CO2 porta, attraverso i cambiamenti climatici, ad una diminuzione dell’effetto serra dovuto al vapore acqueo) abbiamo una riduzione degli effetti, se la retroazione è positiva (cioè un aumento della forzante della CO2 porta ad un aumento dell’effetto serra dovuto al vapore acqueo) la perturbazione introdotta dalla forzante è destinata ad avere effetti crescenti nel tempo con una variazione irreversibile del clima.

Un aumento della temperatura dell’atmosfera implica che può essere contenuta nell’aria una maggior quantità di vapore acqueo, e questo suggerirebbe l’esistenza di una retroazione positiva. Tuttavia, maggiori concentrazioni di vapore comportano anche una maggiore formazione di nubi, che causano un aumento della parte riflessa dell’energia solare in ingresso (albedo terrestre) ed un raffreddamento. La determinazione del segno della retroazione dell’acqua è insomma estremamente complessa ed è ancora oggetto di dibattito scientifico: molti parametri devono essere meglio quantificati, anche tenendo conto della loro variabilità geografica e stagionale. In particolare, mancano osservazioni adeguate per la caratterizzazione dell’effetto serra nella regione spettrale del lontano infrarosso, dove si verifica circa la metà dell’effetto serra dovuto al vapore acqueo, a causa di difficoltà nella strumentazione comunemente utilizzata, che necessita di sistemi di raffreddamento criogenici a bassissima temperatura non utilizzabili nel caso di misure fatte con strumenti montati su satellite.

Il CNR ha affrontato con successo anche questa difficile sfida tecnologica, aggirando il problema con la costruzione di uno strumento in cui sono ottimizzati sia il metodo di misura che l’efficienza strumentale, rendendo idoneo alla misura anche uno strumento non raffreddato. Questo nuovo strumento, chiamato REFIR e realizzato in tutte le sue parti presso l’Ente, unisce semplicità di concezione e operabilità.

Una prima misura è stata effettuata portando REFIR ad una quota di 35 km - praticamente fuori dall’atmosfera che causa l’effetto serra - con un pallone stratosferico. Il volo è avvenuto in una zona tropicale, partendo dalla base di Teresina in Brasile. Lo strumento, guardando verso il nadir, osserva l’intero spettro dell’emissione della Terra verso lo spazio, che a seconda delle frequenze spettrali coincide con l’emissione della superficie terrestre o con l’emissione della superficie attenuata dall’assorbimento dei gas serra, con una risoluzione spettrale che include anche il lontano infrarosso. Dalle righe presenti nello spettro osservato è possibile riconoscere i gas che contribuiscono all’effetto serra e determinare la loro distribuzione in quota: si tratta della prima misura dell’effetto serra effettuata in modo così dettagliato e completo, che comprende anche la regione poco studiata del lontano infrarosso dove si manifesta la maggior parte dell’effetto serra dovuto al vapore acqueo. Un contributo fondamentale.

 tratto da: http://www.stampa.cnr.it/documenti/comunicati/italiano/2007/Settembre/130_SET_2007.HTM

 

 

torna a inizio pagina