Archive for the ‘Futuro’ Category

In memoria di Soleri

Posted on Giugno 25th, 2013 in Futuro, Graffiti | No Comments »

Ho sempre subito il fascino dell’architettura: l’urbanistica, in particolare, fin dai miei primi ricordi esercita un’attrazione irresistibile sulla mia immaginazione, e probabilmente qualcosa traspare da quanto vado scrivendo. Tra i grandi architetti del ‘900, Paolo Soleri era un visionario e io avevo imparato a conoscerlo attraverso la fantascienza. Mi sono avvicinato al suo lavoro con le aspettative di chi ne aveva sentito parlare da persone verso cui si nutre una grande stima (e come poteva essere altrimenti, vista la mia venerazione per William Gibson?), e quelle aspettative non sono andate deluse.

Mi ripromettevo da tempo di scriverne su questo blog. La notizia della morte avvenuta il 9 aprile scorso ad Arcosanti - la sua creazione, che ogni anno attira migliaia di turisti da ogni parte del mondo - mi ha spinto a ricordarlo per Delos SF, sulle cui pagine è apparso oggi Paolo Soleri e la dimensione dell’utopia.

Per approfondire segnalo questo ciclo di documentari curati da Tomiaki Tamura, direttamente da YouTube:

• Arcosanti: An Urban Laboratory?
Arcology
Bridges
Lean Linear City: Arterial Arcology

E come assaggio vi riporto qualche campione della sua opera incommensurabile (la galleria prosegue oltre il salto).

Arcology

Hyperbuilding

Read the rest of this entry »

La sindrome dello spazio perduto e i potenziali antidoti in fase di elaborazione

Posted on Gennaio 30th, 2013 in Futuro, Nova x-Press, Transizioni | 1 Comment »

Nello spirito delle celebrazioni per i 125 anni dalla sua fondazione, il National Geographic sta dedicando quest’anno grande attenzione alle nuove frontiere dell’esplorazione. Negli scenari prospettati, non poteva mancare la frontiera più alta e vasta di tutte: lo spazio.

Per quanto ancora remote, le prospettive di un volo interstellare, di spedizioni alla scoperta di nuovi mondi, non sono più così irrealistiche come solo fino a pochi anni fa avrebbe potuto sembrare. In effetti in molti - anche tra gli appassionati di fantascienza - covano la disillusione dello spazio. Leggendo ciò che scriveva Silvio Sosio la scorsa estate sul numero 66 di Robot, nell’editoriale (come sempre ricco di spunti) che prendeva le mosse dalla scomparsa di Ray Bradbury, mi è venuto di pensare a una sorta di sindrome. Per troppo tempo abbiamo consentito che lo spazio fosse nient’altro che argomento di propaganda politica (ricordate gli scudi spaziali e le guerre stellari dell’era reaganiana?) e dopo gli anni dei proclami e delle vuote promesse dell’era Bush Jr abbiamo lasciato che il sogno della frontiera spaziale venisse soffocato dalle contingenze della quotidianità, con il carico da 11 della crisi esplosa sul finire dello scorso decennio. E ormai abbiamo smarrito quell’automatismo che naturalmente si innescava quando prendevamo in mano un libro di fantascienza e - qualunque fosse il suo contenuto - l’immaginazione correva pavlovianamente agli scenari di colonie spaziali, stazioni orbitali, terraforming e viaggi interplanetari. Memore di Bradbury e della nostalgia del futuro che pervade le sue opere più strettamente sci-fi, potremmo dare a questo disagio il nome di sindrome dello spazio perduto: troppe promesse disilluse hanno alimentato nel tempo questa naturale diffidenza, pronta a evolvere in cinico disinganno.

Per fortuna, gli scienziati e gli ingegneri dell’industria aerospaziale sembrano aver preservato negli anni il fuoco dell’impresa. E così, per quanto si parli ancora di tecnologie di là da venire, di tecniche che - allo stato attuale delle nostre conoscenze - richiederanno qualche centinaio d’anni per portarci al più vicino sistema planetario extra-solare, se non altro se ne parla. La NASA, pur attraversando una fase di appannamento, porta avanti la ricerca nei suoi laboratori: vele solari, fusione nucleare e, nei suoi gruppi di lavoro più avanzati ed esoterici, antimateria e propulsione di Alcubierre. Difficile stimare quanto tempo ci vorrà perché queste linee di sviluppo si traducano in progetti economicamente e/o tecnicamente fattibili, ma esistono iniziative audaci come l’arca generazionale 100 Years Starship, lanciata in un piano congiunto da DARPA e NASA, su cui argomenta Giulio Prisco su KurzweilAI (venendo ripreso e rilanciato nientemeno che da io9). E fa bene Prisco a mettere in evidenza le ricadute di un eventuale programma volto a coniugare - in ottica di abbattimento costi e massimizzazione dell’efficienza - viaggi interstellari e mind uploading.

Perché se da un lato conforta l’interesse che sembra riaccendersi intorno alla Frontiera del Terzo Millennio, dall’altro è vero che molte conquiste del progresso a partire dal rush tecnologico del XX secolo possono essere fatte ricadere nell’ambito delle self-fulfilling prophecy. E se a giustificare un’impresa si aggiunge, oltre alla convinzione nella stessa impresa, anche il beneficio delle potenziali ricadute collaterali, la posta in gioco diventa ancora più ambita. Prisco cita le neuroscienze, la teoria dell’informazione e la speranza di vita, ma svincolandoci dal mind uploading per pensare alla tecnica di volo spaziale possiamo aggiungere alla lista genetica, ecologia, energetica e ingegneria dei sistemi. E allora è evidente che quando parliamo di volo spaziale pensiamo soprattutto a come il futuro potrebbe essere plasmato dalla curva del progresso su cui ci andiamo ormai da tempo arrampicando, su una parete che di anno in anno si fa sempre più ripida. E pensiamo quindi alla complessità degli scenari che ci attendono.

Dopotutto trovo irrealistico pensare che questo pianeta non sia destinato a diventare, prima o poi, troppo piccolo per reggere il peso della subspeciazione dell’umanità e dei suoi artefatti più evoluti. E - naturalmente - dei rispettivi sogni.

Le immagini che corredano il post sono opera di Stephan Martiniere, già artista dell’anno per Robot nel 2009.

L’undicesimo comandamento

Posted on Settembre 22nd, 2012 in Fantascienza, Futuro, Postumanesimo, Transizioni | 1 Comment »

Ovvero, quello che quasi tutti gli scrittori di fantascienza prima o poi hanno infranto, grazie naturalmente alla complicità dei lettori. C’è una barriera, nell’ordine fisico delle cose, che ci è sempre piaciuto immaginare di poter abbattere, e dall’era ottimistica e un po’ ingenua dei pulp alle più seriose e tecnicamente informate epoche recenti non è cambiato granché: è la velocità della luce. Se escludo Bruce Sterling, Alastair Reynolds e Kim Stanley Robinson, così su due piedi davvero non mi sovvengono autori che si sono cimentati con contesti spaziali senza indulgere, prima o poi, nel caro vecchio sogno dei viaggi FTL (faster than light, vale a dire “più veloci della luce”). Alcuni lo hanno fatto in maniera più scanzonata e superficiale, altri con una maggiore attenzione alla plausibilità tecnologica che in fin dei conti tradiva solo il disagio per la violazione di un comandamento a cui la fisica ci insegna di essere tutti soggetti, senza distinzione di livello tecnologico o conoscenza scientifica. Ma tutti in qualche storia abbiamo prima o poi spinto un veicolo spaziale a una velocità superiore al limite fisico della relatività einsteniana, traendone un divertimento vertiginoso, se non proprio uno sballo mozzafiato.

Un mesetto fa Charlie Jane Anders (co-curatrice di io9 e scrittrice, fresca vincitrice dell’ultima edizione del Premio Hugo per il miglior racconto con Six Months, Three Days) si è divertita a elencare con l’aiuto di un pool di scienziati le 10 maggiori inesattezze più frequentemente adottate nella fantascienza dei viaggi spaziali. E pochi giorni fa è tornata sull’argomento per tirare le fila del discorso alla luce dei recenti interventi di autori coinvolti in prima persona sul campo (tra gli altri: Charles Stross e lo stesso Alastair Reynolds), che hanno affrontato la questione in un panel dell’ultima Worldcon di Chicago sui viaggi a velocità sub-luce e il commercio interstellare (forse ricorderete anche l’approccio del premio Nobel Paul Krugman alle implicazioni economiche dello stesso problema). Il suo articolo, sempre su io9, è qui ed è davvero ricco di spunti e suggestioni, che spaziano dal Commonwealth interstellare al contatto tra civiltà a diversi stadi di avanzamento tecnologico fino al ruolo dell’umano e del postumano in tutta la faccenda. Argomenti di cui si parlava negli ultimi tempi, qui e altrove, in merito al Lungo ritorno di Grigorij Volkolak.

Ma sempre nei giorni scorsi è venuta fuori anche la notizia (rilanciata da Gizmodo e Blastr e prontamente ripresa da Fantascienza.com) che la NASA sta lavorando, con uno dei suoi gruppi di ricerca avanzata dei laboratori Eagleworks, a un sistema di propulsione che potrebbe essere la rampa di lancio per una futura colonizzazione interstellare. Da quello che è dato capire dalle dichiarazioni di Harold “Sonny” White, ingegnere del Johnson Space Center, la teoria non vieterebbe di sfruttare il principio alla base dell’inflazione cosmologica per realizzare quella che richiama a tutti gli effetti le caratteristiche della cosiddetta propulsione di Alcubierre, derivata dal più popolare warp drive di trekkiana memoria. Il principio di questo motore permetterebbe di spostarsi nello spazio-tempo a velocità notevolmente superiori a quella della luce conservando la scala dei tempi del sistema di riferimento di partenza: niente dilatazione/compressione dei tempi, niente inerzia. E secondo le equazioni nemmeno il problema energetico costituirebbe un vincolo proibitivo: meno di mezza tonnellata di materia esotica basterebbe per spingere a una velocità di 10 c un clipper di 10 metri, consentendo un viaggio di andata e ritorno da Alfa Centauri in meno di un anno.

A patto di disporre di questa materia esotica, un requiem per l’11° comandamento, per usare le parole di White. O se preferite, parafrasando Shakespeare: ci sono più cose in cielo e in terra di quante non sogni la nostra filosofia.

Il bene maggiore

Posted on Settembre 13th, 2012 in Accelerazionismo, Agitprop, Futuro | 3 Comments »

Interessante editoriale di Massimo Mantellini su Punto Informatico, lunedì scorso. Si parla delle ricadute sociali delle nuove tecnologie e di alcune posizioni che potremmo definire scettiche espresse da intellettuali del calibro di Zygmunt Bauman (proprio lui, lo studioso del postmoderno, teorico della società liquida) e di Philip Roth (autore di capisaldi della letteratura contemporanea e nel 2004 di un’ucronia piuttosto intrigante, Il complotto contro l’America). L’articolo merita la lettura e, se siete interessati all’uso che facciamo del web dinamico o 2.0 nelle nostre vite, da Wikipedia ai social network, vi consiglio di fare un salto di là, prima di proseguire.

La difesa d’ufficio del mondo della rete da parte di Mantellini è legittima e nelle linee generali più che condivisibile (tranne quando assegna a Roth il primato tra gli autori in circolazione… probabilmente Roth s’inserisce nell’empireo delle lettere contemporanee tra i primi quattro pesi massimi, ma per il primato assoluto deve pur sempre vedersela con Thomas Pynchon e Don DeLillo). Il problema è che nello slancio di difesa del medium - e non c’è dubbio, lo sottolineo, che con Google, Wikipedia e compagnia bella oggi si stia decisamente meglio e la vita dei cercatori di informazioni sia notevolmente semplificata - anche l’editorialista rischia di commettere un passo falso. Perché se da un lato l’invettiva affidata alle colonne del New Yorker dovrebbe aver appianato le divergenze tra Roth e l’enciclopedia libera on-line, dall’altro non si può liquidare (passatemi il gioco di parole) Bauman come un luddista.

Nel riconoscere l’importanza crescente rivestita dal web 2.0 nel nostro stile di vita, non si può infatti nemmeno negare che nella maggior parte dei casi derivati dalla nostra esperienza diretta le parole con cui Bauman stigmatizza Facebook si limitano a fotografare la realtà dei fatti, nuda e cruda. La tecnologia, lo dicevo anche ieri, rappresenta una risorsa. Ma l’uso che ne facciamo è una responsabilità che ricade in capo a ciascuno di noi. E tra lo scetticismo di un Bauman deluso o di un Roth indignato e la difesa a oltranza di Mantellini, esiste anche un approccio solidale ma critico, che personalmente condivido. Una nuova tecnologia di comunicazione non presuppone necessariamente un arricchimento della persona, un miglioramento del suo stile di vita, in altre parole una ricaduta benefica sul mondo dell’utente. Lo consente, ma l’esito finale dipende pur sempre dalla scelta d’uso che viene fatta. Per dirla in termini matematici, il progresso tecnologico rappresenta una condizione necessaria ma non sufficiente al miglioramento delle nostre vite, sia nella sfera privata che in quella sociale. La qual cosa credo che finisca per incastrarsi piuttosto facilmente negli studi di Bauman sul consumismo e l’omologazione.

Proprio per questo, forse, visto l’utilizzo che fanno del mezzo, alla maggior parte delle persone lì fuori potrebbe giovare un percorso di formazione, utile per l’accrescimento della consapevolezza delle sue potenzialità. Per scartare l’ostacolo delle semplificazioni riduttive, costantemente in agguato sia che si indulga nella nostalgia di maniera sia che ci si abbandoni alle accuse di Neo-Luddismo tanto di moda. E per non accontentarci del male minore, una volta tanto. Ma tendere pur sempre, malgrado le forze contrarie, verso il bene maggiore.

SF, tra prospettive remote e trasfigurazione del reale

Posted on Settembre 5th, 2012 in Fantascienza, Futuro | No Comments »

Dario Tonani interviene sul blog di Daniele Barbieri, su invito di Mauro Antonio Miglieruolo, nell’ambito del Dossier SF da lui curato e a cui anch’io quest’estate ho potuto contribuire con le 7 puntate della mia Mappa del Futuro, che verrà presto riproposta sulle pagine di Next. L’articolo di Dario si propone di tracciare una sintesi degli ultimi anni di Urania, la storica corazzata della fantascienza italiana, e lo fa da una prospettiva che potremmo definire di svolta. Anche se, a ben guardare, io riscontro più una continuità dai lavori già intrisi di tinte fosche di Francesco Grasso e Lanfranco Fabriani ai nostri, piuttosto che una frattura. Ma si sa, “la storia non procede a balzi” e “niente si crea, niente si distrugge, ma tutto si trasforma” sono i principi cardine su cui ho costruito la mia visione del mondo.

Il contributo di Dario mi ha stimolato un’ulteriore riflessione, che riporto in questa sede leggermente modificata rispetto allo spazio dei commenti in calce all’articolo. A mio parere – mi scopro a ripetermi – esistono due tipi di SF: una per i tempi migliori e una per i tempi meno buoni. La prima può concedersi (e solleticare) grandi aspettative, ragionare su prospettive di periodo molto lungo, guardare alla frontiera esterna, che sia lo spazio o il tempo fa poca differenza. L’altra nasce invece dal bisogno di riflettere il reale, trasfigurando il presente. Entrambe hanno la loro dignità, ognuno di noi si è ritrovato a compiacerle entrambe, magari in fasi diverse della propria carriera, e in ogni stagione coesistono, ma con una rilevanza diversa.

Penso che la disamina di Dario sia sostanzialmente corretta nel riscontrare una prevalenza della fantascienza più cupa (distopica) a partire dalla seconda metà degli anni Zero, a differenza di quanto accaduto dieci anni prima, sul finire degli anni Novanta. Non è un caso se questi anni sono coincisi con una crisi economica della portata che tutti conosciamo. Sono stati anche gli anni di Obama, ma evidentemente la fiducia nel cambiamento non ha ancora fatto breccia. A differenza degli anni della Guerra Fredda, ci manca un sogno collettivo in cui credere, un progetto ideale che alimenti la nostra spinta per il futuro: allora era lo spazio, frontiera esterna che si prospettava ricca di risorse e potenzialità. Oggi abbiamo una frontiera “interna”, ubiqua, accessibile con un clic: la rete. C’è molta più fantascienza nelle nostre vite di quanta ve ne fosse negli anni Sessanta, come rileva Dario. E’ il mediascape di J.G. Ballard in cui siamo immersi. E come in un romanzo condensato di Ballard, fatichiamo a trovare una via d’uscita. A maggior ragione abbiamo quindi bisogno della fantascienza. Di quale dei due tipi, lasciamolo decidere agli autori e ai lettori, in base alle rispettive attitudini e necessità.

Perché la fantascienza

Posted on Aprile 2nd, 2012 in Connettivismo, Fantascienza, Futuro | 3 Comments »

Come a dire: ce l’ha ancora un ruolo, questo genere votato per sua natura al futuro, in un’epoca in cui il futuro è come un muro contro cui rischiamo di sbattere il muso un giorno dopo l’altro? Se lo chiedono Matteo Persivale e Mario Porqueddu sul Corriere.it, per l’inserto Il Club de La Lettura. E con un po’ di confusione tentano di dare una risposta, coadiuvati dalle uscite che si sono accavallate negli ultimi anni di testi divulgativi tesi a tracciare il panorama del futuro e dalle impressioni degli specialisti Antonio Caronia, Valerio Evangelisti e Tullio Avoledo. Fresco della due giorni milanese per il Fanta Festival Mohole, in cui con gli amici presenti ci siamo immersi in un clima decisamente stimolante fatto di discussioni e di fervide riflessioni, e già reduce la settimana scorsa dal week-end della Deepcon, abbozzare le mie considerazioni diventa quindi un modo per prolungare agonisticamente il distacco da questa stagione delle convention.

Una triste realtà contro cui tutti gli appassionati finiscono prima o poi per scontrarsi, è che la fantascienza è ancora avvolta in un bozzolo di pregiudizi, false convinzioni, stereotipi e cliché che purtroppo si continua a far fatica a scacciare. Soprattutto qui in Italia, che paga anche lo scotto di una subalternità della cultura scientifica a quella umanistica. Pezzi come quello pubblicato sul Corriere.it, pur nella presumibile buona fede degli artefici e malgrado l’interessante fenomeno che rappresentano (specie alla luce dell’inesorabile dibattito sull’estinzione del genere…), non fanno altro che alimentare il pregiudizio.

La fantascienza è qualcosa di ben distinto dalla futurologia e questo andrebbe ribadito con chiarezza. Non conosco personalmente scrittori che si siano mai prefissi di anticipare il futuro. In compenso, ho letto opere che si sono in misura variabile tradotte in realtà. Non credete che sia un paradosso: non a caso gli anglofoni hanno coniato l’espressione di self-fulfilling prophecy. Persino di fronte alla moltitudine di dimensioni che le sono concesse, la fantascienza si cimenta, in ultima istanza, sempre con la stessa, unica, semplice dimensione: quella dell’uomo. Parliamo di esseri umani, nelle nostre storie, e di cosa voglia dire essere umani. E lo facciamo sempre, in ogni caso, sia che si tenda maggiormente alla frontiera escatologica (e se vogliamo pure metafisica, ad abbracciare i misteri del cosmo più profondo) del genere, sia che invece ci si prefigga di esercitare la sua prerogativa di trasfigurare i problemi in corso o in nuce nel nostro presente.

Come genere, la fantascienza manifesta tuttora una vitalità magmatica, che rende possibile le sue molteplici ibridazioni con generi più o meno limitrofi, dal noir tanto vituperato al romance, passando per la spy-story. E non siamo affatto rimasti fermi a J.G. Ballard e William Gibson, che pure hanno segnato i rispettivi periodi con la carica immaginifica delle loro visioni. In tempi recenti i veterani Iain M. Banks, Greg Egan, Kim Stanley Robinson, Vernor Vinge, Lucius Shepard, Ian McDonald e Paul Di Filippo, come Charles Stross, Richard K. Morgan e Cory Doctorow, solo per citare i primissimi nomi che mi sovvengono, hanno continuato a dimostrare che il ruolo della SF come laboratorio d’indagine del progresso attraverso le sue contraddizioni intrinseche è tutt’altro che esaurito. Anzi, i suoi strumenti continuano a essere sufficientemente affilati da metterci in condizione di esercitarlo con precisione chirurgica.

Il futuro, per di più, non è l’unico tempo che si presta alla declinazione fantascientifica della realtà: dal passato ucronico ai presenti alternativi fino al dominio delle possibilità rappresentate dal futuro, il genere ha a sua disposizione l’intero spettro della storia, manipolata o potenziale, della civiltà umana. Sarebbe riduttivo circoscrivere il campo d’azione a una sola epoca, tra le molte che ha attraversato e che potrà attraversare l’umanità. La SF, chi la frequenta ne è consapevole, è per sua indole decisamente refrattaria ai confini e il fronte temporale non fa eccezione.

L’unica avvertenza che si dovrebbe tenere presente quando si sceglie di rappresentare una storia nell’ambito di un genere con queste caratteristiche (dinamismo, stratificazione, eclettismo, pervasività) è che non se ne dovrebbe sottovalutare la portata critica/speculativa. La meraviglia e lo stupore che le idee (e le trovate) dei romanzi di SF non mancano mai di evocare, possono servire ancora ad aprire crepe nelle barriere mentali ed emotive del lettore, per colpirlo con la forza amplificata dei dubbi e degli interrogativi che non dovremmo mai smettere di porci. Mettendosi in cerca delle risposte, il lettore può partecipare - anche a lettura conclusa - al processo creativo dello scrittore. Un’altra prerogativa pressoché unica che rende la SF un genere tanto singolare. E ancora così attuale da essere imprescindibile in una riflessione culturale rilevante sviluppata in questo particolare frangente storico.

Le strade al neon che portano a Neuromante

Posted on Febbraio 8th, 2012 in Futuro, Transizioni | No Comments »

La prima volta che ho collegato un modem analogico alla rete telefonica e al vecchio cassone che usavo come PC, nell’adrenalina del cinguettio elettronico dell’apparecchio che cercava di agganciare una linea, non potei fare a meno di immaginarmi il cyberspazio descritto da William Gibson. Ricorderete forse le immagini evocate da questo passaggio seminale di Neuromante:

Cyberspazio. Un’allucinazione consensuale condivisa ogni giorno da miliardi di operatori legittimi, in ogni nazione, insegnando ai bambini concetti matematici [...] Una rappresentazione grafica di dati ricavati dalle memorie di qualsiasi computer e inviata al “sistema uomo”. Impensabile complessità. Linee di luce distribuite nel non-spazio della mente, ammassi stellari e costellazioni di dati. Come luci di città che si allontanano.

L’idea che dietro la sagoma di plastica grigia del modem e oltre il confine segnato dal doppino si nascondesse un’universo di luci al neon era una valida astrazione delle architetture di dati che mi aspettavano nella rete, e rendevano decisamente più interessante l’esperienza di una connessione a 56k, che implicava qualche minuto per il caricamento di una pagina e - tipicamente - un’altrettanto prosaica resa grafica della stessa.

Molti passi in avanti sono stati compiuti da allora. Ma restano ampi margini di miglioramento, specie se ci si prefigge come punto di arrivo la realtà virtuale interattiva, comprensiva di tutte le architetture di dati del genere umano, che è la matrice presentata da Gibson. Tra i punti deboli che ancora resistono, l’organizzazione dei contenuti resta uno dei principali problemi (se non il principale in assoluto) con cui deve confrontarsi chiunque voglia cimentarsi con la realizzazione di un sito web. Il web design non è una banalità e spesso impone dei compromessi. Se in genere il webmaster può imparare a convivere piuttosto bene con questi compromessi, purché rispondano alla propria idea del sito web, per l’utente il discorso è un po’ più delicato: siti con ottimi contenuti ma mal strutturati possono scoraggiare l’utente dall’esplorazione/fruizione degli stessi, vanificandone di fatto la bontà, a meno che non si abbia a che fare con utenti dalla forte vocazione all’avventura e alla scoperta, o semplicemente muniti di una pazienza divina. D’altro canto, siti estremamente complessi potrebbero non valorizzare il complesso dei contenuti per via delle inevitabili asimmetrie di esposizione e visibilità degli stessi, occultando di fatto agli utenti risorse di utilità potenzialmente elevata.

In questi anni il web si è evoluto. Ha attraversato il tumulto del 2.0, della condivisione dei contenuti, della loro moltiplicazione multimediale: blog, Wikipedia, YouTube, Second Life, MMORPG, social network. Si affaccia gradualmente verso i nuovi scenari del web semantico, del geoweb, dell’augmented reality. E in attesa esalta il lato più sociale: dopo i tempi di Usenet, dei gruppi e dei forum di discussione, il web sociale ha esordito mappando in rete le relazioni personali esterne alla rete, e molto presto si è trasformato in qualcosa di più: uno strumento per sviluppare collaborazioni, consentire nuovi contatti e amicizie, condividere con loro risorse di comune interesse, attingendo alla rete (link a siti, blog, piattaforme di condivisione) oppure alla vita esterna (foto, note, video dall’altra parte dello specchio). Quello che forse finora è mancato in questo senso, è stato uno sviluppo delle potenzialità implicite nel social web: la possibilità di propiziare a monte l’incontro tra individui accomunati da passioni e interessi.

Riepilogando, due delle cose che ancora mancano alla rete sono:

a. un metodo per svincolare i contenuti dalla progettazione del sito;
b. uno strumento d’ingegneria sociale che superi i limiti dell’attuale sistema di social networking.

A questo scopo nasce Volunia, il motore di ricerca messo a punto dallo specialista Massimo Marchiori (già ricercatore al MIT, collaboratore di Tim Berners-Lee, ideatore dell’algoritmo alla base del PageRank implementato da Larry Page e Sergey Brin per Google) nel segno del motto Seek & Meet. I motori di ricerca stanno consolidando in questi anni il loro ruolo di veri e propri “motori del web”, crocevia della rete. Non solo per via del successo di Google, presto seguito da Bing e altri strumenti via via meno popolari e potenti. Ma soprattutto perché è ormai improponibile anche solo pensare di esplorare il web senza uno strumento di ricerca. Le directory possono funzionare ancora per il deep web, ma nel mare magnum di superficie l’utilità del search engine è irrinunciabile. E così anche i motori di ricerca si moltiplicano, diversificandosi per target e funzionalità. Dopo Wolfram Alpha, il primo motore di conoscenza computazionale del web, Volunia si propone come un assistente di navigazione web con funzioni di mappatura dei siti web, estrazione delle risorse multimediali e costruzione di occasioni sociali.

La presentazione del prodotto, tenutasi lunedì 6 febbraio e trasmessa in diretta streaming dall’Università di Padova, è ancora accessibile in differita dal sito dell’ateneo (qui una versione concentrata e più fruibile). Le reazioni della rete, dopo la spasmodica attesa che ha salutato l’evento, si sono rivelate nel complesso abbastanza tiepide, se non proprio deluse e scettiche. Rispetto alle stesse, mi ritrovo scettico a mia volta, consapevole dell’effetto amplificante delle opinioni negative che in genere seduce i commentatori, sul web in modo particolare. E gli italiani sfiorano sempre vette d’eccellenza quando c’è da esercitare l’ars destruens, che si sia competenti in materia o meno (anzi, secondo l’implacabile logica della legge di Benford, l’accanimento cresce a dismisura quanto più si è ignoranti in materia).

Tra gli articoli che potete trovare in rete, ne segnalo uno positivo (dal Corriere.it), uno assolutorio (da Repubblica.it) e uno severo ma documentatissimo (da Punto Informatico). A cui aggiungo quest’altro critico da Wired che ho scoperto solo dopo la chiusura del post. Ovviamente, si può dire ciò che si vuole sulla presentazione come pure sulla strategia di comunicazione (a parte la scelta dell’italiano e malgrado gli intoppi tecnici, a me non è sembrata affatto sottotono, sarà che sono stato forgiato nella fucina di aule universitarie mediamente molto, molto più noiose, in anni in cui l’uso dei lucidi era ancora un’abitudine dura da estirpare dal corpo docente). La prova del fuoco si avrà quando Volunia sarà messa a disposizione degli utenti, che potranno testarne da sé le caratteristiche.

Per il momento, già solo l’idea di avere sempre a disposizione una riproduzione della struttura dei siti indicizzati mi sembra un’ottima cosa. Mi richiama l’ebbrezza di quei primi giorni di navigazione in una banda aghiforme, a cavallo di un modem cinguettante e scricchiolante. Le possibili evoluzioni dell’interfaccia web, a partire da quel volo d’uccello richiamato da Marchiori più volte nel corso della sua presentazione, mi ricorda troppo l’immagine primordiale del cyberspazio evocata da Neuromante, tradotta in estetica di uso popolare da film (Tron Legacy e Matrix, ma prima ancora Johnny Mnemonic, Il Tagliaerba, Hackers e il primo Tron) e videoclip. E pazienza per i neon, elemento imprescindibile dell’atmosfera cyberpunk: magari si accenderanno tremuli appena sul cyberspazio di Volunia calerà la notte. Anche per questo basterà aspettare.

Terre rare

Posted on Luglio 1st, 2011 in Accelerazionismo, Futuro, Stigmatikos Logos, Transizioni | 2 Comments »

E’ interessante notare come il nostro stile di vita nel 2011 dipenda da materiali di cui la maggior parte della gente ignora l’esistenza. Occorrerà presto un fondo per gli elementi in via di estinzione? Prima di proiettarci verso la frontiera spaziale, a caccia di berynium nell’orbita di Sirio o di illirio direttamente nel cuore di una supernova…

Il rebus delle rinnovabili & l’ombra del nucleare

Posted on Febbraio 9th, 2011 in Accelerazionismo, Agitprop, Futuro, Transizioni | 1 Comment »

Per una volta lascio che il lavoro scivoli nel bacino d’attrazione del blog: in questo post parlerò di fonti rinnovabili, nucleare e manovre più o meno occulte per orientare l’umore dell’opinione pubblica. L’occasione la offrono i recenti articoli apparsi sulla stampa nazionale, con un’operazione che lascia intuire la sua natura lobbistica. Quello che difetta alla campagna, tuttavia, è un necessario requisito di trasparenza, e dispiace vedere che a incapparvi sia stata anche una testata come Repubblica, che invece va solo elogiata per le inchieste che porta avanti. Ma evidentemente anche Repubblica ha un editore e degli azionisti da foraggiare, per cui eccoci alle prese con quella che ancora una volta si mostra come un’iniziativa di propaganda grigia. E lo Strano Attrattore, ormai lo sapete, aderisce alla campagna autopromossa a favore dello smacchiatore di propaganda. Come antidoto alla disinformazione, ecco quindi la vostra razione quotidiana di controinformazione.

Gli articoli sotto osservazione sono questi:

La Consulta: per l’impianto serve il parere delle Regioni (2 febbraio 2011)
Rinnovabili, c’è il rischio stangata: “5,7 miliardi nella bolletta degli italiani” (7 febbraio 2011)
Confindustria: “L’efficienza vale 800mila posti di lavoro” (8 febbraio 2011)

Leggete gli articoli o accontentatevi di questa sintesi. All’annuncio della stangata assestata al piano nucleare del Governo dalla Corte Costituzionale, che ha giudicato illeggittimo l’articolo che escludeva le Regioni dal coinvolgimento in sede antecedente alla Conferenza unica per l’autorizzazione degli impianti (una sorta di deroga a quanto già accade oggi, cucita su misura per il nucleare), è seguita dapprima una stoccata dell’Autorità per l’Energia Elettrica e il Gas (che dà conferma di un atteggiamento generalmente contrario non solo alla promozione, ma anche solo alla tutela del settore delle energie rinnovabili, in cui l’AEEG da qualche tempo a questa parte si sta fieramente distinguendo), con un proclama allarmista di stampo pseudo-terroristico (della serie: “attenzione, consumatori, vi stanno derubando con la scusa dell’ambiente!”), giusto per continuare ad alimentare lo stato di psicopatologia di massa che regna nell’Italia degli anni Dieci; e a stretto giro è arrivato anche l’affondo di Confindustria, che assesta un colpo al cerchio e uno alla botte e attacca sia il Governo per le sue politiche schizofreniche in materia, facendo ancora una volta la voce grossa con una creatura ormai visibilmente allo sbaraglio, sia gli operatori delle rinnovabili, rilanciando l’attualità del tema del momento: il nucleare.

Esonerato il Governo per manifesta incapacità di intendere e di volere, sul banco degli imputati troviamo quindi solo le care, vecchie, vituperate energie rinnovabili: eolico, fotovoltaico (protagonista di un boom in larga misura inatteso, e sicuramente mal gestito dagli organi di controllo del settore), biomasse, idroelettrico. L’accusa: pomperebbero i costi delle bollette dell’energia elettrica degli italiani attraverso la componente A3 degli oneri di sistema, che tiene conto degli incentivi CIP6 istituiti nel 1992 per sostenere lo sviluppo delle rinnovabili in Italia. Peccato però che, con il tipico magheggio all’italiana, il CIP6 sia finito a incentivare sia le fonti rinnovabili vere e proprie e che le cosiddette assimilate e che il legislatore abbia avuto l’arguzia e lungimiranza di infilare in questa innocua aggiunta tanto i termovalorizzatori, ovvero gli impianti di incenerimento della frazione non biodegradabile dei rifiuti solidi urbani (in pratica, i rifiuti indifferenziati sono stati considerati assimilati in quanto prodotti da un processo derivato da fonti rinnovabili, in aperta violazione delle direttive europee), che l’energia prodotta dalla combustione degli scarti di raffineria. In pratica, con la componente A3 delle nostre bollette (pari al 6-7% del costo totale) noi italiani non paghiamo solo per lo sviluppo del settore delle rinnovabili, ma anche per la sua penalizzazione nell’ambito di un sistema che è andato a privilegiare, negli anni, la costruzione di centrali che con il vento, il sole, l’acqua e le biomasse non avevano niente a che vedere. Ma la colpa, secondo l’Autorità e il gruppo di pressione in elefantiaco movimento in queste ultime settimane (ricordate il forum nucleare e la sua pubblicità pagata dagli italiani, sì?), sarebbe delle rinnovabili. (Tra l’altro, per dovere di cronaca, mi sembra che da 7-8 anni non venga più costruito un solo impianto eolico in ambito CIP6, semplicemente perché il mercato dei certificati verdi introdotto all’inizio dello scorso decennio si è rivelato più remunerativo sul lungo periodo. Di conseguenza gli incentivi CIP6, della durata di 8 anni, a cui vanno ad aggiungersi ulteriori 7 anni di tariffa agevolata, sono tutti scaduti o prossimi alla scadenza).

L’obiettivo malcelato è quello di rilanciare l’immagine del nucleare come opportunità. Ma chi ne trarrebbe davvero vantaggio? Di certo non il consumatore (l’utente finale, lo chiamano, anche in questo caso), che nella bolletta si vedrebbe semplicemente sostituire una voce con un’altra, smettendo di incentivare le rinnovabili e cominciando a incentivare il nucleare. Di certo non il sistema, che conta già sufficiente capacità di generazione installata (101 GW nel 2009) per fronteggiare il carico massimo previsto da Terna in uno scenario di sviluppo (72 GW). I dati sono presi da Wikipedia. Il sospetto si orienta quindi verso quei soggetti che magari sono arrivati tardi sulla torta delle rinnovabili e contano di ripetere l’exploit in un settore ancora più remunerativo (intorno agli impianti nucleari, è facile immaginarlo, si svilupperebbe tutto un circo di società di consulenza e organi di controllo per garantire agli onesti cittadini la più assoluta incolumità…), oppure sui colossi nazionali dell’energia che partecipando a un piano strategico per il Paese consoliderebbero il loro ruolo di operatori sul mercato interno (tagliando fuori le piccole e medie imprese che invece hanno saputo più agilmente cavalcare l’onda delle rinnovabili). Una sorta di vendetta di Golia contro Davide, insomma.

Bastano ancora una volta un paio minuti di navigazione su Wikipedia per identificare gli attori in scena e farsi un’idea un po’ più precisa della commedia delle parti in atto. A partire dall’Authority e dai suoi vertici: nell’ipertrofico accumulo di poltrone che contraddistingue il tentacolare connubio tra politica e impresa italiana, sia il presidente che il commissario dell’AEEG attualmente in carica risultano essere o essere stati infatti consiglieri della Sogin. La Sogin (per l’esattezza: Società per la Gestione degli Impianti Nucleari) è una S.p.A. costituita nel 1999 e controllata dal Ministero dell’Economia e delle Finanze per seguire le fasi di decommissioning (ovvero controllo, smantellamento degli impianti, decontaminazione e gestione scorie) delle centrali nucleari italiane spente in esecuzione del referendum del 1987. E a proposito di costi per i cittadini: provate a indovinare chi finanzia questa azienda istituita per il benessere degli italiani post-nucleare?

Potete trovare un indizio nelle vostre bollette. La componente che fa al caso nostro si chiama questa volta A2, riguarda gli oneri di sistema per lo smantellamento delle centrali nucleari, e nel 2009 pesava per 500 milioni di euro. Sempre in bolletta potrà capitarvi di inciampare in un’altra sigla esoterica: MCT. Si tratta delle misure di compensazione territoriale, che vanno a costituire la cassa con cui i governi di domani cercheranno di evitare eventuali future sollevazioni popolari, lubrificando i conti del comune che verrà estratto a sorte dalla Lotteria dell’Eternità per ospitare il sito nazionale di stoccaggio delle scorie nucleari (scongiurando dunque una nuova Scanzano Jonico). Altri 500 milioni di euro stimati ogni anno, versati dagli “utilizzatori finali” italiani. Ma attenzione al delirio di onnipotenza che potrebbe ispirarvi questa prestigiosa etichetta: in questo caso, il passato e il futuro sono non solo degli oneri che pesano sui nostri bilanci familiari, ma anche ipoteche sulle teste dei nostri figli. Qualcuno cercava di ricordarcelo neanche troppo tempo fa.

Viva l’Italia!

Riserva di caccia

Posted on Gennaio 24th, 2011 in Criptogrammi, Futuro, Sezione π² | 10 Comments »

Aggiornamento sullo stato della scrittura, per tutti gli amici che nelle ultime settimane mi hanno chiesto - e aspettano - notizie più precise sui miei lavori. Mi aspetta un mese intenso e quindi potrei continuare a latitare da queste pagine ancora per qualche tempo. Oltre a due racconti già abbozzati ma ancora da scrivere, centrale resta chiaramente il lavoro sul romanzo. Di Corpi spenti vi ho già parlato in diverse occasioni, ma qui mi preme concentrarmi su un aspetto del romanzo che ho ritrovati in un’intervista rilasciata al Corriere della Sera da Ermanno Rea, che di Napoli è stata una delle principali voci del Novecento, ma non solo.

«Oggi guardo con interesse a quelli che si occupano di economia alternativa e non inquinante: il Mezzogiorno potrebbe diventare una macroregione autonoma - senza parlare di secessione, ovviamente! - sulla falsariga anche del concetto di decrescita elaborato da Latouche, per esempio». Concretamente? «Affidare a un pool di intelligenze il progetto di un nuovo sviluppo, la mappatura dei problemi aperti, la speranza di mobilitazione delle coscienze, il compito di elaborare una prospettiva di futuro. Napoli è una città che non conosce se stessa».

Un passo indietro. Gli amici con cui mi sono più intensamente consultato durante la stesura di Corpi spenti sanno che la storia si svolge in un arco temporale di circa un mese, a ridosso delle imminenti votazioni che daranno il primo governo eletto dal popolo al neonato Territorio Autonomo del Mezzogiorno, istituito per decreto del Presidente della Repubblica nel dicembre del 2060. Nel duecentenario dell’Unità d’Italia, ecco che l’Italia si spacca: non è però la Padania a dichiarare la Secessione, al contrario è Bassitalia a staccarsi dalla penisola, come una coda di lucertola. Le spiegazioni di questa soluzione (prendetelo pure come un antipasto del romanzo) sono fondamentalmente due: in prima battuta attuare una secessione morbida, senza cioè dare l’idea della parte più ricca del paese che si lascia indietro quella più povera, ma al contrario caricando questa soluzione della valenza politica di un’opportunità di riscatto e progresso per il Sud (sul modello delle zone economiche speciali cinesi); in seconda istanza, creare una vera e propria Riserva di caccia per i signori di quest’Italietta futura post-democratica e neofeudale. In sintesi, fare di Bassitalia qualcosa che somiglia pericolosamente al Messico delle maquiladoras per il NAFTA, con Napoli che infatti diventa lo spettro di Ciudad Juarez.

Uno dei partiti che si contendono il controllo politico di questa Riserva fa riferimento a un movimento regressionista, che predica per voce del suo leader - un pastore evangelico che ricorda il Floyd Jones di PKD ma che… no, meglio rimandare i dettagli - una dottrina di anti-sviluppo come antidoto alle storture comportate dalla pessima gestione del progresso e delle sue opportunità. E’ una reazione alla Singolarità, che già in questo romanzo assume connotati culturali camaleontici per riflettere un nuovo assetto geopolitico emergente (e che verrà meglio esplorato in un romanzo breve che vedrà presto la luce, spin-off del filone principale di queste Cronache del Kipple). Non il modo più razionale per affrontare i problemi della città assediata dal Kipple, ma - si sa - facendo leva sull’insoddisfazione di pancia delle masse si possono strappare risultati importanti.

Ecco, vedere che qualcun altro ha avuto un’idea simile alla mia, e che in essa riverberano spunti e suggestioni molto simili pur approdando a due esiti completamente antitetici, forse dovrebbe infastidirmi, e invece mi rende ancora più orgoglioso per aver deciso di giostrare il romanzo intorno a quest’idea, anche con la valida incitazione degli amici con cui nei mesi scorsi mi sono confrontato. Perché significa che c’è un meme, nell’aria, e io l’ho recepito al pari di altri più svegli di me. Di sicuro, se mi fossi lasciato sfuggire un’opportunità di critica come questa, avrei sentito meno completo il romanzo, che si avvia felicemente alla conclusione attraverso la sua terza e ultima parte.

Da Napoli, 2061, per il momento è tutto. Restate in ascolto.

[Immagine pubblicata per gentile concessione di 3pad.]