Entries Tagged 'geek' ↓

Tanto tempo fa, in una galassia lontana lontana…

Star Wars in Concert Circa trent’anni fa ero uno dei tanti bambini che assisteva alla proiezione di un film che avrebbe cambiato definitivamente il suo immaginario fantastico. La combinazione di immagini sul grande schermo e la musica davano vita ad uno spettacolo unico, che avrebbe definito il modo di fare cinema di fantascienza da lì in avanti, creando anche l’industria degli effetti speciali.

Trent’anni sono passati e ieri pomeriggio al come-si-chiama-adesso-il-Forum di Assago ho potuto assistere ad uno spettacolo che non avrei mai immaginato di poter vedere fino a pochi anni fa.

Lì davanti a me c’era un’intera orchestra sinfonica, con tanto di coro, una scenografia d’effetto e uno schermo largo quasi quanto il palco. Questa è la premessa di Star Wars in Concert.

Quello che è veramente Star Wars in Concert varia da persona a persona e ieri c’era un campionario molto assortito, che andava dal bambino delle elementari all’azzimato pensionato accompagnato dalla consorte che, alla vista della bacheca dei prop, ha perso l’autocontrollo e si è comportato esattamente come il bambino di cui sopra.

L’emozione di sentire dal vivo quelle note che ci accompagnano da anni è difficile da descrivere; a questa si aggiunge anche il fatto di avere Anthony Daniels lì davanti sul palco che accompagna la narrazione musicale con interventi di grande qualità recitativa.

Per anni quelle note sono uscite dal registratore a nastro, dallo stereo di casa, dal riproduttore CD, dal player MP3… ma questa era la prima volta che si sono potute ascoltare dal vivo quelle note che fin’ora per noi avevano nomi tipo Fox Fanfare, Main Titles, Cantina Band, Imperial March, Across the Stars, Duel of the Fates, The Desert And The Robot Auction, Yoda’s Theme, The Throne Room, End Titles…

Un’emozione così potrebbe essere superata solamente dal Maestro Yoda che suona alla porta di casa.

Foto e altri commenti più razionali li trovate sul blog di un amico che era seduto dietro di me.

Windows 7 XP

Ieri in un articolo è stato annunciato che nelle versioni professionali del futuro Windows 7 sarà possibile installare senza costi aggiuntivi un pacchetto costituito essenzialmente da una versione ad hoc di Virtual PC con una macchina virtuale Windows XP legittimamente licenziata.

Questa sarebbe la soluzione per mantenere la compatibilità del software business e per invogliare gli aggiornamenti studiata dalla più grande ditta di software del pianeta? Scusate, signori di Redmond, ma a chiudere un XP in una virtual machine che gira su un sistema più stabile (vmWare ESX, Linux, Mac OS) è una soluzione a cui sono arrivati quasi tutti da anni!

Microsoft per ora non dice quale sarà il livello di interazione tra la macchina ospitante (Windows 7) e quella ospitata (Windows XP). Se le barriere saranno basse e si tratterà solamente di una shell di supporto, ricadiamo nel WOW (Windows Over Windows) di Windows NT, però ci potrebbero essere problemi di compatibilità degli applicativi che potrebbero bloccare l’adozione di Windows 7. Se le barriere saranno molto elevate, avremo due sistemi operativi da manutenere e da mantenere in sicurezza (patch, antivirus, manutenzioni) con oneri doppi per le aziende.

Mantenere la compatibilità senza precludere i percorsi di aggiornamento e di miglioramento del software non è un’operazione impossibile, Linux e molti progetti open source sono lì a dimostrarlo. Forse è giunta l’ora che Microsoft ripensi un po’ alle proprie strategie e inizi a pubblicare software di un certo livello anziché fare del gran marketing perché le storie come quelle della Computer Associates insegnano che non si vive di solo marketing.

Ubuntu 9.04 Jauntry Jackalope

L’installazione della nuova Ubuntu mi permette di non lasciare il necrologio di GeoCities come ultimo post del blog.

Ho tentato di fare l’upgrade, ma avevo pasticciato troppo con prove e varie installazioni dubbie, quindi ho pensato di ripartire da zero.

Mentre scaricavo con BitTorrent (il Maligno! il Maligno!) l’ISO del CD, ho aggiornato il backup di tre directory a colpi di rsync: la mia home, una directory di dati e quella con le macchine virtuali.

Ho approfittato della reinstallazione per togliere la partizione montata sotto /boot, per ridurre un po’ la dimensione dell’area di swap, visto che in due anni è restata largamente inutilizzata e per utilizzare il file system ext4.

L’installazione ha chiesto pochi dati all’inizio e poi è andata da sola senza bisogno di interazione mentre io stavo visitando un possibile cliente dove scoprivo di non essere l’unico ad essere in ballo con la nuova Ubuntu.

Al ritorno dopo il reboot Linux ha visto tutti i device, ha settato il video nella maniera giusta per il mio monitor (Dell 20″ wide) e ho installato i pacchetti che mancavano mentre ripristinavo il backup della mia home e delle altre directory di dati. L’audio mi sembra addirittura migliore.

L’ultima versione di vmWare Workstation si e’ installata senza battere ciglio e senza richiedere librerie strane.

La cura della grafica e dei font mi sembra migliorata; anche gli effetti di compiz sono per default meno plateari, ma migliori per il lavoro di ogni giorno.

Nulla d’altro da dire, se non «funziona». Ovviamente.

Aggiunta del 2 maggio: il file system ext4 è sensibilmente più veloce di ext3; anche il controllo periodico dell’integrità del file system avviene in circa quindici secondi, contro il minuto e mezzo abbondante di ext3. Altro dato da rilevare è l’aumento notevole della velocità di boot che non si è però tradotto, come successo in Windows, con una diminuzione delle performance nei primi minuti dopo il login. Qui il miglioramento è reale.

Le fontane della scienza

Anche questo post ha un alto livello di geekitudine.

Dopo i video sugli elementi della tavola periodica, l’Università di Nottingham ha attivato un’altra lodevole iniziativa per la divulgazione della conoscenza scientifica: Sixty Symbols.

Questa nuova iniziativa si propone di produrre un video dedicato a sessanta simboli della fisica e dell’astronomia.

Il taglio dei video è decisamente divulgativo e i professori intervistati parlano un buon inglese (britannico, ovviamente).

Da notare che, assieme ai video ospitati da YouTube, sono disponibili su Flickr anche gli schizzi che i professori hanno realizzato durante le loro spiegazioni.

Consiglio vivamente una visita a questo sito.

Sui social network

L’argomento è tornato in auge quando la stampa italiana ha parlato (per lo più a sproposito e senza una conoscenza specifica) di Facebook.

I sistemi di aggregazione di persone per via telematica sono vecchi come la telematica medesima e probabilmente affondano le loro radici nelle BBS che si interconnettevano via modem, come FidoNet, Sublink, Internet stessa prima dl boom e il network dedicato ad Apple di cui ho dimenticato il nome. Per chi è nato e cresciuto telematicamente su quelle reti, il boom di Internet iniziato nel tardo 1994 non ha rappresentato nulla di nuovo.

La novità a mio modo di vedere è arrivata con la connettività flat casalinga e dei piccoli uffici, che ha permesso la fruizione e la pubblicazione di contenuti in maniera costante.

I sistemi di aggregazione e comunicazione più diffusi sono sempre stati quelli asincroni, ovvero quelli per i quali non è richiesta un’attenzione costante, ovvero ciascuno può decidere autonomamente quando e quanto connettersi senza essere escluso dalla comunità. Il tipico esempio di comunicazione asincrona è la posta elettronica, mentre per la comunicazione sincrona si può citare IRC e tutti i derivati di chat in tempo reale. Altri esempi di comunità asincrone sono Flickr, i blog, i forum, le mailing list, i newsgroup e Facebook. La comunità sincrona per eccellenza è forse Second Life, che richiede un’immersione totale nell’interfaccia.

Il mio personale favore va per le comunità asincrone. Ho provato Second Life, ma confesso che ho la spiacevole sensazione di entrare nel Villaggio della serie The Prisoner, non per il timore di essere sorvegliato, quanto per l’ambientazione contemporaneamente familiare e surreale e per il fatto che molti luoghi sono perennemente vuoti. Facebook, fin’ora, mi piace. Non richiede tanta dedizione, posso ignorarlo per una giornata senza perdermi nulla, si consulta via web e non è per nulla impegnativo.

Moltissime comunità online non sono “utili”, nel senso che probabilmente non si impara qualcosa di fondamentale né si leggono notiziari o commenti autorevoli sugli ultimi avvenimenti. Ma non è questo lo scopo: le comunità servono a rilassarsi, divertirsi, ricontattare un amico perso nei meandri del tempo e della memoria e chiudere la giornata o una sessione di lavoro con il sorriso in volto o con un ricordo piacevole.

È una cosa così brutta?

VMware 6.5

Fino alla versione 6.0.x chi utilizzava VMware Workstation su Ubuntu doveva lanciare uno script di compilazione che poneva domande non troppo chiare per chi non sia uno smanettone.

Questa operazione non doveva essere eseguita all’installazione, ma ogni volta che veniva aggiornato il kernel, all’incirca una volta ogni 40 giorni.

Tempo fa ho scaricato e installato la nuova versione 6.5 di VMware Workstation. Già nella procedura di installazione ho notato un notevole miglioramento della procedura di installazione dal punto di vista dell’utente medio, in quanto è scomparsa la necessità di eseguire lo script di compilazione.

Questa mattina ho riscontrato il secondo netto miglioramento. Quando VMware 6.5 viene eseguito appena dopo l’aggiornamento del kernel, appare una finestra che avvisa della necessità di ricompilare alcuni moduli. L’operazione avviene automaticamente senza domande criptiche per l’utente medio con l’interfaccia riportata nella figura qui sopra. Il tutto dura qualche decina di secondi, al termine dei quali si può lavorare con VMware.

Ritengo che questo sia un notevole passo in avanti verso la possibilità di utilizzare in ambiente business VMware Workstation utilizzando come sistema operativo ospitante [K]Ubuntu o altre distribuzioni supportate da VMware.

Quando il minimalismo non paga

Uno dei grimaldelli utilizzati per convincere molte organizzazioni ad adottare Linux è sempre stata la bassa richiesta di hardware da parte di questo sistema operativo quando vengono paragonate a quelle di Windows Server. È una strategia che ha pagato moltissimo perché è tutt’ora possibile dimostrare che un qualsiasi PC desktop può essere utilizzato per ricoprire il ruolo di un server.

Se ciò aveva un significato quando i costi di un server erano cospicui, credo che ora il gioco al ribasso per i server Linux inizi ad essere un boomerang assai pericoloso.

I sostenitori di Linux sono spesso determinati a dimostrare la bontà del sistema e accettano troppe volte offerte al ribasso sull’hardware fino a raggiungere livelli ridicoli. Non dobbiamo più accettare che l’hardware di scarto di un’organizzazione diventi la base su cui viene costruito un sistema mission critical quale il NAS per i backup, il mail server, il web server della intranet, il fax server…

Se facciamo due conti, i compromessi e il tempo necessario per allestire un sistema funzionante, ma con performance imbarazzanti, costa molto di più di un server base con tre anni di assistenza on site. Per chiarire il concetto, il Dell PowerEdge T105 dell’ultimo server Linux che ho installato (mail server, pop e imap server, antispam, antivirus, firewall, due webmail, fax server) è costato meno di una licenza Windows Server ed ha un processore dual core a 64 bit, due dischi da 250 Gb con controller RAID e 4 Gb di RAM.

A parte la velocità con cui il sistema è andato online, gli utenti si sono accorti immediatamente della differenza rispetto all’hardware precedente (sempre un server Dell, ma un po’ anzianotto) e la soddisfazione dell’utente è uno degli scopi del SysAdmin.

I SysAdmin Linux più oltranzisti mi accuseranno di aver sovrastimato l’hardware e diranno che con meno della metà delle risorse avrei poruto mettere online il medesimo server. A queste persone rispondo che quel server è all’inizio dei suoi (almeno) tre anni di vita e partire con un sistema al limite del carico non è una scelta oculata perché con il tempo il carico può solamente aumentare. Inoltre, in caso di picchi di lavoro, un server non oberato di lavoro ha spazio di manovra per reagire nel migliore dei modi e per fare in modo che gli utenti non si accorgano nemmeno del picco di carico.

L’autunno è tempo di budget e questo non è certo un periodo di vacche grasse. Se è vero che, a parità di performance, molte implementazioni su Linux hanno richieste hardware inferiori, ciò non significa che un’organizzazione debba destinare gli scarti per i server Linux perché non si sta realizzando un risparmio, bensì la procrastinazione e la moltiplicazione di una spesa.

Security through obscurity è MALE

Ficcatevelo in testa: nascondere (o negare) i problemi di un sistema è il peggiore dei comportamenti possibili.

La considerazione nasce, ovviamente, dalla paradossale storia che ha coinvolto alcuni studenti del MIT e un servizio di trasporti pubblici del Massachussetts. Innanzi tutto va chiarito che le persone coinvolte non sono un manipolo di malviventi, ma studenti del MIT il cui professore è Ron Rivest, la ‘R’ del RSA. Gli studenti hanno scoperto un problema nel sistema di tariffazione dei trasporti pubblici e hanno applicato le procedure descritte dalla Full Disclosure Policy (RFPolicy) v2.0. La policy prevede che chi scopre un problema di un sistema contatti per prima cosa l’autore/gestore del sistema con cui stabilisce un dialogo che ha come scopo primario la soluzione del problema.

Questa volta, anziché dar retta ai tecnici è stata prestata attenzione ai legali, i quali sono riusciti sì ad impedire che venissero rivelati gli estremi della vulnerabilità, ma non a risolvere il problema. Intendiamoci: come sono riusciti gli studenti del MIT potrebbe arrivarci chiunque altro e questa volta potrebbe non essere ispirato da nobili sentimenti. Oppure potrebbe essere che già in questo momento qualcuno stia utilizzando da tempo le falle del sistema per viaggiare gratuitamente e questo qualcuno ha ringraziato l’ufficio legale che ha bloccato gli studenti del MIT.

Se qualcuno, quindi, scopre un problema nei nostri sistemi e applica la RFPolicy, non dobbiamo rispondere con una granaiuola di cause, ma dobbiamo ringraziarlo e, magari, invitarlo a collaborare per sistemare il problema. Una volta sistemato il problema, bisogna renderlo pubblico sia per invogliare chi è coinvolto ad aggiornare il proprio sistema, sia per evitare che altri facciano la medesima scoperta e la utilizzino per scopi non proprio legali.

L’adesione alla RFPolicy da parte di una Società è sempre un comportamento coraggioso perché alcuni presunti responsabili delle PR pensano alla caduta di immagine nell’immediato e non vedono le conseguenze per l’intera Società (non solamente per la sua immagine) a lunga scadenza.

In cauda venenum: il fatto che vengano denunciate pochissime frodi informatiche al sistema bancario dipende dalla robustezza della loro infrastuttura informatica?

Aggiunta: La presentazione è stata pubblicata e vale la pena di essere consultata da qualsiasi persona che abbia a che fare con la sicurezza informatica, non solamente riguardo ai trasporti pubblici.

33.000 record di iscritti a Clear rubati a SFO

La CBS riporta (via Slashdot) che all’aeroporto di San Francisco il 26 luglio u.s. è stato rubato un computer portatile che contiene le informazioni personali di 33.000 clienti di Clear, un servizio che consente a chi paga 100$/anno di seguire una procedura più rapida durante le operazioni di controllo di sicurezza negli aeroporti americani.

A parte l’idiozia di far pagare un quid per evitare i controlli di sicurezza, le informazioni personali contenute nel computer non erano protette da alcun sistema di crittografia, perciò chi ha in mano in questo momento il portatile ha libero accesso ai dati personali e agli estremi dei documenti di identità di 33.000 cittadini americani, molti dei quali, è ragionevole presumere, sono utenti abituali del servizio aereo.

Facendo un rapido calcolo, quei 33.000 clienti hanno generato un fatturato di oltre 3.000.000$ (ipotizziamo che alcuni siano dati di test, o dipendenti, oppure omaggi): è mai possibile che un’organizzazione con un simile fatturato annuo non si sia mai posta il problema della sicurezza? In una pagina apposita del sito, Clear dichiara che «in June, 2007, Ernst & Young LLP concluded a comprehensive, independent audit of our privacy policies and practices», evidentemente l’audit non era così approfondito.

A mio modo di vedere, stando ai dati pubblicati, il problema in questo caso è duplice.

Da un lato c’è un’organizzazione che non è in grado di tutelare i dati che le vengono consegnati. La nostra legge prevede non per nulla una serie di norme da rispettare in questo settore, molte delle quali sono pensate per far capire a chi sta gestendo i dati l’importanza di ciò che ha in mano. È fuor di dubbio che ci sia stata della leggerezza nell’affrontare questo problema.

Dall’altro lato abbiamo il personale che, probabilmente, non è stato sufficientemente addestrato o reso consapevole dei rischi che comporta la sottrazione di un computer con quei dati. Spesso chi commette leggerezze in questo settore lo fa perché nessuno gli ha mai spiegato quanto possano valere i dati che sta trattando per persone con finalità poco legali.

Concludo con una riflessione per i miei tre lettori. Pensate alle chiavette USB e ai dischi rigidi tascabili che vi portate dietro. Pensate alle conseguenze di un furto di quegli oggetti e ricordatevi che il mondo è piccolo, molto piccolo…

Quaranta giorni dopo

Cybook e il mio libro su Babylon 5

È quello che gli ospiti dicono mentre ripartono in macchina che conta.

Quaranta giorni dopo l’acquisto ho ricaricato per la prima volta le batterie del Cybook ed è ora di fare un piccolo report sull’oggetto.

Sono stati quaranta giorni abbastanza movimentati, il Cybook mi ha seguito su quattro voli aerei nazionali senza creare problemi, a parte una volta in cui si è bloccato mentre ero in volo ed avevo bisogno di un oggetto appuntito (terrorista!) per forzare un reset dell’apparecchio; fortunatamente una normale penna a sfera riesce ad azionare il pulsante apposito.

Era tanto tempo che non comperavo delle schede Secure Digital perché ho quasi pensionato la fotocamera digitale che le utilizza; ho notato con estremo piacere che con 5€ si possono acquistare delle SD da 2 Gb, che non saranno velocissime, ma per i miei scopi vanno benissimo.

L’interfaccia utente del Cybook è un po’ ruvida e necessita di alcuni miglioramenti come un feedback immediato di «comando ricevuto», ma sostanzialmente fa quello che deve e ci si abitua. Se ci fosse un comando per girare pagina anche sul lato sinistro dell’apparecchio sarebbe un’ottima cosa.

I PDF non predisposti per i lettori di questo tipo si vedono abbastanza male a causa dell’assenza dello zoom. Tutti gli altri formati con testo riformattabile si leggono benissimo, specialmente per il fatto che è ovviamente possibile impostare tipo e dimensione di font.

Il problema resta l’approvvigionamento legale di testi. Ci sono autori che, dal mio punto di vista, riescono a vedere lontano come Charles Stross o Cory Doctorow e che stanno facendo in modo di poter pubblicare anche su Internet le loro opere, possibilmente prive di DRM. Credo che sarà una strada lunga, a meno che non intervenga qualche fattore esterno come per esempio lo scarseggiare della polpa di legno.

Nel frattempo qualcosa pare si stia muovendo: secondo Register Hardware, Sony sbarcherà oltremanica in settembre con il suo PRS-505 e sembrerebbe imminente (mesi?) la disponibilita’ del Readius, un dispositivo tascabile con display pieghevole dotato di connettività cellulare, bluetooth e USB, anche se non mi è ben chiaro come stia bene assieme tutta quella roba assieme governata da WinCE; le specifiche sono comunque ancora molto fumose. Se il mercato ci crede, l’eBook reader potrebbe essere il gadget di Natale o del prossimo anno.