Entries Tagged 'internet' ↓

Albo Pretorio

Libreria Delfino - PaviaIn quanti, tra i non addetti ai lavori o coinvolti per fatti personali sanno che cos’è?

È il nome della bacheca o asta di legno o similare collocata all’interno (di solito presso l’ingresso) di alcuni enti in cui si pubblicano gli atti che, in base alle leggi e ai regolamenti vigenti, ottengono la pubblicità legale a cui è legata la loro validità. Esempio banale: le pubblicazioni di matrimonio, che restano all’albo per una settimana.

Confesso che la prima volta che me ne hanno parlato (sei anni fa) per motivi di lavoro mi sono balenate in testa immagini di fasci littori, toghe romane e assimilati.

Ex lege 69 del 18/6/2009 “dal 1 gennaio 2010 gli obblighi di pubblicazione di atti e provvedimenti amministrativi aventi effetto di pubblicità legale si intendono assolti con la pubblicazione nei propri siti informatici da parte delle amministrazioni e degli enti pubblici obbligati” e “a decorrere dal 1º gennaio 2010 e, nei casi di cui al comma 2, dal 1º gennaio 2013, le pubblicazioni effettuate in forma cartacea non hanno effetto di pubblicità legale” (articolo 32, il termine del 2010 è stato prorogato di sei mesi per due volte)

In pratica ora l’Albo Pretorio e’ online. Lo sapevate?

Sapete che, teoricamente, dal primo gennaio tutti gli atti del vostro comune che interessano la vostra vita e dei vostri concittadini sono (o dovrebbero essere) consultabili online?

Se il vostro comune non ha ancora provveduto, provate a chiedere all’ufficio del Segretario Comunale perché non l’ha ancora fatto.

E magari mettete tra i siti da visitare periodicamente quello dell’Albo Pretorio online del vostro comune. Del resto sono anche soldi vostri.

Cosa significherebbe un controllo di Internet

La notizia: il motore di ricerca cinese Baidu ha bloccato le ricerche con parole chiave che hanno a che fare con il terremoto appena verificatosi nella regione del Qinghai che ha provocato, per ora, 400 vittime e 8.000 feriti.

Il contrasto con altri motori di ricerca occidentali è stridente: noi utilizziamo i motori di ricerca quando abbiamo bisogno di notizie, un esempio è l’analisi compiuta da Google trends (già Google zeitgeist). Limitare le ricerche proprio nel momento in cui sono più utili è un’azione che non ha certo bisogno di commenti.

Internet non è un brutto babau in cui non vigono regole, come ha scritto un giudice italiano (signor giudice, cosa ne pensa degli stadi italiani?). È un posto con delle regole differenti, che possono confondere chi si ostina a non volerle comprendere e insiste nel voler applicare paradigmi dello scorso millennio ad una tecnologia nuova. Internet è uno strumento in cui “pluralità d’informazione” non significa poter leggere sia il Corsera, sia la Repubblica, ma poter leggere il Guardian, Al Jazeera, il NY Times, El País, la FAZ, e Haaretz, farsi una propria idea di cosa stia succedendo e magari concludere facendosi due risate con il Sun e la Bild.

Possa questa pluralità avere vita lunga e prospera, ma stiamoci attenti.

Sulle differenze tra i linguaggi di programmazione

Per varie ragioni (che non includono solamente il masochismo) voglio portare una procedurina di monitoraggio che ho scritto in Perl sotto Linux in ambiente Windows.

Volendo usare un linguaggio script nativo in ambiente Windows per evitare di installare programmi di qualsiasi tipo sulla macchina da monitorare, decido di usare la PowerShell.

Prima sorpresa: Microsoft distribuisce un (a suo dire) potente interprete di comandi e di script in cui l’esecuzione degli script è bloccata per default. Vabbè, la cosa si risolve creando (o modificando) la chiave di registro HKEY_Local_Machine\SOFTWARE\Microsoft\PowerShell\1\ShellIds\Microsoft.Powershell\ExecutionPolicy con valore Unrestricted. Benedetta Microsoft!

Ok, gli script ora sono eseguibili.

Veniamo allo scopo del test: creare uno script che prende una variabile data e la invia ad un server tramite HTTP POST (ovvero simulando la compilazione di un form) e recuperare la risposta del server.

Svolgimento in PERL:
$ua = LWP::UserAgent->new;
$req = (POST "http://pippo", ["campo1" => "valore1", "campo2" => "valore2"]);
$risposta = $ua->request($req);

Svolgimento in PowerShell:
[Reflection.Assembly]::LoadFile(’C:\WINDOWS\Microsoft.NET\Framework\v2.0.50727\System.Web.dll’) | out-null
$postData = ‘campo1=valore1&campo2=valore2′
$buffer = [text.encoding]::ascii.getbytes($postData)
[net.httpWebRequest] $req = [net.webRequest]::create(’http://pippo’)
$req.method = “POST”
$req.ContentType = “application/x-www-form-urlencoded”
$req.ContentLength = $buffer.length
$req.TimeOut = 5000
$reqst = $req.getRequestStream()
$reqst.write($buffer, 0, $buffer.length)
$reqst.flush()
$reqst.close()
[net.httpWebResponse] $res = $req.getResponse()
$resst = $res.getResponseStream()
$sr = new-object IO.StreamReader($resst)
$risposta = $sr.ReadToEnd()

E per fortuna che è una shell power!!!

…allora è meglio Microsoft!

Il titolo è volutamente provocatorio e l’antagonismo ideologico tra le major dell’informatica non è l’oggetto di questo post, che è un esercizio teorico basato su un fatto di cronaca.

Recentemente c’è stato un attacco coordinato proveniente dalla Cina contro il servizio di posta elettronica di Google. L’attacco sarebbe stato coordinato attraverso dei computer controllati tramite il protocollo Aurora, la cui analisi ne rivela la complessità e fa chiaramente capire che non è stato creato dal solito gruppo di smanettoni cantinari.

Immaginiamo di voler penetrare in un migliaio di account email di Google. Abbiamo sostanzialmente tre vie per farlo: o rubiamo le password agli utenti con vari sistemi (social engineering, accessi fisici ai loro computer, intercettazioni ambientali), o tentiamo di accedere utilizzando password generate più o meno casualmente, o troviamo un buco nella sicurezza dei sistemi di BigG.

Il primo sistema è rischioso, costoso e anche poco efficace, specialmente se le vittime dell’attacco sono preparate dal punto di vista informatico e utilizzano computer diversi per collegarsi. Senza contare che il crivello antispam di Google potrebbe eliminare i messaggi di phishing. Da ultimo, se lo spionaggio venisse scoperto potrebbe compromettere tutta l’operazione. No buono.

Tentare sistematicamente le password è fuori discussione per vari motivi. Innanzi tutto i sistemi di Google sono ben preparati per riconoscere e bloccare questi tentativi; inoltre, in caso di ripetuti tentativi di login non autorizzato, si corre il rischio che l’utente vittima dell’attacco venga avvisato dei tentativi da parte dei sistemi automatici del gestore. Anche se tutte queste limitazioni non esistessero, sarebbe comunque un tentativo che richiederebbe tempo e risorse. Per avere un’idea, utilizzando i soli caratteri scrivibili attraverso una tastiera USA modificati usando solamente il tasto maiuscola (per i tecnici: il set ASCII stampabile), con una password di 10 caratteri le combinazioni sarebbero 95^10. Con il set ASCII-esteso si aggiungono 128 caratteri e una password di 10 caratteri ha 223^10 combinazioni. Il tutto senza prendere in considerazione Unicode e il set di ideogrammi cinesi. Tutto quanto per un solo utente, i numeri devono essere moltiplicati per gli utenti da attaccare. Decisamente poco pratico.

La soluzione più praticabile sembrerebbe essere quella di trovare una falla nella protezione del sistema da attaccare, ben sapendo che, una volta trovata un’ipotetica vulnerabilità, il tempo per sfruttarla sarebbe veramente poco. Teniamo presente che non stiamo parlando di sprovveduti, ma di persone molto abili dal punto di vista informatico. Meglio ancora se si dispone di un basista all’interno di Google, anche se non siamo sicuri di poterlo sfruttare: si sa i tecnici parlano tra loro e discutono volentieri dei loro problemi con i colleghi; peccato che, come insegnavano gli Inglesi, loose lips sink ships. I tentativi possono continuare per dei mesi, ma l’attaccante ha dalla sua un numeroso esercito di computer sotto il suo controllo. Possiamo solo immaginare quale sia stata la sorpresa nello scoprire non già un problema di sicurezza, ma una backdoor collocata deliberatamente per permettere l’accesso alle forze dell’ordine americane. Et voilà! Ecco il “baco perfetto”: una backdoor di un sistema che deve esistere ex lege, non si potrebbe chiedere di meglio.

Vero? Falso? Impossibile dirlo per ora. Però non fatevi spedire password di altri sistemi su Gmail. Just in case…

Frammenti di FidoNet

La mia esperienza telematica inizia nel 1986 quando a Pavia eravamo un cinque o sei ad avere il modem: ci scrivevamo tra di noi sulle tre BBS della città e poi ci trovavamo la sera a bere una birra assieme.

Dalle BBS locali alla FidoNet il passo è stato breve e dalla fine di quell’anno è iniziata la mia avventura online, interrotta per un solo anno, il 1988, per il servizio di leva.

FidoNet è stata una palestra e una grande fonte di esperienza, ma soprattutto un posto dove ho trovato tantissimi amiche e amici. FidoNet aveva un sistema di messaggistica privata (la NetMail o Matrix) e uno di messaggistica pubblica tematica (la EchoMail, o le “aree echo“); più avanti aveva anche un sistema di distribuzione file. Una piccola Internet, insomma.

I messaggi di quel periodo sono per la quasi totalità spariti come lacrime nella pioggia. Qualcuno l’ho salvato e ho ritrovato quei file qualche giorno fa. Li ho catalogati alla meno peggio e li ho messi in linea qui. È una testimonianza frammentaria di quello che siamo stati, per far capire a chi non c’era che Internet per non è stata solamente la “versione 2.0″. La connessione è un po’ lenta perché quel server è su un’ADSL che sta facendo trasferimento dati inerenti il mio lavoro. Portate pazienza.

I DNS di Google

Google ha reso disponibile due server DNS utilizzabili liberamente da tutti, i cui IP sono 8.8.8.8 e 8.8.4.4

Ogni provider ha dei server DNS utilizzabili dai propri utenti, ci sono sempre stati, ma non hanno mai fatto notizia. Se Google ha due server DNS pubblici tutti ne parlano, se li ha PippoTel non se li fila nessuno: è la stampa, bellezza! Così tutti adesso si chiedono non solo perché Google abbia due server DNS pubblici, ma anche perché inviti la gente ad usarli.

Partiamo dall’inizio: un server DNS permette di tradurre un nome di host in un indirizzo IP; il nome di un host (www.hypertrek.info) è comprensibile dagli umani, mentre l’indirizzo IP (87.118.118.75) è comprensibile dalle macchine (e dai SysAdmin, che non rientrano in nessuna delle due categorie, ma è un altro discorso).

Quindi, se non avete configurato l’indirizzo di almeno un server DNS funzionante e raggiungibile, non andate molto lontano, se siete dei normali utenti della Rete.

Per come è strutturato, quanto il server DNS rilascia una risposta (ovvero una corrispondenza nome->IP) allega anche un dato chiamato TTL (time to live), che rappresenta la validità, in secondi, di quel dato, scaduta la quale il computer dovrà interrogare di nuovo il server DNS per risolvere il nome. Questo permette di ridurre il traffico di rete ed è il motivo per cui il vostro provider quando fate delle modifiche ad una zona DNS vi dice che ci vuole del tempo perché la modifica “si propaghi”. In realtà non c’è qualcosa che si propaga come un’onda d’urto, semplicemente devono scadere tutti i TTL memorizzati nei vari computer della Rete.

Il TTL è definito dal gestore della zona e varia da zona a zona: hypertrek.info ha i propri TTL che decido io, fantascienza.com i TTL che decide S* e così via.

Quanto sopra per chiarire alcuni concetti base del Domain Name System.

Ora la domanda che in molti si pongono: se io configuro i DNS di Google che dati fornisco a BigG? La risposta è: le macchine che il vostro computer contatta e la frequenza con cui lo fa (entro certi limiti).

Se configurate i DNS di Google non rivelate gli URL completi (protocollo + host + path) dei siti che andate a vedere, non rivelate le password, non rivelate dei contenuti. In buona sostanza, se voi scrivere ping www.microsoft.com dalla command line o se voi fate http://www.microsoft.com sul vostro bowser, per il DNS di Google sono la medesima cosa.

Secondo me, quello che interessa a BigG non sono tanto i siti che un Luigi Rosa (uno dei tanti Luigi Rosa di questa Terra) qualsiasi va a vedere, ma i “rapporti di forza” tra i vari nomi a dominio. Se io so che il mio DNS riceve 10 richieste al minuto di drpepper.com e 100 di fullers.co.uk capisco due cose: (a) il brand britannico di ale è dieci volte più famoso della bevanda immonda americana e (b) i miei utenti sanno bere bene.

Queste informazioni, se prese su un campione significativo di utenti possono essere molto utilis, specialmente se le si aggrega in vari modi (area geografica, periodo del giorno, della settimana, dell’anno…).

Ho fatto alcuni test di velocità dalla mia linea di casa (ADSL di British Telecom) facendo una query di www.hypertrek.info sul mio DNS locale e su quello di Google:

DNS locale DNS di Google
ms TTL ms TTL
Prima query 596 3600 169 3600
Seconda query 0 3560 69 3556

Dalla tabella si capiscono alcune cose:

  • il DNS di Google è effettivamente veloce, anche se, nel mio caso, si trova a 15 salti da casa
  • la prima query di un DNS dietro un’ADSL è necessariamente più lenta di una query di un DNS che ha la banda di Google
  • dalla seconda query fino alla scadenza del TTL un DNS locale è più veloce perché non impegna nessuna banda
  • Google non modifica i TTL “al ribasso” per forzare i client a chiedere i dati più spesso (e, quindi, avere una base statistica maggiore).

Questo servizio è senz’altro utile per casi di necessità o emergenza, anche per l’estrema facilità di memorizzazione degli IP. Personalmente, non utilizzerei un server DNS pubblico, ma ammetto che avere un DNS locale possa richiedere qualche tipo di conoscenza che non tutti hanno.

È bene ricordare che un’interruzione di servizio del DNS di Google potrebbe lasciare a piedi molti utenti in una botta sola. Se proprio si vuole utilizzare quel DNS, utilizzare un altro DNS diverso da 8.8.4.4 come secondario.

Chi cerca una terza alternativa tra un DNS locale e quello di Google puo valutare Open DNS.

Aggiunta del 5 Dicembre: come mi fa giustamente notare Markino e come rileva anche Stefano Quintarelli, l’utilizzo di DNS centralizzati, siano essi quelli di BigG o di OpenDNS, rallenta la fruizioni di contenuti distribuiti via CDN. Una ragione in più per utilizzare DNS locali o, comunque, prossimi al proprio host.

Thunderbird 3.0 RC2

L’altro ieri è uscita la Release Candidate 2 di Thunderbird 3.0.

Sto utilizzando Thunderbird 3.0 sotto Linux da qualche giorno con ottimi e soddisfacenti risultati. Come è accaduto per la 2.0, anche la RC della 3.0 è utilizzabile per il lavoro quotidiano, anche se credo sia meglio aspettare a darla a tutti gli utenti.

La directory dove Thunderbird registra i dati personali è cambiata. Questo permette di far convivere la versione 2 e la versione 3 senza interferenze reciproche, ma richiede un minimo di smanettamento, in attesa che venga rilasciata la versione definitiva che provvede alla migrazione del profilo. Le nuove directory dei profili sono queste:

Windows Vista, Windows 7 Users\<Utente>\AppData\Roaming\Thunderbird
Windows 2000, XP, 2003 Server Documents and Settings\<Utente>\Application Data\Thunderbird
Mac OS X ~/Library/Thunderbird
Linux e Unix ~/.thunderbird

Nel caso in cui venga migrato il profilo, la prima volta che veiene esguito Thunderbird parte un background la reindicizzazione dei messaggi. Sul mio Linux dove ho alcune decine di migliaia di messaggi, l’indicizzazione ha richiesto un paio d’ore, ma non ha interferito con la normale attività del programma. Dategli tempo all’inizio se, come me, avete un po’ di messaggi.

Le opzioni, le prestazioni e i report di ricerca dei messaggi sono nettamente migliorati, merito anche del nuovo motore di indicizzazione dei messaggi.

Alcuni plugin non funzionano ancora, altri sono obsoleti. Tra quelli che utilizzo, funzionano Mark All Read Button, Quote Colors, Remove Duplicate Messages (Alternate), Signature Switch e Toolbar Buttons; Enigmail è compatibile, ma nael mio caso ho dovuto reinstallarlo per far apparire l’interfaccia.  Non sono, invece, ancora compatibili Display Mail User Agent, Folderpane Tools, Mail Redirect, Quicktext, Xpunge. Avevo anche un plugin per il cambio veloce del dizionario, la cui funzione è presente anche in Toolbar Buttons. Aggiornamento del 11/12: Folderpane Tools può essere sostituito da Manually sort folders che permette di cambiare manualmente l’ordinamento sia degli account sia delle cartelle. Aggiornamento del 12/12: Quicktext è ora compatibile. Aggiornamento del 15/12: Display Mail User Agent è ora compatibile.

L’avvio con utenze multiple in IMAP è nettamente più veloce della versione precedente. Bisogna fare un po’ di abitudine alla nuova posizione dei pulsanti di risposta, anche se è possibile abilitare la vecchia toolbar attraverso l’assistente della migrazione che si trova nel menu di aiuto.

L’utilizzo dei tab all’inizio sembra un po’ inutile, ma dopo qualche ora si apprezza la nuova opzione di visualizzazione.

Un funzione che potrebbe essere utile è la possibilità di far apparire un reminder con un pulsante per sfogliare il disco quando vengono digitate alcune sequenze come attach, .doc e altre (personalizzabili). Questo dovrebbe servire a ricordare all’utente di allegare dei file.

L’aggiunta di una finestra richiamabile su comando con il log delle attività in corso e appena concluse è un’ottima idea che, finalmente, dovrebbe permettere di avere la risposta alla domanda «Ma cosa sta facendo Thunderbird?». Questa opzione si rivela subito utile durante la reindicizzaizone iniziale delle caselle, in quanto permette di controllare lo stato di avanzamento dell’indicizzaizone.

Da segnalare il fatto che, con alcuni feed RSS non è più possibile visualizzare il contenuto della pagina direttamente da Thunderbird, ma bisogna aprire il link. Devo ancora capire quale sia il nuovo discrimine che causa questo problema. Per esempio,vengono visualizzati correttamente i feed di BoingBoing, Darth Mojo, Engrish, ma non quelli della BBC, fark e Gizmodo.

L’impressione globale è che Thunderbird resti un buon client di email, specialmente se si utilizza il protocollo IMAP.

Aggiornamento del 10 dicembre: ieri è uscita la release 3.0 finale.

Quante informazioni state esponendo con un Copia-e-Incolla?

Inutile negare che alcuni programmi di Microsoft, se usati assieme, facilitino la vita di tutti i giorni in ufficio, del resto sono pensati per quello. Ma spesso può capitare che i programmi siano troppo solerti e che non ci si renda conto che quello che viene copiato e, soprattutto, incollato non è solamente il testo formattato che vediamo, ma anche alcune informazioni note con il termine tecnico di metadati e informazioni circa il nostro PC

Un cliente mi ha mandato una mail composta con Outlook Express in cui aveva fatto un copia e incolla di un testo creato con Word. Il sorgente HTML di una mail composta in questo modo può rivelare alcune informazioni che vogliamo restino private o che potrebbero essere utilizzate come elementi di social engineering per portare degli attacchi alla nostra organizzazione.

Di seguito mostro alcuni elementi che potrebbero essere contenuti in una mail inviata con il metodo appena descritto; ovviamente i dati veri sono stati omessi o modificati per proteggere l’innocente. Mi limito qui ad analizzare la parte HTML del messaggio, va da sé che non è l’unica fonte di informazioni che dovrebbero restare riservate, in quanto anche gli header del messaggio  potrebbero contenere informazioni preziose per i malintenzionati.

Subito dopo il tag TITLE c’è un tag BASE con questo contenuto: file:///C:/Documents and Settings/user/Desktop/pippo/Lettera pluto.htm che rivela il percorso completo del documento e dice già molte cose sul PC di chi lo manda. La stessa informazione è ripetuta varie volte all’interno del documento, specialmente se sono presenti delle immagini.

Di seguito due tag META indicano esattamente la versione di Word e del traduttore HTML utilizzati, informazione utili per attacchi mirati contro vulnerabilità specifiche di alcune versioni del software.

La parte più succosa è però il punto in cui sono inseriti i metadati del documento Word, quei dati che molte volte tradiscono la vera origine del documento o il tempo impiegato per redigerlo, ecco il contenuto dei metatadati con valori inventati:

 <o:DocumentProperties>
  <o:Author>Pippo</o:Author>
  <o:LastAuthor>Pluto</o:LastAuthor>
  <o:Revision>9</o:Revision>
  <o:TotalTime>429</o:TotalTime>
  <o:LastPrinted>2005-02-06T15:20:00Z</o:LastPrinted>
  <o:Created>2009-09-01T14:23:00Z</o:Created>
  <o:LastSaved>2009-09-01T16:00:00Z</o:LastSaved>
  <o:Pages>47</o:Pages>
  <o:Words>807</o:Words>
  <o:Characters>4096</o:Characters>
  <o:Company>A.C.M.E. S.p.A.</o:Company>
  <o:Lines>44</o:Lines>
  <o:Paragraphs>42</o:Paragraphs>
  <o:CharactersWithSpaces>6093</o:CharactersWithSpaces>
  <o:Version>9.6936</o:Version>
 </o:DocumentProperties>

Questo post non ha certo la pretesa di essere esaustivo in materia: non in tutte le mail sono presenti questi dati e magari potrebbero esserci altri dati in caso di documenti formattati diversamente o creati con programmi differenti. Un audit periodico sui dati che si spediscono involontariamente a terzi non farebbe male.

Gratis o a pagamento?

In questo periodo si sta riproponendo un tema ciclico del web: i contenuti devono essere gratis o a pagamento? In altre parole: è sostenibile un sito che si finanzia con la pubblicità?

Ne ha parlato Newsweek (It’s time to pony up di Daniel Lyons, sul numero del 3 agosto 2009, pagina 25) e ne parla Murdock che torna a riproporre la necessità di pagare per i contenuti dei siti che fanno capo alle sue proprietà.

Innanzi tutto bisogna fare una distinzione tra due grandi tipi di siti. Ci sono siti in cui il servizio offerto è eminentemente monodirezionale, ovvero l’utente si collega per ottenere un servizio; in questa categoria rientrano siti di prenotazione, di informazione giornalistica e di acquisto. L’altra tipologia è quella in cui l’utente che accede fornisce esso stesso un contenuto o collabora con il sito; esempi di questa categoria sono i social network, i giochi collettivi online e alcuni siti di citizen journalism.

Nel caso di un sito di fornitura di servizi monodirezionale potrebbe essere lecito far pagare per ottenere alcuni servizi, quando questi costituiscono un vero valore aggiunto. Non so fino a che punto l’accesso ad un sito che pubblica solamente notizie possa essere regolato dal pagamento di una tariffa; in questo caso ci vorrebbe un valore aggiunto da offrire a chi paga, ma si rischierebbe di tariffare per il valore aggiunto, trattando la notizia come un collaterale e allora tanto varrebbe tariffare per il solo valore aggiunto e utilizzare la notizia come traino per l’acquisto.

Un esempio di quanto appena scritto è flickr: l’accesso alle funzionalità principali del sito è gratuito e aperto a tutti; il pagamento dell’abbonamento di fatto è un corrispettivo per l’utilizzo di più banda e più spazio disco. Chi collabora al mantenimento dell’aspetto social del network può non pagare e chi non paga non è limitato in questo aspetto. Questo è, a mio modo di vedere, un comportamento equo perché chi contribuisce, di fatto, al mantenimento in vita del sito non deve pagare, in quanto è, seppur in minima parte, un utente che collabora con il sito stesso.

Non sono totalmente contrario ai servizi a pagamento, ma questi devono portare vantaggi tangibili. Per le società il sito è un veicolo di autopromozione, come la cartellonistica stradale, gli annunci pubblicitari sui media, eccetera. È vero: sono costi, ma far pagare per la fruizione di un messaggio pubblicitario (attenzione : la fruizione, non la produzione) è una bella chimera per chi vuol tagliare i costi e abbellire i rapporti trimestrali, ma una fesseria per il resto del mondo.

Addio 100344,447

Un altro pezzo di storia della telematica se ne va.

America OnLine ha staccato la spina di CompuServe, la prima vera rete telematica globale ad accesso commerciale.

Fino all’esplosione di Internet, CIS era la rete telematica globale dove ci si scambiavano messaggi privati, si accedeva a forum pubblici e si potevano guardare gli oggetti in vendita presso alcuni negozi online. Moltissime aziende americane avevano un recapito su CIS ed era, quindi, più facile contattarle per via telematica.

Un abbonamento a CIS non era esattamente a buon mercato, tantopiù che in Italia bisognava chiamare i nodi internazionali di Milano o Roma che andavano alla vertiginosa velocità massima di 2400 BPS, motivo per il quale in tutto il mondo CompuServe era noto anche come CI$.

L’esperienza non era interattiva come quella attuale, ma avveniva tramite un client che scaricava in cache messaggi e altri dati e si connetteva solamente dietro richiesta.

CIS e GEnie erano i due servizi commerciali online più grandi e diffusi prima di Internet, che in Italia hanno avuto come pari McLink., basato sul software scritto da Bo Arnklit.

Ovviamente a fianco a questi c’erano anche servizi non commerciali quali FidoNet, Sublink e altri, ma questa è un’altra storia.

Addio, quindi 100344,447, non ti usavo più da moltissimi anni, ma sei stato uno dei miei tanti indirizzi telematici dell’era pre-Internet.