Visualizzazioni Totali

TRA I PRIMI IN ITALIA A PARLARE DI BITCOIN (DAL 2012!): PER ESSERE SEMPRE AGGIORNATI SULLE NOVITA' TECNOLOGICHE DEL WEB SEGUITE LA PAGINA FACEBOOK (LINK A SINISTRA)

mercoledì 11 settembre 2019

Come Trovare Siti e Files Cancellati Da Internet: Archive.org e ParaZite

"Coloro che non ricordano la storia, sono condannati a ripeterla"

A metà anni 90, diverse migliaia, se non milioni di bot (spider) vennero immessi nella rete delle reti: internet. Il loro compito era quello di cercare automaticamente determinati materiali su internet (musica, video, immagini, pagine web, etc) e copiarli.
Pagina dopo pagina questi bot copiarono le informazioni reperite su dei computer siti in un garage di San Francisco. Una volta conclusa la copia dell'intera rete, a distanze regolari di tempo (qualche mese) ritornavano in funzione, scandagliando nuovamente la rete: siti aggiornati o altri nati da poco.
Ma cosa stavano facendo esattamente? Salvavano copie di internet, archiviandole.
Nei primi anni del 2000, questi bot avevano raccolto oltre 5 anni di copie: si stava formando quello che va sotto il nome di Internet Archive. Poi venne implementata la funzione "The Back Away Machine", grazie alla quale, inserendo l'indirizzo di una pagina web era possibile consultarne le copie sino al 1996 (con tutte le relative modifiche).
Del resto consultando una pagina web, noi teoricamente non possiamo mai sapere se il contenuto è stato aggiornato, cioè se la pagina è uguale all'originaria (a meno di salvare appunto la pagina su disco locale o farne uno screen). Tramite l'Internet Archive è invece possibile, visto che si può visionare una pagina web (del 2003 ad esempio) che ormai non esiste più. E lo stesso vale per files siti su internet ma poi cancellati (per qualche motivo). Prima di questo gigantesco archivio creato da Brewster Kahle non c'era nessun modo di "tornare" indietro nel tempo (un'istantanea temporanea di una pagina web è la cache di Google, visionabile dopo aver cercato un dato sito e schiacciato su "copia cache"). Nel 2002 erano indicizzate 10 miliardi di pagine (230 TeraByte di dati!) ed ogni mese ne venivano aggiunte un altro miliardo. Nel 2014 si parlava di 15 PetaByte (1000 TeraByte) di dati archiviati e il tutto è in continua evoluzione. Oggi, per rendere l'idea, sono presenti oltre 377 bilioni di pagine e quasi 10 milioni di libri. Tramite il progetto Open Library gestisce anche la più grande biblioteca del mondo, contenente, in linea di principio tutti i libri ovunque pubblicati in tutti i tempi, con oltre 23 milioni. Open Library offre anche agli utenti un catalogo di oltre 250.000 e-book contemporanei.
Anche sul Deep Web esiste(va) un archivio simile: andava sotto il nome sinistro di ParaZite.
Su quest'oscuro sito si poteva trovare praticamente di tutto (guide, files multimediali, video).
Tutto quello che per qualche motivo (di solito perchè illegale) era stato cancellato sul Clear Web era stato archiviato su questo sito (ormai down da un po' di tempo ma non è da escludere possa ritornare online, prima o poi). Se è vero che non ricordando la storia si è condannati a ripeterla, forse il problema risiede nel fatto che noi dimentichiamo la stessa. La questione è se abbiamo la possibilità di tornare indietro nel tempo per riscoprire quello che abbiamo dimenticato.
E' con Internet Archive è possibile.

Nessun commento:

Posta un commento