Chi pensa che i motori di ricerca consentano di esplorare «in toto » il cyberspazio del web, ebbene si sbaglia. Soltanto il 50% dei contenuti Internet viene rilevato

Chi pensa che i motori di ricerca consentano di esplorare «in toto » il cyberspazio del web, ebbene si sbaglia. Soltanto il 50% dei contenuti Internet viene rilevato nel corso delle ricerche. Il rimanente rimane invisibile, non raggiungibile. Ma non per questo inesistente. Nella Rete si trova una grande zona d´ombra inaccessibile ai vari Google, Yahoo, Msn e Altavista. Quando digitiamo sullo schermo una parola, il nome di una persona o una frase da cercare e abbiamo un numero limitato di recursività (qualche volta nullo), questo non significa che la risposta non esista. A rivelarlo è Albert Laszlo Parabasi, professore di Fisica dell´Università Notre Dame nell´Indiana, nonchè direttore del Center of Complex Network Research (Ccnr). è uno dei massimi teorici del web e nel suo ultimo libro, «Struttura e dinamiche della Rete», cerca di dare risposta alla complessa organizzazione di Internet. Internet a cipolla Il web, dunque, si presenta con una struttura a guscio, una specie di cipolla da sfogliare: la parte superiore facilmente raggiungibile e zone più interne difficili da penetrare. A meno che non si conoscano gli indirizzi diretti, i cosiddetti Url (Uniform resource locator): allora sarà lo stesso browser di navigazione come Explorer, Opera o Firefox, tanto per citare i più usati, a farci navigare all´interno delle pagine. «Ma la situazione, in termini di perdita dei dati, potrebbe peggiorare — spiega Gianroberto Casaleggio, a capo di casaleggio Associati, strategie di Rete, che cura il blog di Beppe Grillo —. Ogni anno almeno il 10% delle informazioni svanisce nel nulla, come inghiottito da un buco nero». Sono dati e contenuti web non più raggiungibili. E i motivi della scomparsa sono i più disparati. Semplicemente, il vecchio sito di riferimento cambia indirizzo e quello nuovo non è ancora stato rilevato dai motori; oppure sono gli stessi database, i portali governativi e aziendali, le pagine di intrattenimento a non riaggiornare i link presenti in milioni di pagine. I collegamenti cambiano continuamente in modo dinamico. E in questi casi ai cybernaviganti esce sullo schermo il messaggio sibillino «404 Not Found». Così Google nel 2004, proprio per colmare le proprie lacune, ha creato Google Scholar, un motore che effettua le ricerche tra le pubblicazioni (working-paper) universitarie e materiale accademico: come le tesi di laurea, normalmente seppellite in fondo al web. Non si tratta di novità. Per questo tipo di ricerche, infatti, esistevano già «Web of Science », della Thomson Scientific, e Scopus, dell´editore Elsevier. Rispetto a questi, perà, Scholar ha il vantaggio di essere gratuito. Ma nessuno dei tre è perfetto. Una ricerca svolta a fine 2005 da quattro bibliotecari dell´Università di Yale — Nisa Bakkalbasi, Kathleen Bauer, Janis Glover e Lei Wang — dimostra che non è facile stabilire quale sia la fonte migliore e che dipende «dalla materia e dall´anno di pubblicazione dell´articolo che si sta cercando». Ergo, per un´informazione completa vanno consultate tutte e tre. Portare a galla il profondo web è la ragione di vita di un´altra realtà Internet, il progetto OAIster. è un gioco di parole tra Oai (Open access iniziative), un´iniziativa internazionale per il libero accesso via Internet a testi accademici, e oyster, ostrica. «Trovare le perle» è il sottotitolo di questo sito, partito da un´iniziativa della biblioteca digitale dell´Università del Michigan e che raccoglie oggi l´adesione di 712 istituzioni di tutto il mondo. Per l´Italia vi partecipa, per ora, soltanto un pugno di università: Bologna, Napoli, Parma e Pisa. Ma a livello mondiale il progetto continua a ricevere adesioni, con un archivio di quasi 10 milioni di documenti. «Anche se OAIster è senza dubbio un motore di ricerca, non siamo esattamente conco rrenti di Google o Yahoo — spiega Kat Hagedorn, una delle responsabili del progetto —. Semmai, siamo complementari rispetto a loro. Cerchiamo quei documenti che gli altri motori di ricerca non trovano ». Così OAIster è una realtà di cui Google e Yahoo non possono non tenere conto. Ecco perchè entrambi verificano i suoi «metadati», cioè le informazioni relative a ciascun sito, che vengono poi indicizzate dai motori di ricerca e su cui si basano confronti e risultati finali. Il caso Seigenthaler Al buon ricercatore online non rimane, quindi, che rassegnarsi all´uso simultaneo di più motori. «Ecco perchè è bene controllarne più di uno — dice Gianroberto Casaleggio —, verificando, ovviamente, che la fonte di riferimento non sia la stessa, ottenuta duplicando un unico documento». Perchè i danni derivati da notizie errate, riprese in sequenza da più pagine, sono incalcolabili: in termini di disinformazione prima, e caduta dell´immagine poi, nel caso si tratti di riferimenti personali. Ne sa qualcosa, a proposito, John Seigenthaler, ex collaboratore di Robert Kennedy. Il caso è illuminante. Wikipedia, la maggiore enciclopedia online del mondo, lo aveva erroneamente inserito tra le persone coinvolte nell´assassinio del presidente degli Stati Uniti. Qualcuno aveva volutamente «postato» l´informazione calunniosa. Ebbene, Jonh Seigenthaler ha ottenuto l´azzeramento della voce da parte dei responsabili di Wikipedia. Ma non ha potuto fare nulla nei confronti di tutti i siti che avevano preso spunto dalla pseudo-notizia «originale». (Fonte: corriere della sera) ,

Condividi