|
La blogosfera
nel periodo dell’affidabilità
di
Simone Morgagni
Testo disponibile in formato PDF -
Download [84 KB]
1. Introduzione
• L’analisi
qui proposta si è sviluppata in seguito all’ultima discussione in linea
sul problema dell’affidabilità dei blog. Discussione che, in realtà, non
fa altro che riproporsi puntualmente da quando esiste la rete.
Una volta che si è creato il contenitore infatti occorre creare un
metodo valido per classificarne i contenuti: in internet questo non si è
ancora fatto. La nostra riflessione prende spunto da un avvenimento
piccolo, ma che ha trovato grande risonanza all’interno della blogosfera
italiana; un post di
Beppe Grillo basato su un documento prodotto dalla società che lo
assiste nella sua avventura sul web.
Chiariamo dal primo momento come questo saggio non si soffermerà sulle
caratteristiche tecniche che un eventuale algoritmo di calcolo del
rating dovrebbe sviluppare, quanto piuttosto su quale contributo ad esso
può fornire la sempre maggiore rete mondiale di blog, su cosa si intenda
effettivamente con il termine Affidabilità e sulla necessità stingente
di procedere e sviluppare la riflessione su questo tema al fine di
rendere lo sviluppo della rete più democratico e gestibile dagli utenti.
Tutti i contributi riportano sempre nome e il link dell’autore
originale. Nel caso qualcuno di questi ci fosse sfuggito verranno
aggiunti immediatamente in seguito a richiesta. Rendiamo altresì noto
come questo saggio non sia un prodotto definitivo, ma un canovaccio di
discussione creato per riassumere i termini della vicenda e far nascere
nei lettori il desiderio di migliorare tutte le singole parti del
documento stesso.
• La causa scatenante dell’ultima ondata di post sul tema
dell’affidabilità delle fonti in rete viene da un post di Beppe Grillo
che annuncia la morte dei media tradizionali, sostituiti nel suo
pensiero dal libero arbitrio della rete internet e dai blog dedicati
all’informazione. Grillo basa le sue affermazioni su un rapporto della
Casaleggio
Associati , società che lo assiste e consiglia per l’uso del web e
che propone un’equazione dalla semplicità disarmante (link alla fonte =
attendibilità della stessa) arrivando a sostenere che il weblog di
Grillo è maggiormente degno di fiducia del sito web di Repubblica in
quanto semplicemente capace di attirare un numero maggiore di
collegamenti dall’esterno. Continuando il ragionamento, il documento
arriva a considerare imminente la fine dei media tradizionali,
sostituiti dai weblog e dalla libera informazione prodotta in rete.
Ovviamente questa considerazione riveste un doppio ambito, quello
scientifico di ricerca e quello economico in quanto dallo stesso
documento di Casaleggio si evince una seconda equazione non meno
importante e cioè link alla fonte = attendibilità della stessa =
capacità virtuale di generare denaro. La posizione espressa da Grillo
pare evidentemente insostenibile ed incongruente in sé, ma ha generato
una lunga discussione che prosegue tuttora. Unendo a questo l’articolo
di Umberto Eco, apparso sull’ultimo numero de L’Espresso
, in cui il noto semiologo parla proprio del problema delle fonti in
rete e della problematicità di definirle l’affidabilità (In questo caso
Eco si riferisce in particolare a Wikipedia), si può parlare senza mezzi
termini dell’esistenza di una problematica sempre più sentita, che esce
dai confini della blogosfera per arrivare a interessare tutti coloro
che, nel bene e nel male, sono costretti a ricorrere all’uso della rete
a fini informativi o scientifici.
Il problema di base non è quindi da riferirsi ad una eventuale lotta per
il predominio dell’informazione tra vecchi e nuovi media, né il poter
stabilire una classifica migliore del blog più letto o del blogger più
bello, quanto il poter cominciare a pensare a come l’uso dei blog possa
rendere più comprensibile la rete, a come questa massa di utenti possa,
anche inconsciamente, migliorare la disponibilità delle fonti
rintracciabili in breve tempo. Il tutto si può riassumere nella seguente
affermazione: Le informazioni disponibili sulla rete Internet sono già
ampiamente oltre la soglia di guardia. Per cercare di perderne meno è
indispensabile stabilire dei criteri capaci di decimarle nel minor tempo
possibile mantenendo la scelta per quanto si può accurata.
Il nostro contributo tenderà proprio a proporre delle basi comuni da cui
partire.
2. Semiosfera e
Blogosfera
Al fine di
comprendere meglio il rapporto tra la cultura, la gestione della stessa,
la blogosfera e la rete internet riprenderò qui una distinzione già
fatta in
precedenza e cioè l’identità tra il concetto di semiosfera proposto
da Jurij Lotman e i reali sviluppi e le tendenze presenti sul web di
oggi.
Lotman considera la cultura umana come formata da una grande quantità di
linguaggi differenti, capaci di interagire tra loro tramite meccanismi
di derivazione biologica. In questa concezione della cultura,
contrariamente al pensiero dello stesso Eco, non abbiamo dunque un
insieme unico e definito nell’unità di tempo di nozioni e concetti,
quanto piuttosto un numero elevato di sottoinsiemi culturali capaci di
convivere, a volte separati, a volte entrando in relazione tra loro,
fino a compenetrarsi e fondersi. La costante interazione di questi
insiemi di segni forma la cultura all’interno della quale viviamo.
Prendendo per buona questa distinzione possiamo considerare la rete
Internet come una rappresentazione abbastanza fedele della stessa e
possiamo quindi procedere a dividerla in sottoinsiemi indipendenti
dotati di un proprio linguaggio ed interagenti con tutti gli altri
sistemi presenti. L’importanza di stabilire qui divisioni nette e
precise tra questi sistemi complessi non è rilevante. Non è importante
quindi stabilire con certezza matematica se si debba considerare insieme
autonomo la blogosfera in sé o se sia opportuno fare ulteriori divisioni
e categorizzazione. Questo perché appunto i sistemi sono in costante
modificazione, ma ancora di più perché per noi l’importante è stabilire
delle differenziazioni di base, chiare ed evidenti. Dire quindi che il
fenomeno dei blog utilizza un linguaggio differente per rapporto a
quello delle altre componenti Internet e considerarlo un sistema unico a
parte è già sufficiente per i nostri obiettivi.
Fissato questo punto di partenza comune e prima di prendere in
considerazione i modelli già esistenti di ranking e di categorizzazione
crediamo sia opportuno fare risaltare ulteriormente l’importanza della
discussione su questo tema, proponendo due risultati positivi che una
mobilitazione seria ed efficace potrebbe portarci. Come primo punto a
sostegno della nostra idea portiamo la constatazione che fino ad oggi,
in mancanza di uno standard comune di classificazione dei documenti in
rete, si sono succedute strategie diverse, ogni volta cadute
progressivamente sotto il controllo economico di qualche società. Così
come Yahoo! È divenuta una società quotata in borsa, lo stesso è stato
per Google e Technorati sembra seguire la medesima strada, come fa
presagire il sondaggio che ha recentemente proposto ai suoi utenti,
parlando di un servizio di base gratuito e futuri servizi a pagamento
per gli utenti. L’iniziativa privata è quindi ricaduta ogni volta in
considerazioni economiche che portano in qualche modo a modificare sia
lo spirito che le considerazioni che erano alla base dei progetti.
Puntualmente ci troviamo quindi con il rischio che le nostre ricerche
siano inquinate da modificazioni legate al fattore denaro, questo mentre
ogni volta di più ci troviamo legati alle stesse. Il pericolo è talmente
evidente che non vale la pena spenderci sopra altre parole.
In secondo luogo riteniamo che una corretta indicazione che possa venire
da questo tema possa anche aiutarci nello sviluppo del concetto di web
semantico, che altro non è se non il progetto più ambizioso di
classificazione dei contenuti in rete. Utilizzare la sempre maggiore
produzione di documenti pubblicati ogni giorno dai blog e la loro
classificazione sistematica e comune potrebbe infatti farci compiere un
grande passo verso la gestione razionale del materiale presente in rete.
Classificazione che non sarebbe più prodotto esclusivo di un calcolo
matematico, ma che vedrebbe convergere tecnologia e saper fare umano;
libertà del singolo e matematica applicata.
Per questi due motivi è fondamentale che una discussione come questa,
sui criteri di gestione dell’informazione risultante dai blog, abbia
tutto lo spazio possibile e veda convergere i contributi di individui
differenti per estrazione, conoscenze e capacità.
3. Technorati,
Google e Yahoo!
I tre grandi
passi che la classificazione di massa sulla rete ha compiuto sono legati
a tre società americane: Yahoo! In primis per gli anni novanta, Google
alle soglie del nuovo millennio, Technorati in seguito all’esplosione
del fenomeno dei blog.
Passeremo ora in rassegna brevemente i tre metodi proposti, cercando di
identificarne i punti deboli che ci portano a sostenere come essi non
siano un punto di arrivo, ma soltanto una traballante ed insufficiente
situazione di partenza di fronte alla nostra necessità di reperire
informazione in rete.
Yahoo! è un motore di ricerca di prima generazione, dispersivo, costoso
e soggettivo (Brin
& Page 1998) . L’evidenza di questo ragionamento è contenuta
nell’articolo che sta alla nascita di Google, pubblicato in rete
dall’università di Stanford 8 anni fa. Questo primo modello di motore di
ricerca funzionava infatti attraverso una scansione umana, che per
ragioni di possibilità limitate copriva e copre tutt’ora una limitata
parte della rete, quella considerata di maggiore interesse per il
pubblico. I risultati di questa scansione manuale sono tuttavia
necessariamente soggettivi in quanto prodotto di una scelta umana e sono
oltretutto estremamente costosi in termini di manutenzione e di
sviluppo. L’inserzione in un secondo tempo di meccanismi di ricerca
automatizzati funzionanti a parole chiave non ha migliorato di molto i
risultati per via del gran numero di risultati di qualità scadente che
essi propongono per via del rumore prodotto dalla rete (è facile infatti
ingannare questi meccanismi automatizzati inserendo codici e parole
all’interno dei documenti html per sviarli e catturare l’attenzione e la
prima pagina del ranking).
Proprio per ovviare a queste difficoltà Brin e Page crearono il sistema
Google che resta ancora oggi il più utilizzato motore di ricerca del
mondo.
Google funziona secondo un metodo completamente differente se visto in
rapporto a quelli precedenti. L’idea alla base del progetto era infatti
quella di trovare un modo per crescere con l’indicizzazione al pari
della crescita della rete e di utilizzare in maniera più efficiente gli
spazi di memoria disponibili ottenendo al contempo un miglioramento
significativo dei risultati proposti. Il sistema di Google si basa sul
page rank, ovvero sull’utilizzazione da parte del motore di ricerca di
tutti quei link prodotti dai singoli utenti della rete al fine di
stabilire l’importanza e la rilevanza delle singole pagine web. L’idea
si basa dunque su un presupposto di senso comune: “These maps allow
rapid calculation of a web page's PageRank", an objective measure of its
citation importance that corresponds well with people's subjective idea
of importance”1
(Page & Brin 1998). Google utilizza semplicemente il lavoro degli utenti
della rete per dare ordine ai documenti degli stessi e stabilisce
l’importanza delle pagine in base all’importanza soggettiva che già gli
utenti hanno dato ai documenti. Siamo passati in un campo di riflessione
diverso; il motore di ricerca ci fornisce un prodotto riflesso. Anche
Google ha però incontrato diverse difficoltà negli ultimi tempi, essendo
il suo un metodo facilmente influenzabile, non troppo diverso dalla
categorizzazione precedente. Sono infatti nate nel tempo pagine web il
cui solo scopo è quello di indicizzare il motore di ricerca verso
determinati siti, le cosiddette “Farms links”. La possibilità di
poter modificare i risultati in maniera così semplice ha portato ad
un’inflazione di link in rete, rintracciabile oggi anche nel mondo dei
blog. Col passare del tempo e, almeno in parte, come conseguenza diretta
di questo fenomeno, Google, ha apportato tre grandi modifiche al proprio
metodo di lavoro: una separazione delle competenze, un riequilibrio dei
valori dati al page rank e la possibilità per le aziende di acquistare i
risultati prodotti dal motore di ricerca.
• Per quanto concerne il primo punto la progressiva differenziazione di
Google in ambiti diversi mi pare parlare da sola. Si è proposta prima
una divisione in lingue, poi una che separi le immagini dai testi, una
che distingua i tipi di file da cercare ed ultimamente fioccano versioni
beta di motori di ricerca che derivano dal vecchio Google per dedicarsi
però ad un solo ambito (Google Scholar ad esempio, Google Maps, Google
Ride Finder o Google Ricerca Libri). Quindi è la stessa società che,
resasi conto del fenomeno che abbiamo appena espresso, sta cercando di
migliorare e settorializzare il proprio operare.
• In secondo luogo ci sono state più modifiche al progetto originale di
utilizzo del page ranking e oggi Google utilizza (non sappiamo
ufficialmente in che modo) un misto di parole chiave e dati recuperati
dai link. L’intenzione di incrociare due metodi di lavoro così
differenti deriva dall’evidente volontà di ridurre l’errore prodotto
dall’aumento di link in rete. Dividendo su più piattaforme diverse il
calcolo del ranking, l’errore viene drasticamente ridotto.
• Non bisogna inoltre scordare come Google sia un’azienda capace di
capitalizzare oltre 100 miliardi di dollari (138 a quando scrivo) e come
quindi abbia la necessità di produrre utili attraverso il suo operare.
In quest’ottica si leggono alcune delle nuove iniziative proposte
dall’azienda e nella stessa ottica la vendita di parole chiave tramite
il sistema “pay for click”. Oggi non è ancora tuttavia chiaro
quanto queste iniziative possano incidere sui risultati del motore di
ricerca. In Francia ad esempio http://voilà.fr,
il motore di ricerca di Wanadoo mette questi link sponsorizzati nella
prima pagina dei risultati, falsandoli in maniera palese, in Google non
si sa ancora con esattezza quanto essi incidano. Non mi pare tuttavia
fuori luogo manifestare il timore che essi incideranno in maniera sempre
maggiore sui risultati proposti; presto acquistare il giusto numero di
parole chiave potrebbe portare un sito web direttamente ai vertici della
classifica portandolo così a nascondere il naturale ranking prodotto
dalla rete e dal tempo.
Queste ultime tendenze, ci fanno pensare che il metodo proposto da
Google potrebbe non rivelarsi più così efficiente con il passare del
tempo ed inoltre, il predominio da esso esercitato sulle ricerche sul
web, non è in ogni caso un sinonimo di obiettività e una garanzia sulla
corretta gestione delle informazioni.
L’ultimo caso che ci apprestiamo ad analizzare è quello di Technorati,
il più recente progetto di classificazione, sia come novità concettuale
che come diffusione temporale.
Technorati infatti analizza il web grazie all’ausilio dei blogger,
grazie ai loro rimandi intertestuali, grazie ai link che essi producono
in continuazione pubblicando post, commenti e rimandando a post di blog
che sono soliti leggere. Secondo la filosofia di Technorati nel mondo
dei blog il link assume un valore ancora maggiore che nella
pubblicazione html tradizionale; il motore di ricerca usa allora questi
rimandi per ricostruire un senso di temporalità e di connettività propri
della conversazione umana. Technorati traccia i link e in base al numero
di questi stabilisce una classifica di rilevanza dei blog presenti in
rete, proponendo allo stesso tempo un’analisi continua della natura del
blog. Il meccanismo di aggiornamento automatico di Technorati mostra in
tempo reale quale sia l’argomento di maggior importanza nella
blogosfera, mostra su cosa si stia discutendo in rete e cosa potrebbe
nascere in prospettiva. Le difficoltà principali di questo sistema
risiedono nella sua non-inclusività e in un semplicismo deterministico
che deriva dai risultati. Infatti Technorati funziona solamente per
inclusione e non traccia spontaneamente i contenuti che non vi giungono
per esplicita richiesta dell’autore. Questa scelta se da un lato
permette di ottimizzare le risorse e di concentrarsi su quella parte di
blogosfera più attiva, esclude del resto tutti coloro che per qualsiasi
plausibile ragione non sono giunti a divenire parte del terreno
setacciato da Technorati e quindi ogni risultato potrebbe essere falsato
in principio. Secondariamente il metodo sviluppato non produce alcuna
distinzione tra i link che vengono prodotti, tutti quanti contribuiscono
allo stesso modo a formare una classifica generale che in verità è una
classifica priva di reali valori da estrarre in maniera diretta;
possiamo solo evincerne il numero di link presenti e il rapporto con gli
altri blog. Senza azzardare ulteriori ragionamenti giustificati dai dati
in sé. A questi due difetti crediamo tuttavia il sistema di Technorati
affianchi dati di grande valore, come la possibilità di restare
aggiornati su determinati argomenti in tempo quasi reale e l’utilizzo
limitato delle tags per gestire la grande quantità di dati giornalmente
prodotta. Technorati sembra dunque prestarsi maggiormente ad un uso
esperto e non immediato; capace di fornire notizie estremamente precise
e utili, ma di trarre in inganno, come l’ultimo rapporto
Casaleggio fa intendere.
4.
Discriminazione di termini: Affidabilità, Influenza, Visibilità
Fondamentale
diviene a questo punto entrare nel novero della questione, discriminando
il termine fondamentale attorno al quale avviene tutta la discussione:
Grillo e Casaleggio utilizzano un termine molto generico parlando di
Attendibilità. Può questo termine rappresentare e risolvere in
maniera soddisfacente la richiesta di classificazione di cui esponiamo
la necessità?
L’intera discussione, per come la si può evincere dal rapporto
Casaleggio, si basa su un unico fattore, la credibilità del blog
d’informazione e, proprio per dimostrare la tesi dell’obsolescenza dei
vecchi media al confronto dei blog, viene utilizzato il metodo del primo
Google per mostrare come i blog, avendo un numero maggiore di link
rispetto ai siti tradizionali, dispongano di un pubblico maggiore e di
una attendibilità informativa superiore rispetto ai siti di molti
quotidiani online. L’intera ricerca si basa sui dati di Technorati.
Questi dati tuttavia per un sito tradizionale non sono affidabili per i
motivi che riportavamo sopra; perché Technorati è una classifica non
inclusiva e centrata sui blog e perché al contrario dei blog i siti dei
principali quotidiani tendono ad essere testi chiusi in sé stessi e a
ridurre i link che inviano, e di conseguenza che ricevono, all’esterno.
Il ragionamento quindi è basato su due errori fondamentali; si basa in
principio su dei dati che sono incompleti ed allarga la loro
settorializzazione all’intera sfera del web. In secondo luogo c’è
l’evidente salto logico di presentare come indice di Attendibilità dei
link che nella loro natura non contengono alcun giudizio di valore. In
base a questi due punti, l’intero rapporto Casaleggio perde un qualsiasi
valore scientifico, avendo trascurato anche le variabili più semplici
del problema all’interno della propria analisi.
Il termine Attendibilità che viene utilizzato ci lascia inoltre
molto perplessi e ci ha spinto a riprendere una distinzione fatta da
Maurizio Goetz che preferiva scomporre il termine in tre differenti
fattori interagenti: Affidabilità, Influenza, Visibilità.
5. Affidabilità
Il punto più
controverso della questione è sicuramente il giungere a stabilire cosa
sia e come si possa eventualmente identificare una presunta affidabilità
della fonte di informazione in rete. L’affidabilità come la intendiamo
noi è un’affidabilità a priori rispetto al singolo post, una sorta di
giudizio che la rete ha espresso sulla fonte nel corso del tempo e che è
necessario discriminare dall’ultimo post pubblicato, sempre in grado di
modificare questa opinione attraverso i propri contenuti. Riguardo la
natura e l’affidabilità di un blog cercheremo ora di sviluppare e
migliorare, grazie alle critiche ed ai giudizi che sono giunti dalla
rete, il documento pubblicato la
settimana scorsa .
Proponevamo infatti di partire non dal rapporto Casaleggio e non dal
prodotto di page ranking cui Google ci ha abituato, quanto da una
considerazione di carattere più generale ripresa dal funzionamento del
testo secondo la teoria semiotica di Umberto Eco. Il principio base da
cui il nostro ragionamento può partire è proprio anche del senso comune
ovvero “Un testo in principio non è affidabile per nessun lettore”.
Questa considerazione ci permette di svilupparne due assiomi; un testo
diviene quindi affidabile quando dimostra di esserlo oppure quando
l’autore del testo è da noi riconosciuto come tale e il testo conferma
solamente la nostra opinione. Alla prima lettura di un testo non abbiamo
nessuna motivazione dunque per riporre una qualche fiducia in quanto
leggiamo. Se non conosciamo l’autore stabiliamo un legame fiduciario con
il testo grazie alle caratteristiche di quest’ultimo e dunque grazie ai
rimandi testuali ed intertestuali che ci possono fare evincere il reale
valore del testo; grazie ad una continua non-contraddittorietà.
Stabiliamo qui anche una seconda importante base del nostro
ragionamento: non possiamo costruire un legame fiduciario con tutti i
testi che leggiamo perché questo sarebbe uno spreco di risorse
intellettive immane. In base a questa seconda considerazione si spiega
il nascere di fonti ritenute affidabili e che, in qualche modo,
garantiscono esse stesse per l’affidabilità dei documenti prodotti. In
questa categoria possiamo inserire tutti coloro che producono
informazione tradizionale; destinata ad essere creduta vera in principio
proprio per il ruolo istituzionale che questi organismi hanno assunto.
In questo secondo caso c’è solo un controllo a posteriori del testo
prodotto e ogni volta l’affidabilità che si era presupposta viene
confermata o smentita.
Quella appena proposta è una differenza fondamentale tra vecchi e nuovi
media, è la scomparsa del ruolo dell’editore nel mondo della rete e la
conseguente crisi di fiducia che ne deriva; chi ci garantisce la verità
e il valore di un testo in queste condizioni? L’unica soluzione che per
ora pare presentarsi come valida è che sia la stessa rete a creare e
garantire attraverso un’opera costante di feedback il valore dei testi
che vi vengono pubblicati. Necessità nata proprio perché ogni testo al
principio non garantisce valori che, nel bene e nel male, sono ormai
standard nel mondo mediatico tradizionale.
Partendo dal presupposto che il blog, come ogni altro documento in linea
sia un testo a tutti gli effetti possiamo cercare di identificare quali
siano i fattori su cui essi maggiormente si basano rispetto ai testi
informativi tradizionali. Quali sono quindi le differenze sostanziali
tra un post ed un articolo cartaceo trattanti lo stesso argomento?
All’interno della nostra ottica questi fattori sono due che chiameremo
fattore Intertestualità pura e fattore Tempo, volendo
intendere con il primo il rimando costante che il testo fa alla rete e
la rete fa al testo (molto maggiore che nei media tradizionali) e con il
secondo lo sviluppo che il blog ha avuto e la storia che è stato capace
di creare
2.
Potremmo quindi cercare di stabilire dei criteri base di affidabilità
attraverso l’analisi comparata di questi due fattori.
Il nostro lavoro è partito con la proposta di quattro criteri base che
possano essere la base per un nuovo tipo di determinazione
dell’affidabilità capace di superare il concetto di ranking puro che
viene utilizzato oggi.
Ricordiamo come le quattro caratteristiche sotto riportate debbano
essere interagenti tra loro per poter dimostrare la loro utilità; non è
possibile fare un calcolo efficace considerandone solo una parte.
• Inserire la connotazione temporale all’interno del calcolo dei link
esterni che provengono al blog oggetto dell’analisi. Con questo
intendiamo come un singolo link non vada contato, ma come sia più
corretto contare in scala esponenziale il numero di rimandi che giungono
al nostro blog da una pagina esterna nell’unità di tempo. Un link
ripetuto puntualmente all’interno di un periodo dato (ad esempio un
mese) ha sicuramente un valore diverso da un link effettuato una volta
soltanto a scopo di critica. Proponiamo questa prima modifica perché
oltre una soglia minima all’interno della quale ognuno di noi cita una
fonte da lui non condivisa al solo scopo di criticarla, si ha tendenza a
continuare a citare solamente le fonti ritenute più interessanti ed
attendibili. Proporre quindi una equazione di calcolo che aggiunga il
fattore temporale avrebbe effetti simili all’esempio che ora proponiamo.
All’interno di questa discussione noi, come credo tutti gli altri
blogger, abbiamo citato il rapporto Casaleggio per criticarlo,
aumentandone al contempo Technorati e Google Rank, ma se il calcolo
fosse stato ripetuto e avesse avuto come base i 30 giorni, non avremmo
dato segno di considerare nemmeno il rapporto; non gli avremmo
trasferito affidabilità. Proporre quindi la base mensile e il numero di
link al blog superiori ad 1, pena l’esclusione dal conteggio, ci
permetterebbe di raggiungere una realtà molto più vicina al pensiero
degli autori dei blog riguardo il giudizio espresso sul testo linkato.
Abbiamo poi proposto la scala esponenziale con esclusione del primo
collegamento perché se una fonte viene da noi citata con allarmante
regolarità significa che la riteniamo fondamentalmente affidabile e
avremmo risultati non dissimili dalla simulazione effettuata qui sotto
(esclusivamente esemplificativa):
1 link in 30 giorni (nessuna modifica del ranking)
2 link in 30 giorni (valore 1 del ranking)
5 link in 30 giorni (valore 10 del ranking)
10 link in 30 giorni (valore 50 del ranking)
30 link in 30 giorni (valore 150 del ranking)
• Stabilire un criterio di importanza relativa tra i differenti tipi di
link. I link di un blog sono infatti di quattro tipi diversi: link da
blogroll, link in corpo di post, link di commento e link di scambio.
Proporrei di escludere dal conto tutti i link di scambio più o meno
obbligatorio creati da molti utenti e da molte piattaforme, perché essi
sono link che non possono e non devono in alcun modo incidere sul nostro
calcolo, perché non farebbero altro che falsarlo. le categorie
dovrebbero essere poste in ordine di importanza decrescente:
link di blogroll (significa che l’autore del blog consiglia
esplicitamente la lettura del testo linkato, dandogli un imprimatur
chiaro ed evidente, quasi a prescindere dai contenuti che, di volta in
volta possono essere esposti).
link in corpo di testo (significa che l’autore del blog consiglia
la lettura del testo linkato con preciso riferimento ad un post).
link di commento (il link presente in ogni commento manifesta la
capacità dell’autore a confrontarsi con il resto della blogosfera
attraverso strumenti collettivi, adeguati al mezzo e nel rispetto della
netiquette).
Questo accorgimento ci permetterebbe di dare valore diverso a link che
in effetti hanno un diverso valore, mostrando tre capacità diverse
richieste ad un blogger, l’affidabilità a lungo termine, quella e breve
e la capacità di confronto. Inoltre questo metodo ridurrebbe l’errore
relativo prodotto nel tempo dagli attuali metodi di rating, mostrando
maggiormente l’effettiva volontà dei singoli autori nel donare parte
della propria acquisita affidabilità ai collegamenti effettuati.
Ricordiamo sempre come il punto uno sia sempre compresente e quindi come
il calcolo sia complesso, inserito in un contesto temporale e con
l’esclusione del primo link creato.
• Riduzione immediata e netta di tutti i link automatici prodotti dalle
reti e dagli utenti non rispondenti ad effettivi criteri di valore e per
questo esclusi dal punto precedente. Tutti i link che sono il prodotto
obbligatorio di molte aggregazioni, tutti i link che le piattaforme
obbligano ad avere, sono destinati a falsare il rating e quindi devono
essere, per quanto possibile eliminati, in quanto non risultanti da
un’effettiva volontà dell’autore o risultanti da una sua volontà che
nulla ha a che vedere con l’affidabilità dei testi proposti.
Questo è il punto di più difficile realizzazione, come d’altronde
possiamo vedere anche nella classica difficoltà di stabilire
l’importanza dei testi accademici per via delle amicizie e delle
citazioni fasulle, ma resta un obiettivo da perseguire senza sosta fino
a dove possibile.
• Inserire un meccanismo di democratizzazione del rating che impedisca
che le fonti maggiori oscurino completamente quelle più giovani
storicamente. Un secondo elemento temporale va inserito per evitare che
i blog più frequentati e quindi dotati di maggiori link e commenti
possano oscurare completamente i blog nati da un tempo minore, ma non
per questo meno importanti in termini di propositività o di capacità di
innovazione. Sarebbe opportuno quindi poter considerare nel calcolo
anche un rapporto tra visite e link riportati per i blog nati entro un
determinato lasso di tempo (ad esempio gli ultimi sei mesi). Un numero
alto di link guadagnati in rapporto alle poche visite, unito ai tre
punti precedenti, potrebbe lasciare spazio aperto verso i piani alti
della classifica anche ai nuovi utenti nel caso essi siano
particolarmente dotati ed apprezzati. Questo perché, anche in rete, non
sempre l’esperienza è sinonimo di competenza.
In breve la nostra proposta non fa altro che apportare modifiche
all’attuale concetto di ranking, diminuendo l’importanza in valore
assoluto del numero di link creati e trasferendo una parte del controllo
a valori soggettivi, ma stabiliti a priori e comuni per tutta la
blogosfera. Un grande numero di link non sarebbe più garanzia di
pertinenza, un buon numero di link, ripetuti nel tempo e posizionati nel
posto giusto invece farebbe la differenza. Dividendo inoltre il calcolo
su quattro fattori invece che su uno solo l’errore relativo verrebbe
chiaramente a ridursi e le risposte che ci verrebbero proposte sarebbero
più rispondenti ai criteri della nostra ricerca. Partire dall’attuale
schema di calcolo di Google (rating & parole chiave, i tags) e
modificandolo con questi accorgimenti potrebbe avere un risultato più
rispondente al criterio di affidabilità della fonte che cerchiamo.
6. Influenza
All’interno
della divisione del termine originario attendibilità, l’influenza
di un blog altro non è che il risultato potenziale che un post di un
determinato autore potrebbe avere sull’insieme della rete. Quante
modifiche potrebbe apportare un singolo post? E in base a quali criteri
avvengono queste modifiche?
In linea di massima l’influenza di un blog dipende più dalla rete di
rapporti che l’autore è stato in grado di creare nel corso del tempo che
dal reale valore dei contenuti che potrebbe proporre. Un blogger dotato
di una solida rete di relazioni sarà sicuramente in grado di garantire
ai propri post una risonanza maggiore all’interno della blogosfera e,
ovviamente, avrà più possibilità di scatenare discussioni e apportare
modifiche sostanziali all’ambiente. Come proponevamo
qualche giorno addietro , riprendiamo l’esempio del post di Grillo
che ha scatenato quest’ultima discussione. A prescindere dal reale
valore dei contenuti espressi Grillo ha ottenuto più link e commenti,
più audience se vogliamo, di tutto il resto della discussione; Grillo ha
un’influenza maggiore di tutti i blogger che in seguito hanno trattato
il problema. Per dare un’idea indicativa dell’influenza di un blog
proponiamo di calcolare il numero di blogger attivi che seguono un
determinato autore. Se io avessi 10.000 lettori giornalieri di cui uno
solo attivo nel riproporre sul suo blog un ragionamento o un post
derivanti dal mio, avrei un’influenza minore rispetto ad un altro
blogger che potesse avere solo 1.000 lettori, ma tutti desiderosi di
riprendere e rilanciare i suoi post sulle loro pagine personali. Questo
avviene perché la rete opera in regime di syndication e questa agisce su
fattori esponenziali di riproduzione; un numero maggiore di post, anche
in pagine minori, garantisce al 99,9% un numero maggiore di contatti
rispetto ad un numero minore di post su pagine di media grandezza.
Cercando di esprimere in maniera empirica questo valore, potremmo
tentare di incrociare due valori distinti: il numero di collegamenti in
corpo di testo verso un determinato blog e l’eventuale presenza
all’interno dei commenti nel blog d’origine del creatore del link. Si
tratterebbe quindi di cercare un mio link nei commenti di Grillo e poi
cercare un mio post in cui lo riprendo e lo linko; se ciò avviene più
volte nell’unità di tempo, significa che io sono un lettore attivo del
suo blog e gli garantisco quindi anche tutto il mio pubblico. Maggiore è
il numero di lettori attivi, maggiore sarà l’influenza del blog in
questione
7. Visibilità
L’ultimo
parametro che deriva dall’esplosione del termine Attendibilità è
secondo noi la visibilità di un blog all’interno della blogosfera.
Termine non troppo distante dal precedente di Influenza, di cui è
in realtà l’attualizzazione della potenza.
Con visibilità intendiamo cercare di identificare quale parte di
blogosfera possa virtualmente giungere a conoscenza dei post pubblicati
su un determinato blog. La visibilità è un termine estremamente
aleatorio e per questo potrebbe risultare utile calcolarla sui singoli
post come somma delle visite ottenute e come somma delle visite ottenute
in seconda battuta dai blog che hanno linkato un determinato post. La
somma di questi due valori ci da il valore attuale delle persone che
hanno seguito un determinato ragionamento. Una volta ottenuti questi
valori si potrebbe metterli in relazione con il numero di post
pubblicati. Otterremmo un grafico con il numero di visitatori per
rapporto al post e avremmo anche un’idea dello sviluppo del blog nel
corso del tempo. Ad un aumento di visitatori e a un aumento di
visitatori per argomento (incrociando i risultati con le tags pubblicate
e confrontandoli con quelli del passato) corrisponderebbe un secondo
parametro atto a garantire l’affidabilità della fonte, ad una
diminuzione potrebbe stare una non affidabilità su certi argomenti o nel
peggiore dai casi, un perdita di reputazione e di valore dell’intero
blog.
8. Conclusioni:
valutazioni incrociate
Si tratta in
linea di massima quindi di mettere in rapporto tra loro il numero
maggiore di variabili possibile al fine di ottenere i migliori risultati
in termini di chiarezza e perspicuità.
Tutto ciò è sempre più indispensabile nell’ottica di un web sempre più
fuori dal controllo del singolo, sempre più ricco di documenti che
tendono a perdere la loro rilevanza in mezzo alla massa di rumore che
viene giornalmente prodotto.
Se i link da soli evidentemente non bastano, potrebbe essere il caso di
inserire nel calcolo del rating il feedback che la rete sa dare, le
correzioni che essa sa apportare, gestendosi in maniera autonoma.
Un primo passo verso il web semantico?
Note
1.Trad:
Queste mappe permettono un rapido calcolo della classifica delle pagine
web, una misura oggettiva dell’importanza tramite le citazioni che
corrisponde bene all’idea soggettiva di importanza degli utenti
2.
Facciamo
notare come nei testi prodotti dai media tradizionali
questi due fattori siano secondari, perché i messaggi prodotti paiono
essere sempre scorporati dal media in sé e dal contesto, come fuori dal
tempo e secondariamente perché i media tradizionali, per ovvi motivi
economici tendono a non fare rimandi a concorrenti diretti.
Bibliografia
Bertrand Denis (2000)
Précis de sémiotique littéraire, Nathan, Paris
Brin Sergey & Page Larry (1998) The Anatomy of a Large-Scale
Hypertextual Web Search Engine, in
http://www-db.stanford.edu/~backrub/google.htm
Cameron Marlow (2004) Audience, Structure and Authority in the Weblog
community, in
http://web.media.mit.edu/%7Ecameron/cv/pubs/04-01.pdf
Eco Umberto (1975) Trattato di semiotica generale, Bompiani, Milano
Eco Umberto (1979) Lector in fabula, Bompiani, Milano
Eco Umberto (1990) I limiti dell'interpretazione, Bompiani, Milano
Eco Umberto (1994) Sei passeggiate nei boschi narrativi, Bompiani,
Milano
Lotman, Jurij (1985) La semiosfera, Marsilio, Venezia
Lotman, Jurij (1993) Kul'tura i Vzryv, Gnosis, Moskva (trad. It. (1993)
La cultura e l'esplosione. Prevedibilità e imprevedibilità, Feltrinelli,
Milano
Lotman, Jurij (1998) Il girotondo delle muse. Saggi sulla semiotica
delle arti e della rappresentazione, Moretti & Vitali, Bergamo
Van House Nancy (2004) Weblogs: Credibility and Collaboration in an
Online World, in:
http://www.sims.berkeley.edu/%7Evanhouse/Van%2520House%2520trust%2520workshop.pdf
Simone Morgagni, 22 gennaio
2006
|
|