afasici papuasia | Essere cavia

Essere cavia

» modern days | 6 August 2014, 23:28 | ::

C’è in giro ancora qualche residuo di allarmismo su quello che Facebook fa o potrebbe fare con i dati degli utenti, o direttamente agli utenti.
Facebook potrebbe truccare un’elezione, dice Zittrain. E’ facilissimo inferire le tendenze politiche di qualcuno dalla mole di dati che produce usando facebook, a quel punto basterebbe lanciare qualche promemoria mirato in più sulle elezioni e cercare di mandare a votare coloro che è probabile che votino per la nostra parte.
Sembra abbastanza una cazzata, francamente, ma in contesti come gli Stati Uniti o la Gran Bretagna, dove a votare ci vanno in pochissimi ed è possibile che un advert su facebook faccia la differenza tra andare al seggio e non andarci, non è del tutto peregrino pensare che effettivamente facebook abbia anche questo potere.

In effetti il fatto di controllare l’universo informativo di una miliardata di persone apre possibilità infinite. Pur senza spingersi al punto di determinare direttamente l’esperienza delle persone, si può comunque ottenere molto dall’ osservazione prolungata delle loro abitudini e attività. Si possono, per esempio, fare un bel po’ di esperimenti interessanti, come quello, che qualcuno ha ritenuto antietico, di controllare che succede se nel newsfeed di qualcuno si eliminano i post “positivi” e si fanno comparire solo quelli deprimenti e negativi. Pare che gli individui tendano essi stessi a produrre post più negativi e deprimenti del solito. Questo dimostrerebbe che il contagio emozionale, documentato nelle relazioni faccia a faccia, possa avvenire anche a distanza, attraverso facebook, appunto. Il risultato dell’esperimento è un bell’ articolo su PNAS, e qualche turbamento in giro per internet. E’ interessante la reazione inorridita di molti quando la storia venne fuori, un paio di mesi fa. A quanto pare anni di manipolazioni e svendita dei dati personali degli utenti sono OK se fatte esclusivamente per trarne profitto, ma sono da condannare se invece si fanno per ragioni scientifiche.

Ovviamente esistono molti altri studi condotti manipolando le timeline degli utenti facebook. Il fatto è che l’acquario più grande del mondo è anche il pool di soggetti sperimentali più ampio della storia della scienza. Un miliardo di cavie pronte all’uso per esperimenti sociali di ogni tipo che sarebbe costosissimo e lunghissimo condurre in altro modo. Troppo facile e troppo utile perché si possa indugiare su questioni etiche.

Un po’ di tempo fa uscì questo articolo in cui veniva usato un campione di addirittura 253 milioni di utenti per esaminare la probabilità con cui una persona condivide un link a seconda del fatto che i suoi amici lo facciano o meno. L’esperimento era ancora più ingegnoso: la timeline di una parte dei 250 milioni di utenti veniva modificata in modo da non mostrare certi link condivisi dagli amici che, in condizioni normali, avrebbero dovuto apparire. I ricercatori poi isolavano coloro che condividevano comunque il link, segnalando che l’informazione li aveva raggiunti seguendo altre strade, dividendoli da quelli che invece ne venivano raggiunti solo grazie alla condivisione da parte degli amici su facebook. La proporzione delle condivisioni veniva analizzata in vari scenari, uno dei più interessanti quello in cui i contatti di ogni utente venivano divisi in legami forti e deboli, in base alla frequenza di commenti incrociati e conversazioni in chat, e veniva monitorata l’incidenza relativa dei contatti deboli nell’approvvigionamento di informazioni. Quanti dei link che vediamo e successivamente condividiamo esclusivamente grazie a Facebook arrivano da persone con cui interagiamo poco? L’articolo dice che sono molti, confermando il classico studio di Granovetter del 1973 sull’importanza dei weak ties.

Perché tutto ciò? L’esperimento serviva a confutare la teoria della filter bubble.

La vita nella bolla

Facebook e Google hanno molto in comune. Entrambi i sistemi determinano quali informazioni, tra tutte quelle indicizzate, l’utente vede o non vede ogni volta che effettua una ricerca, nel caso di google, o semplicemente apre l’homepage, nel caso di facebook. Pagerank è l’algoritmo con cui google indicizza i link in base alle keyword, Edgerank è quello che facebook usa per determinare quali sono gli amici influenti, ovvero quelli i cui contenuti saranno presenti con più frequenza nella nostra timeline. Se pagerank si basa sul numero link in entrata per stabilire l’autorevolezza di ogni pagina e sulle ricerche precedenti per customizzare i risultati delle ricerche, in edgerank la frequenza delle interazioni determinerà quali amici compaiono più spesso nella nostra timeline e il numero di amici di ognuno di loro determinerà chi compare prima, chi più sotto e chi non compare affatto.

La filosofa Gloria Origgi, in un articolo di qualche anno fa, si spinse a sostenere che gli algoritmi automatizzati di Google e di tutte le altre piattaforme di wisdom of crowd, come si amava dire ai tempi, svolgono il ruolo epistemico che una volta competeva alle istituzioni accademiche: quello di stabilire lo status, la posizione di ogni item nel corpus della produzione culturale. Dire, cioè, questo contenuto è più importante/migliore rispetto a quest’altro, che è a sua volta migliore di quest’altro ancora.
A svolgere questo ruolo, oggi, sono due algoritmi di popolarità che codificano una visione del mondo fondata su valori squisitamente americani che identificano la qualità, con la popolarità. E’ il punto di arrivo di un percorso che ha attraversato tutto il secolo scorso, con i media di massa che avevano iniziato a democratizzare il gatekeeping, allargando l’oligarchia preposta alla selezione dei contenuti dai soli accademici ai boss dei media con qualche influenza del pubblico tramite i vari sistemi di rilevazione delle opinioni. Oggi a questo processo partecipiamo tutti. Indirettamente, quando linkiamo un sito dal nostro blog, ad esempio, e direttamente, quando mettiamo mi piace e condividiamo qualcosa su facebook e twitter.

Qui nasce l’argomento della filter bubble: l’eccessiva customizzazione dei risultati di ricerca ci rinchiuderebbe in una bolla nella quale solo le informazioni con cui siamo già d’accordo passano e quelle che giungono dalla periferia, da amici non particolarmente stretti, o da siti non mainstream che non conosciamo, non ci vengono presentati. Quando Yochai Benkler, dieci anni fa, magnificava le virtù espansive di internet faceva l’esempio della Barbie. Se io cerco “Barbie doll” su google, scriveva nel suo la ricchezza delle reti, in cima alla lista di risultati compaiono negozi di bambole, ma anche siti che pongono il problema dei modelli di genere e criticano l’estetica della barbie bionda con gli occhioni, eccetera eccetera. Internet ci farebbe imbattere in contenuti imprevisti e sconosciuti ampliando i nostri orizzonti. Tutto al contrario di quello che, secondo i critici come Eli Pariser, succede oggi, a distanza di dieci anni. I filtri sempre più raffinati, la mole crescente di dati raccolta su di noi dalle piattaforme che usiamo, oggi ci garantiscono risultati di ricerca e entry nella timeline sempre più aderenti alle nostre esperienze precedenti, più rilevanti, secondo loro, ma contribuiscono a eliminare l’inatteso e l’ignoto dalla nostra navigazione. Il flaneur digitale potrebbe essere morto.

Lo studio di facebook serviva proprio per confutare questa teoria e dimostrava, secondo gli autori, che proprio dai weak ties – le persone con cui interagiamo di meno e che proprio per questo, si assume, più diverse da noi – arrivano quelle informazioni che non ci raggiungerebbero per altre vie: i siti femministi di Benkler, quelli che google nel frattempo non ci fa vedere più. E i legami deboli sono la grande maggioranza, se ognuno di quelli che usano facebook ha in media 200 contatti ma interagisce con costanza solo con una ventina di essi.

Quindi Facebook ci dice che ci dobbiamo fidare. Che la piattaforma, e i nostri numerosi contatti diversificati, garantiscono pluralismo e un approvvigionamento di informazioni ampio e eterogeneo.
L’hanno scoperto con un esperimento su Facebook.

commenti

Name
Email
http://
Message