Le ricerche personalizzate rischiano di deformare la realtà
In questo interessante articolo vengono esplorate alcune conseguenze della non-neutralità degli algoritmi di ricerca. Motori come Google tentano di presentare innanzitutto ciò che pensano possa essere il vero interesse dell’utente, in base a tutta una serie di parametri come il sesso, il luogo di dimora, le ricerche precedenti. Ad esempio “CAD” può indicare tanto un programma di disegno meccanico quanto il codice dell’amministrazione digitale. A seconda che la ricerca venga fatta da un avvocato o da un ingegnere i risultati saranno quindi profondamente diversi. Magari anche con soddisfazione dell’utente, che non perderà tempo con disegni e funzioni vettoraili per lui incomprensibili se sta cercando una legge, o viceversa. Questo però ha un impatto profondo sia sulla privacy, dato che, per tentare di indovinare i nostri interessi, tutto cio che siamo e facciamo deve essere memorizzato, sia sulla nostra visione del mondo, perchè rischiamo di vederlo attraverso il filtro delle nostre convinzioni. Se, ad esempio, ci siamo dichiarati contro i vaccini, ci verranno proposte principalmente pagine contrarie al loro uso, dandoci la percezione di un’unanimità o comunque maggioranza di vedute che in realtà non sussite.
http://www.internazionale.it/notizie/eli-pariser/2011/07/01/internet-nasconde-censura-filter-bubble