Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2016  aprile 09 Sabato calendario

IL CARRO ARMATO, NELL’ALGORITMO DEL GOOGLE DI STATO


I ricercatori del Big Data Lab di Baidu, il principale motore di ricerca in lingua cinese, hanno sviluppato un algoritmo intelligente capace di prevedere la formazione di folle e assembramenti in luoghi specifici con un intento chiaro: «aiutare le autorità a controllare meglio le folle ed eventualmente a prevenire i rischi della calca». È un fatto che deve farci pensare.
Ci confrontiamo con l’esaltazione ideologica dei big data (raccolta e gestione di grandi quantità di dati che gli utenti rilasciano su piattaforme di social networking, siti di vendite e motori di ricerca) e del data mining (estrarre conoscenza dall’elaborazione di questa mole di dati) come soluzione per orientarci sia nel presente che nel futuro.
Ci muoviamo tra possibilità di incontrare risposte sempre più contestualmente adatta ai nostri quesiti – come utenti ad esempio, quando formuliamo domande su Google sempre più in linguaggio naturale – e una retorica della predittività – pensiamo alla moltiplicazione di analisi sul gradimento e sulle interazioni dei/con i politici su Facebook e Twitter per anticipare il consenso elettorale.
Oppure assistiamo a dibattiti relativi ai problemi di privacy degli utenti e allo sfruttamento dei dati da parte di imprese e governi. Tutti temi centrali e fortemente attuali che accentuano il versante culturale nell’interpretazione tenendo in poco conto la natura socio-tecnica del problema e le conseguenze politiche che questa comporta. Quello che in questo dibattito pubblico rappresenta una macchia cieca, che non vediamo di non vedere, è una realtà sottesa ai processi selettivi nell’ambiente connesso e alle decisioni che prendiamo attraverso l’utilizzo quotidiano di piattaforme e dispositivi software: è la realtà dell’algoritmo.
Gli algoritmi sono presenti nei diversi processi che compongono la nostra vita connessa e la nostra cultura perché sono al centro del software che utilizziamo per produrre oggetti culturali e prendere decisioni, per orientarci nella mole di informazioni generata da un’interazione continua, in cui le tecnologie nella loro interconnessione mediano percorsi conoscitivi e decisionali. Gli algoritmi hanno inoltre un ruolo essenziale sia nel diffondere questi oggetti culturali in rete che negli strumenti che utilizziamo per cercarli e recuperarli. E sono diventati essenziali per analizzare ed elaborare l’enorme quantità di dati generati dai social media. Dati che non sono unicamente il prodotto della mole crescente di contenuti generati dagli utenti ma che derivano anche dal tracciamento del loro agire in una rete che è diventata una piattaforma partecipativa che cresce ed evolve attraverso il suo uso. Gli algoritmi di personalizzazione, sempre più utilizzati oggi, modellano inoltre i contenuti cui accediamo tramite i nostri browser: dai suggerimenti di Netflix a quelli di Amazon, ai risultati di ricerca di Google, alle diverse pubblicità che ci inseguono lungo le pagine Internet che scorriamo. E vengono utilizzati in chiave predittiva per determinare il nostro futuro.
Come racconta Salvatore Iaconesi «ci dovrebbe far riflettere il fatto che siano molto pochi i soggetti in grado di raccogliere tanti dati e quindi di essere in grado di “prevedere” e, quindi di “controllare”. Perché si prevede per controllare, per sterzare, per pilotare, per far prevalere un futuro su un altro, per cambiare la percezione di quale sia il futuro».
Dobbiamo quindi interrogarci sui rischi connessi al fatto che player di mercato – come Google, Facebook, ecc. – stiano definendo sia gli spazi di libertà in cui muoverci online che un’ideologia della raccolta dei dati come soluzione per orientarci nel presente e nel futuro – tra possibilità di incontrare risposte sempre più adatte ai nostri quesiti e desideri. E ai rischi connessi al fatto che imprese e Stati utilizzino la dimensione predittiva e la sua retorica di utilità a fini di manipolazione e controllo.
Nel connubio tra Baidu e Cina abbiamo l’evidenza dello spettro di un “google di Stato”, capace non solo di filtrare conoscenza ed informazione ma, da oggi, di prevedere fisicamente i luoghi in cui potrebbe prodursi il dissenso, e impedire preventivamente assembramenti di protesta. Certo, come sostengono i ricercatori in uno studio che attende una review indipendente, l’algoritmo può lavorare in ottica di sicurezza pubblica, per evitare tragedie dovute alla costituzione inaspettata di formazione di grandi masse di persone. Ma sappiamo che il confine tra utilità e controllo si è molto assottigliato in un’epoca di ideologia dei Biga Data e che la sicurezza pubblica mostra immediatamente il suo lato più oscuro: il controllo delle masse, come ci ha insegnato Edward Snowden. La predittività si trasforma così inesorabilmente in dinamiche più o meno consistenti di controllo. E l’uso di algoritmi predittivi diventa in molti casi immediatamente un tema di diritti civili.