Dove guardano i mosaici di Ravenna?
Gli studiosi di storia dell’arte si sono sempre interrogati sulle ragioni per le quali i mosaici bizantini siano ricchi di personaggi ritratti con fattezze non realistiche, ma soprattutto con gli occhi fissi e sgranati, rivolti verso l’osservatore: alcuni sostengono che questi sguardi vogliano trasmettere l’idea che quelle donne e quegli uomini siano già arrivati alla mèta e, da un luogo senza tempo, ci guardino. Siano loro, a ben vedere, a guardare noi e non viceversa.
Come quei nostri antenati raffigurati nelle basiliche, nei mausolei, nei battisteri di Ravenna, anche gli algoritmi delle piattaforme digitali ci osservano mentre li utilizziamo e registrano non solo i comportamenti, ma anche le variazioni di questi ultimi per individuare nuove opportunità da cogliere così da restituire suggerimenti editoriali, commerciali e pubblicitari sempre più pertinenti e coinvolgenti.
Proprio per questo le piattaforme hanno bisogno di moli di dati tali da arricchire i propri “data-lake” e in questo modo aiutare gli algoritmi ad apprendere continuamente e sulla base di prospettive diverse e complementari: dagli interessi espressi nei confronti di profili e contenuti alle relazioni fra gli account, dalle reazioni dimostrate nei confronti dei messaggi pubblicitari al tempo trascorso a guardare video e live streaming. Di fronte a questo sguardo, talvolta, è dunque lecito, se non abbassare, distogliere il nostro. E guardare il cielo.
Nel corso degli ultimi due anni, due episodi hanno dimostrato come gli algoritmi di intelligenza artificiale applicati al mondo dei social media siano stati utilizzati per adempiere ad obblighi imposti dalla legge anche se con luci e ombre.
Nel provvedimento con il quale il Garante della Privacy italiano ha imposto a TikTok lo scorso 9 febbraio il blocco dei profili degli under 13 si fa esplicito riferimento all’opportunità di avvalersi dell’IA per comprendere l’età degli iscritti e decidere di inibire loro la partecipazione al social network: ne è derivato che dal 21 aprile sono stati più di 12 milioni e mezzo gli utenti italiani ai quali è stato chiesto di confermare di avere più di 13 anni per accedere alla piattaforma e sono stati quasi 550 mila gli utenti rimossi perché probabili under 13: circa 400 mila perché lo hanno dichiarato esplicitamente e 150 mila attraverso una combinazione di moderazione umana e strumenti di segnalazione implementati all’interno dell’app che si sono avvalsi dell’intelligenza artificiale.
L’analisi degli interessi desunti dalla visualizzazione dei contenuti e della rete dei collegamenti ha consentito tale intervento e dimostra, anche in termini numerici, il peso con il quale un software è intervenuto in una scelta delicata per i minori e strategica per lo sviluppo del social network.
Ancor più interessante è come sta cambiando l’uso degli algoritmi nella moderazione dei contenuti da parte di Facebook e nell’integrazione con l’attività manuale. Quindicimila sono infatti i manual checkers che, in tutto il mondo, supportano Facebook nella moderazione dei contenuti. Se il 95% del materiale improntato ad odio, violenza o fake news è stato rilevato grazie ai software di intelligenza artificiale, l’apporto umano resta dunque determinante nel valutare il materiale e deciderne la cancellazione, ma anche nell’identificare i casi dei quali gli algoritmi non riescono ad interpretare il significato.
Forse anche per questa componente manuale e dunque organizzativa, lo sprone continuo da parte delle istituzioni e dell’opinione pubblica verso un maggiore investimento da parte del social network non è superfluo, ma utile e appropriato.