Molti giganti della tecnologia ora devono scommettere rischiosamente sull’intelligenza artificiale a causa del coronavirus

La discussione di oggi riguarderà i lavoratori di Facebook e Google, i moderatori di contenuti che lavorano sulla pandemia ogni giorno. È una storia sui difficili compromessi e sulle azioni intraprese negli ultimi giorni che avranno un impatto significativo sulle imprese in futuro.

Quando arriviamo alla storia di ciò, la moderazione dei contenuti sui social network non era altro che un problema aziendale fatto entrare nella nudità e i nazisti e la comunità collassavano. Successivamente, divenne un problema legale e normativo. Le compagnie avevano l’obbligo legale di rimuovere la propaganda terroristica, l’imager di abusi sui minori e altre forme di contenuto. Dopo che servizi come Google e Facebook sono cresciuti, gli utenti si basano su miliardi, la moderazione dei contenuti diventa un problema su larga scala. Si pone la domanda ovvia su come si possano esaminare i milioni di post al giorno che vengono segnalati per la violazione.

L’unica soluzione, che penso sia quella di esternalizzare le società di consulenza di lavoro. Nel 2016, quando è stato rivelato il deficit di moderatori di contenuti, le aziende tecnologiche hanno assunto decine di migliaia di moderatori in tutto il mondo. Ciò ha creato un problema di privacy: quando i moderatori lavorano in casa, possono applicare restrizioni, controllo e dispositivo e accedere ai dati archiviati. Se funzionano per terze parti, esiste il rischio di perdita di dati.

Questa paura delle perdite di dati è stata forte quella volta. Per Facebook, in particolare, il contraccolpo elettorale post 2016 si era manifestato in parte a causa delle preoccupazioni sulla privacy: se il mondo avesse appreso che i dati venivano raccolti dagli account degli utenti, la fiducia nella società sarebbe precipitata precipitosamente. Questo è il motivo per cui i siti di moderazione dei contenuti in outsourcing per Facebook e YouTube sono stati progettati come stanze sicure. I dipendenti lavorano su piani di produzione che sono badge dentro e fuori. Hanno delle restrizioni nel portare qualsiasi dispositivo personale a meno che non scattino foto surrettizie o tentino di contrabbandare i dati. La scena è che, se qualcuno porta i telefoni sul piano di produzione, viene licenziato per questo. Molti lavoratori lamentano tali restrizioni, ma le aziende non sono state disposte a rilassarsi a causa della paura della perdita di dati di alto profilo.

Velocemente fino ad oggi, quando la pandemia si sta diffondendo in tutto il mondo alla velocità spaventosa, dobbiamo ancora lavorare come i moderatori, in caso contrario, l’utilizzo sarà chiaramente in aumento. Se continui a lavorare sul pavimento, molto probabilmente contribuisci alla diffusione della malattia. Il problema è che se li lasci lavorare da casa, inviti un disastro della privacy. Questo crea un dilemma.

Cosa fai se ti trovi al posto di Facebook? Fino a lunedì la risposta assomigliava molto agli affari come al solito. La scorsa settimana Sam Biddle ha interrotto questa storia in Intercept:

“Le discussioni dal forum interno dei dipendenti di Facebook, esaminate da The Intercept, rivelano uno stato di confusione, paura e risentimento, con molti lavoratori a contratto orario precariamente impiegati che affermano che, contrariamente alle loro dichiarazioni da Facebook, sono esclusi dai loro effettivi datori di lavoro di lavorare da a casa, nonostante la fattibilità tecnica e chiari benefici per la salute pubblica di farlo.

Le discussioni si concentrano sugli appaltatori di Facebook impiegati da Accenture e WiPro presso le strutture di Austin, in Texas e Mountain View, in California, tra cui almeno due uffici di Facebook. (A Mountain View, uno stato di emergenza locale è già stato dichiarato sul coronavirus.) L’Intercept ha visto messaggi di almeno sei appaltatori lamentarsi di non poter lavorare da casa e comunicato direttamente con altri due appaltatori sulla questione. Un dipendente di Accenture ha dichiarato a The Intercept che è stato detto all’intero team di oltre 20 appaltatori che non gli era permesso lavorare da casa per evitare l’infezione. “

Secondo le note di Biddle, Facebook stava già incoraggiando i dipendenti a lavorare da casa. Ha iniziato a informare i moderatori del contratto che non dovevano entrare in ufficio. Facebook pagherà in caso di interruzione. Ecco l’annuncio:

“Sia per i nostri dipendenti a tempo pieno che per la forza lavoro a contratto c’è un lavoro che non può essere svolto da casa per motivi di sicurezza, privacy e legali. Abbiamo preso precauzioni per proteggere i nostri lavoratori riducendo il numero di persone in un determinato ufficio, implementando il lavoro raccomandato da casa in tutto il mondo, diffondendo fisicamente le persone in un determinato ufficio e facendo pulizia aggiuntiva. Date le preoccupazioni in rapida evoluzione sulla salute pubblica, stiamo adottando ulteriori misure per proteggere i nostri team e lavoreremo con i nostri partner nel corso di questa settimana per inviare tutti i lavoratori a contratto che eseguono la revisione dei contenuti a casa, fino a nuovo avviso. Garantiremo che tutti i lavoratori siano pagati durante questo periodo “.

Annuncio simile è stato seguito da Google domenica. Questo è stato poi seguito da un annuncio congiunto di Facebook, Google, Linkedin, Microsoft, Reddit, Twitter e YouTube. Quindi, ora i moderatori hanno inviato a casa. Come viene moderata la roba? Facebook ha permesso ad alcuni moderatori che stanno lavorando a contenuti meno sensibili di lavorare da casa. Il lavoro più delicato viene trasferito ai dipendenti a tempo pieno. Ma ora le aziende iniziano a imparare di più sul sistema di apprendimento automatico nel tentativo di automatizzare la moderazione dei contenuti.

Per l’obiettivo a lungo termine, ogni social network deve affidare l’intelligenza artificiale. Tuttavia, come affermato da Google su questo punto di vista, il giorno in cui una cosa del genere sarebbe stata possibile era ancora piuttosto lontano. Eppure lunedì, la compagnia ha cambiato tono. Ecco cosa hanno detto i kastrenakes Jake a The Verge:

“YouTube farà più affidamento sull’intelligenza artificiale per moderare i video durante la pandemia di coronavirus, poiché molti dei suoi revisori umani vengono inviati a casa per limitare la diffusione del virus. Ciò significa che i video possono essere rimossi dal sito solo perché contrassegnati dall’IA come potenzialmente in violazione di una norma, mentre i video potrebbero normalmente essere indirizzati a un revisore umano per confermare che dovrebbero essere rimossi. […]

A causa della maggiore dipendenza dall’intelligenza artificiale, YouTube in pratica afferma che dobbiamo aspettarci che vengano commessi alcuni errori. È possibile che vengano rimossi altri video, “inclusi alcuni video che potrebbero non violare le norme”, scrive la società in un post sul blog. Altri contenuti non saranno promossi o mostrati nella ricerca e nei consigli fino a quando non saranno esaminati dagli umani.

YouTube afferma che in gran parte non produrrà avvertimenti – il che può portare a un divieto – per i contenuti che vengono eliminati dall’intelligenza artificiale (ad eccezione dei video che hanno una “grande fiducia” sono contro le sue norme). Come sempre, i creatori possono ancora fare appello a un video che è stato rimosso, ma YouTube avverte che questo processo verrà anche ritardato a causa della riduzione della moderazione umana “.

Lunedì sera, sia Facebook che Twitter hanno seguito l’esempio. Ecco il Paresh Dave in Reuters:

“Facebook ha anche affermato che la decisione di affidarsi maggiormente a strumenti automatizzati, che imparano a identificare materiale offensivo analizzando gli indizi digitali per gli aspetti comuni alle precedenti eliminazioni, ha dei limiti.

“Potremmo vedere tempi di risposta più lunghi e di conseguenza fare più errori”, ha detto.

Twitter ha anche affermato che aumenterebbe l’utilizzo di un’automazione simile, ma non vieterebbe gli utenti basati esclusivamente sull’applicazione automatizzata, a causa di problemi di precisione “.

Il risultato del primo giorno non è stato eccezionale, qui Josh Constine in TechCrunch:

“Sembra che Facebook abbia un bug nel suo filtro antispam di News Feed, impedendo agli URL di siti Web legittimi tra cui Medium, BuzzFeed e USA Today di essere condivisi come post o commenti. Il problema sta bloccando le condivisioni di alcuni contenuti correlati al coronavirus, mentre sono consentiti alcuni collegamenti non correlati, anche se non è chiaro che cosa esattamente o non stia attivando il filtro. Facebook ha cercato di contrastare la disinformazione legata allo scoppio, ma potrebbe essere diventato troppo zelante o avere riscontrato un errore tecnico. “

Facebook afferma che ciò non è dovuto al cambiamento nella moderazione dei contenuti. Nel frattempo, uno dei moderatori mi ha detto: “Stavamo lavorando con persone che erano state esposte, sicuramente”. Penso che si siano mossi troppo tardi e le azioni inizialmente intraprese fossero chiaramente insufficienti. “