Rider, schiavi dell’algoritmo: ecco come funziona

Governo Meloni, il Reddito di cittadinanza è la prima grana
26 Ottobre 2022
A cosa serve un festival di cinema
28 Ottobre 2022
Governo Meloni, il Reddito di cittadinanza è la prima grana
26 Ottobre 2022
A cosa serve un festival di cinema
28 Ottobre 2022

Rider, schiavi dell’algoritmo: ecco come funziona

A essere tutelata è la piattaforma e non il lavoratore, come dimostra il caso di Sebastian. L’algoritmo calcola solo il dato: la consegna non effettuata, condotta che la “machine learning” giudica come errata e così parte la notifica di licenziamento. La macchina non sa che Sebastian è deceduto a causa di un incidente stradale

È la sera dell’1 ottobre quando Sebastian Galassi, fiorentino di 26 anni, dopo una mancata consegna riceve, il giorno successivo, una mail di licenziamento da parte di Glovo, società di delivery per la quale lavora: «Per mantenere una piattaforma sana ed equa, talvolta è necessario prendere dei provvedimenti quando uno degli utenti non si comporta in modo corretto. Siamo spiacenti di doverti informare che il tuo account è stato disattivato per il mancato rispetto dei termini e delle condizioni». 

I risultati dei calcoli dell’algoritmo sono valutazioni che escludono gli imprevisti. L’opzione, dunque, che a Sebastian possa essere successo qualcosa, anche un’emergenza, non viene contemplata, inoltre dietro la piattaforma non c’è nessun impiegato che possa telefonare a Sebastian per accertarsi che tutto vada bene e, in caso, chiedere il motivo di quella mancata consegna.

L’algoritmo calcola solo il dato: la consegna non effettuata, condotta che la macchina, la “machine learning”, giudica come errata e così parte la notifica di licenziamento. La macchina non sa che Sebastian la mail non è riuscito a leggerla perché deceduto a causa di un incidente stradale, il suo motorino si è scontrato contro un suv per poi essere travolto da un’altra auto, avvenuto proprio mentre effettuava la consegna.

Un messaggio, questo, che per quanto l’azienda si sia scusata specificando che la comunicazione è partita in automatico, offrendosi poi di pagare le spese funerarie, è un messaggio che turba e che, indipendentemente dall’esito dei fatti, non deve essere applicato in nessun caso e non può essere preso come modello di rapporto di lavoro. 

Quel messaggio è da condannare in ogni caso

Di questa vicenda si è, giustamente, scritto tanto, personalmente penso sia doveroso fare un ragionamento ulteriore. Ciò che impressiona in questo messaggio sono fondamentalmente due passaggi: «è necessario prendere dei provvedimenti quando uno degli utenti non si comporta in modo corretto» e: «mantenere una piattaforma sana ed equa». Partiamo dalla prima frase: l’uso del termine utente e non della parola lavoratore, dipendente o fattorino, dà l’impressione di un rapporto altro rispetto a quello lavorativo, un rapporto in cui, esattamente come nelle iscrizioni ai social, si è tenuti a rispettare termini e condizioni altrimenti si viene disattivati. E poi c’è quel «non si comporta in modo corretto» che stride ed è inadeguato soprattutto in considerazione che non si parla di qualità della prestazione ma di condotta, una condotta oltretutto giudicata da una macchina che, come già detto, non è progettata per calcolare gli imprevisti che nella quotidianità possono cogliere le persone (malattia, incidente, urgenze di carattere personale). 

Se per descrivere i fattorini l’azienda ha usato termini freddi come “utente, condotta”, nella seconda frase, in riferimento alla piattaforma, si noteranno vocaboli quali “sana ed equa”, principi che dovrebbero invece essere rivolti alla persona, al lavoratore (ad esempio modalità di lavoro sane e contratto lavorativo che permetta condizioni di equità) e non alla piattaforma.

È doveroso ricordare che nel settembre 2021 Glovo fu multato in Spagna per 79 milioni di euro con l’accusa di non aver regolarizzato i fattorini, inquadrandoli come lavoratori dipendenti, si parla di 10.614 contratti operativi nelle aree di Barcellona Valencia. 

Le irregolarità scoperte dell’Ispettorato del Lavoro.

L’editoriale Domani riporta che al 5 ottobre sono almeno sei le vittime bianche della gig economy nel 2022, e due quelle del 2021. Dal report del 2021 dell’Ispettorato del lavoro emerge che dalle azioni di vigilanza e di polizia giudiziaria svolte nel corso del 2021 dal personale ispettivo dell’INL congiuntamente al Nucleo Ispezioni lavoro dei Carabinieri di Milano, INPS e INAIL che: «l’app scaricata da ciascun rider gestiva le modalità di svolgimento delle prestazioni lavorative (fasce orarie di lavoro, tempistica delle consegne, percorso da seguire, modalità di pagamento da parte del cliente) e che i rider che non si adeguavano al modello organizzativo previsto dalla piattaforma subivano ripercussioni negative». A essere coinvolte 4 società di gestione delle attività di consegna a domicilio. Il NIL di Milano ha stimato ammende in 770.000,00 di euro in conseguenza di difformi modalità di inquadramento di circa 60.000 rider. 

Rider: schiavi dell’algoritmo

Un dato, questo, che conferma quanto l’applicazione assuma una funzione centrale nel lavoro dei ciclofattorini: perché chi non si adegua ad essa viene punito, talvolta con il licenziamento. A dettare le condizioni è sempre e solo l’algoritmo, senza alcun diritto di replica da parte dei lavoratori che il più delle volte si trovano costretti ad accettare turni e condizioni (ad esempio pedalare sotto la pioggia) non sempresicure e favorevoli, considerate anche le strade italiane generalmente insicure e carenti di piste ciclabili. 

Un essere schiavi dell’algoritmo confermato anche dall’ordinanza del dicembre 2020 del Tribunale di Bologna che aveva ritenuto discriminatorio l’algoritmo reputazionale “Frank” impiegato da Deliveroo (non più in vigore da novembre 2020), in quanto penalizzava i ciclofattorini che si assentavano dal lavoro per sciopero, malattia, nonché per altri motivi ritenuti “degni di tutela”. I rider che non si loggavano nella piattaforma e, di conseguenza, non prendevano ordini, perdevano punti e rischiavano di rimanere esclusi per le successive consegne, mentre in alcuni casi venivano addirittura deloggati dal sistema, perdendo il lavoro. 

Un sistema simile è applicato agli algoritmi che selezionano i migliori candidati, e che viene definito blind (cieco) poiché non è possibile conoscere quali siano i criteri utilizzati dietro le scelte che li definisce i migliori.