Anche la-macchina-che-si-guida-sola di Uber uccide

Capitalismo delle piattaforme. Incidente mortale a Phoenix: una donna è stata travolta da un'auto-robot. L'azienda sospende i test negli Stati Uniti. Barcolla il mito principale dell'automazione digitale. Ora si apre il capitolo delle responsabilità dell'incidente. E' colpa dell'autista presente nell'abitacolo? Di Uber o dei micro-lavoratori che rendono "intelligente" l'algoritmo?

Uber sostiene di aver sospeso tutti i suoi test di guida autonoma dopo quello che si ritiene essere il primo incidente pedonale mortale. La tragedia è stata causata da una delle macchine-che-si-guidano-da sole – fulcro della propaganda digitale, il cuore del mito dell’automazione digitale della Silicon Valley – che si sta sperimentando a Phoenix, Pittsburgh, San Francisco negli Stati Uniti e a Toronto in Canada. Da più di un quinquennio è in corso una battaglia di annunci, fatta ad uso della raccolta di ingenti capitali in borsa – che vede protagoniste le maggiori case automobilistiche e le aziende tecnologiche – da Google in giù.

A Tempe, periferia di Phoenix, Arizona, la polizia locale sostiene che uno dei veicoli autoguidati di Uber ha ucciso un pedone nella notte tra domenica e lunedì scorso. Gli investigatori affermano che il veicolo era in modalità  autonoma, ma con un operatore al volante, quando la donna che camminava fuori da un marciapiede, è stata travolta. La donna è morta a causa delle ferite in ospedale. L’amministratore delegato di Uber, Dara Khosrowshahi, ha espresso le condoglianze sul suo account Twitter e ha detto che l’azienda sta lavorando con le forze dell’ordine locali per l’inchiesta.

Si apre il capitolo sulle responsabilità penale dell’incidente. L’eventualità per cui una macchina automatica uccidesse una persona è stata purtroppo preventivata tra gli scenari possibili. La responsabilità è della persona presente nell’abitacolo mentre la vettura investiva la donna? Oppure è di Uber che è proprietaria del prototipo? E ancora: dei micro-lavoratori a cui spetta il compito di co-dirigere a distanza il veicolo, elaborando i dati e lavorarli per “allenare” il sistema algoritmico che lo governa? L’inchiesta potrebbe chiarire uno scenario non scontato.

L’incidente mortale solleverà nuove domande sulle norme che regolano l’auto digitale e amplificheranno i dubbi, e le paure, provocate dalla propaganda digitale. Un sondaggio ha mostrato che il 78 per cento degli interpellati teme di guidare veicoli autonomi. Rischi di incidenti – almeno 14 quelli registrati dall’inizio della leggenda – sono stati previsti dai costruttori al punto che è in corso il collaudo dei veicoli dove il conducente umano è pronto a prendere il controllo in caso di problemi.

Il numero di Stati americani che hanno previsto una legislazione sui veicoli autonomi è aumentato. Solo nel 2017 lo hanno fatto 33 Stati. La California è tra quelli che chiedono ai costruttori di segnalare incidenti durante la fase di collaudo. Tuttavia aumentano gli stati che autorizzano il collaudo di prototipi teleguidati attraverso radar senza una persona al posto di guida. Ad aprile, la California permetterà alle aziende di testare questa tipologia di veicoli. L’Arizona già lo permette. Dalla fine del 2016 Waymo, l’azienda che progetta il mito per Google Alphabet, usa automobili senza un uomo sul sedile del conducente per permettere la salita e la discesa dei passeggeri.

La principale giustificazione per continuare gli esperimenti è quella per cui un’auto senza conducente – guidata dalla mente infallibile dell’algoritmo – sia più sicura di un’auto guidata da un umano. Una distrazione può causare un incidente mortale. Purtroppo, da ieri questo è altrettanto vero per l’algoritmo che ha bisogno dell’apporto di una moltitudine di lavoratori – quelli che guidano la macchina da remoto, lavorano i dati prodotti e insegnano all’algoritmo a diventare “intelligente”.

La decisione di Uber di sospendere gli esperimenti a Tempe, Pittsburgh, San Francisco e Toronto attesta che l’algoritmo è pericoloso quanto l’umano. La sua infallibilità resta un’utopia della filosofia morale che accompagna la propaganda sull’intelligenza artificiale onnipotente.

Un’auto Uber a guida autonoma – una Volvo XC90 – è stata coinvolta in un altro incidente un anno fa a Tempe. In quella collisione il veicolo si è ribaltato su un fianco. L’auto era in modalità auto-guida con un autista di sicurezza al volante. La polizia ha sostenuto che la responsabilità non era del veicolo autonomo.

Nel 2016, un uomo che guidava una Tesla utilizzando l’autopilota è morto su una strada statale in Florida per lo schianto contro un trattore-rimorchio che attraversava la strada. Le autorità federali hanno stabilito che il sistema non aveva difetti.

ROBERTO CICCARELLI

da il manifesto.it

foto tratta da Pixabay

categorie
Economia e società

altri articoli