Don’t be evil : il lato oscuro di Google

Anni fa Google stese un proprio codice di condotta in cui prima frase era semplice ed efficace:

Don’t be evil. (Non essere cattivo)

Dal 2000 questa frase è stata una sorta di motto per Google. Ho scritto stata, non è un errore. Dall’aprile 2018, come ha riportato Gizmodo, quello che era l’ufficioso motto di Google è stato rimosso.

L’ultima traccia della frase la si trova ancora, nell’Internet Wayback Machine, immortalata per l’ultima volta il 21 aprile 2018. Questo semplice slogan è stato rimosso da ogni parte del codice di condotta di Big G tranne che nell’ultimo capoverso.

L’esclusione di questa piccola frase può sembrare una cosa da nulla ma potrebbe anche essere interpretata come uno dei segni dello spostamento delle priorità morali ed etiche di Google.

Nato come sito in grado di fornire risposte alle domande digitate sulla sua casella di ricerca, oggi Google è molto di più che una lista di link e la rimozione di quella frase potrebbe significare problemi per il futuro dell’umanità.

Google influenza la nostra vita.

Don’t be evilConosce i nostri dati, evince le nostre preferenze e gusti analizzando il flusso delle query e i dati di navigazione. Ci fornisce risultati di ricerca che possono spingerci verso una o altra scelta.

Che siano prodotti, servizi, la scelta di una destinazione di una vacanza o di uno specialista medico. Questo elenco potrebbe continuare a lungo, Google può potenzialmente influenzare ogni singolo aspetto della nostra vita. Diventa quindi lecito domandarsi come questa corporation utilizzerà il suo potere.

Lo farà principalmente per il bene o per il male? Ecco tre segni che puntano, purtroppo, verso la seconda ipotesi.

Il progetto Maven

Il bene e il male sono spesso soggettivi e il “male” di una persona può essere l’area moralmente grigia di un’altra. Tuttavia, aiutare dei droni a uccidere le persone sembra parecchio sul lato oscuro dello spettro etico. Questo è proprio uno dei progetti collaterali di Google degli ultimi anni.

È del marzo 2018 la notizia del coinvolgimento di Google nel Progetto Maven a fianco del Dipartimento della Difesa degli Stati Uniti. Si tratta di un’iniziativa per costruire droni artificialmente intelligenti da utilizzare in guerra.

La lettera di protesta scritta da qualche migliaio di dipendenti di Mountain View è ancora facilmente reperibile in rete, azione a cui sono anche seguite le dimissioni, in segno di protesta di alcuni di loro.

Tuttavia, Google sta andando avanti con Project Maven e, di fatto, la società sembra essere sempre più interessata alle operazioni militari e meno interessata a ciò che pensano i suoi dipendenti.

L’intelligenza artificiale ingannevole

Da noi vige un vecchio motto: “il fine giustifica i mezzi”. Nonostante come la si pensi, mentire è pur sempre un’area moralmente grigia e pare essere proprio quella in cui Google sembra che meglio navighi. Negli ultimi mesi ed anni molti dipendenti di Big G hanno riferito che l’azienda non era così trasparente con loro come una volta e che lo stesso vale per il rapporto con il pubblico.

Un bell’esempio ci arriva proprio da Google stessa alla presentazione della nuova funzione chiamata Duplex inserita in Google Assistant. Trattasi di un’intelligenza artificiale che può effettuare, per conto di un utente, tutte quelle chiamate che spesso vengono ritenute noiose.

Le accuse secondo alcuni sono che la demo potrebbe essere stata “falsificata” ma, anche se non lo fosse, alcuni sostengono che la tecnologia sia ingannevole, poiché l’IA non si qualifica mai come non umana durante la chiamata demo. Giudicate voi guardando il video della presentazione di Duplex.

Un software automatico, una intelligenza artificiale in grado di poter fare azioni interagendo con le persone per nome e conto di un’altra persona, dovrebbe semplicemente presentarsi come tale altrimenti è un qualcosa di ingannevole. L’esempio della presentazione è relativo alla prenotazione di un appuntamento presso un coiffeur ma fornisce lo spunto per una serie di riflessioni.

Dobbiamo arrivare al punto che una IA ordini la spesa o la pizza per noi decidendo autonomamente da quale supermercato o pizzeria? Deve decidere lei i tipi di prodotti o se ordinare una semplice margherita o una quattro formaggi? Ovviamente l’IA non tira ad indovinare ma si poggerebbe su quella che potrebbe sembrare una eterea base ma che più solida non può essere: i dati che Google conosce di noi. So che può sembrarti strano ma Google sa già di noi cose relative alle nostre abitudini di consumo forse fino anche al tipo di pizza preferito (e chissà cos’altro).

Yossi Matias, vicepresidente di Google Engineering, ha poi detto, post-demo Duplex, che l’IA avrebbe “probabilmente” fatto sapere alle persone che si trattava di un’intelligenza artificiale una volta che il software fosse stato lanciato. Ci crediamo quando lo vediamo.

The Selfish Ledger

Google, come tutte le aziende al mondo, produce una serie di documenti destinati all’uso interno. Questo è normalmente insito nella natura di una struttura organizzata dedita al business. Google ha moltissime risorse, sia finanziare che umane, e quindi può permettersi di produrre dei documenti davvero interessanti specie se, erroneamente, trapelano all’esterno. Un video, che fu prodotto nel 2016 per uso interno, ha fatto proprio questa fine.

Il video, intitolato “The Selfish Ledger” (traducibile in italiano come Il registro egoista), descrive un futuro in cui Google non solo raccoglie dati sugli utenti, ma li utilizza, in ultima analisi, con l’obiettivo di controllare il comportamento delle persone. Un video, tra l’altro tecnicamente ben realizzato segno ulteriore di quanto sia alta l’attenzione di Google sull’argomento, della durata di otto interessanti minuti. Offre uno spaccato sulla direzione che Big G ha intrapreso da qualche anno.

Cominciamo a chiederci fino a quando vogliamo delegare l’archiviazione dei nostri gusti e comportamenti, oltre al fatto se ce ne sia effettivamente bisogno, ad una azienda che ha la forza economica paragonabile a quella di uno stato sovrano.

Google è così potente che se decide che il famoso “Don’t be evil” non è più un obiettivo che vale la pena perseguire, quanti danni potrebbe fare? Per ora, speriamo solo che la sua coscienza non diventi minoritaria rispetto alla crescita della società.


 

Condividi il contenuto su...Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Pin on Pinterest
Pinterest
Share on LinkedIn
Linkedin
Email this to someone
email
Print this page
Print