Secondo quanto riportato dal The Wall Street Journal, Google sta rivedendo alcune delle sue iniziative di diversità, equità e inclusione (DEI) e si prepara a cancellare i vincoli etici dell’IA.

Per quanto riguarda le iniziative DEI, Google si unisce a una serie di aziende statunitensi (comprese Amazon e Meta) che soprattutto dopo la vittoria elettorale di Donald Trump lo scorso novembre e i recenti ordini esecutivi per limitare la DEI nel governo e negli contractor federali, hanno già ridotto questo approccio all’inclusività.

L’azienda ha rilasciato una dichiarazione dopo la diffusione della notizia: “Ci impegniamo a creare un ambiente di lavoro in cui tutti i nostri dipendenti possano avere successo e pari opportunità e nell’ultimo anno abbiamo rivisto i nostri programmi per aiutarci a raggiungere questo obiettivo. In quanto contractor federali, i nostri team stanno valutando le modifiche necessarie a seguito delle recenti decisioni dei tribunali e degli ordini esecutivi su questo argomento”.

Un altro indizio delle nuove politiche lavorative di Google emerge anche da un documento di Alphabet depositato ieri presso la Securities and Exchange Commission degli Stati Uniti, in cui è stata omessa una formula presente invece nelle relazioni annuali della società dal 2021 al 2023: “ci impegniamo a rendere la diversità, l’equità e l’inclusione parte di tutto ciò che facciamo e a far crescere una forza lavoro che sia rappresentativa degli utenti che serviamo”.

East,Jakarta,,Indonesia,-,November,9,,2024:,Google,Deepmind,Logo.

L’altro versante su cui si sta muovendo Google riguarda invece l’IA etica. L’azienda ha infatti aggiornato le sue politiche etiche sull’intelligenza artificiale, eliminando l’impegno a non utilizzare l’IA per lo sviluppo di armi e la sorveglianza.

Un cambio di rotta che emerge chiaramente dalla nuova stesura del documento che regola i principi di Google sull’intelligenza artificiale, in cui non compare più la precedente formula inserita nel 2018 con la quale l’azienda si impegnava a “non sviluppare strumenti IA per armi e altre tecnologie volte a recare danno alle persone, oltre che per tecnologie in grado di raccogliere o utilizzare informazioni per la sorveglianza”.

Il vice presidente di Google James Manyika e Demis Hassabis, che guida la sessione di IA DeepMind, hanno difeso il cambiamento di policy, sostenendo che le aziende e i governi democratici devono lavorare insieme su un’intelligenza artificiale che “protegga le persone, promuova la crescita globale e sostenga la sicurezza nazionale”.