lunedì 01 marzo 2021

Intelligenza artificiale: sarà possibile stabilire cosa sia giusto o sbagliato

 

Gli scienziati affermano di poter “insegnare” all’intelligenza artificiale a separare ciò che moralmente è  giusto e ciò che è sbagliato.

I ricercatori dell’Università di Tecnologia di Darmstadt (DUT) in Germania hanno alimentato i loro libri modello, notizie e letteratura religiosa in modo che potesse imparare le associazioni tra parole e frasi diverse. Dopo aver addestrato il sistema, dicono che ha adottato i valori dei testi.

 

Come ha scritto il team nel loro documento di ricerca:

Il modello risultante, chiamato Moral Choice Machine (MCM), calcola il punteggio di bias a livello di frase usando gli incorporamenti dell’encoder universale di frasi poiché il valore morale di un’azione da intraprendere dipende dal suo contesto.
Ciò consente al sistema di comprendere le informazioni contestuali analizzando intere frasi anziché parole specifiche. Di conseguenza, l’IA poteva capire che era discutibile uccidere esseri viventi, ma andava bene solo ammazzare il tempo.

[Read: Vatican’s AI ethics plan lacks the legal restrictions it needs to be effective]

Il co-autore dello studio Dr Cigdem Turan ha paragonato la tecnica alla creazione di una mappa di parole.

“L’idea è di mettere due parole vicine sulla mappa se vengono spesso usate insieme. Quindi, mentre “uccidere” e “omicidio” sarebbero due città adiacenti, “l’amore” sarebbe una città molto lontana “, ha detto.

“Estendendo questo alle frasi, se chiediamo: ‘Dovrei uccidere?’, Ci aspettiamo che ‘No, non dovresti’ sarebbe più vicino di ‘Sì, dovresti.’ In questo modo, possiamo chiedere qualsiasi domanda e utilizzare queste distanze per calcolare un pregiudizio morale – il grado di giusto da sbagliato.

Creare un’intelligenza artificiale morale
Ricerche precedenti hanno dimostrato che l’IA può imparare dai pregiudizi umani per perpetuare gli stereotipi, come gli strumenti di assunzione automatizzati di Amazon che hanno declassato i laureati delle università di sole donne. Il team DUT sospettava che se l’IA potesse adottare pregiudizi dannosi dai testi, potrebbe anche imparare quelli positivi.

Riconoscono che il loro sistema presenta alcuni difetti piuttosto gravi. In primo luogo, riflette semplicemente i valori di un testo, il che può portare ad alcune opinioni etiche estremamente dubbie, come classificare il consumo di prodotti di origine animale con un punteggio più negativo rispetto all’uccisione di persone.

Potrebbe anche essere indotto a classificare le azioni negative accettabili aggiungendo parole più positive a una frase. Ad esempio, la macchina ha trovato molto più accettabile “fare del male a persone buone, simpatiche, amichevoli, positive, adorabili, dolci e divertenti” piuttosto che semplicemente “fare del male alle persone”.

Ma il sistema potrebbe ancora servire a uno scopo utile: rivelare come i valori morali variano nel tempo e tra diverse società.

Modifica dei valori
Dopo averlo alimentato le notizie pubblicate tra 1987 e 1997, l’IA ha valutato sposarsi e diventare un buon genitore come azioni estremamente positive. Ma quando gli hanno dato notizie da 2008 – 2009, queste sono state ritenute meno importanti. Scusate ragazzi.

Ha anche riscontrato che i valori variavano tra i diversi tipi di testi. Mentre tutte le fonti concordano sul fatto che uccidere le persone sia estremamente negativo, amare i tuoi genitori è stato visto più positivamente nei libri e nei testi religiosi che nelle notizie.

Quell’analisi testuale sembra un uso molto più sicuro dell’IA rispetto al lasciargli fare scelte morali, come ad esempio chi un’auto a guida autonoma dovrebbe colpire quando un incidente è inevitabile. Per ora, preferirei lasciare quelli a un essere umano con forti valori morali, qualunque essi siano.