TwitterFacebookGoogle+

Trappola etica per il robot: non sa chi salvare

Trappola etica per il robot: non sa chi salvareRIUSCIRÀ mai un robot a compiere scelte difficili dal punto di vista etico? L’esperimento condotto dal professor Alan Winfield del Bristol Robotics Laboratory mostra l’incertezza di un automa nel decidere per conto proprio, anche se le sue reazioni sono diverse da un caso all’altro. Winfield e il suo team costruiscono “una trappola etica”: in uno spazio limitato simulano che ci sia un buco e programmano un robot affinché impedisca a un altro automa, che rappresenta un essere umano da salvare, di caderci.

In questa prima fase il robot riesce nel suo compito e, appena l’altro automa si avvicina all’area del “pericolo”, interviene e lo spinge via. Già negli Anni 40 Isaac Asimov, il padre della fantascienza, aveva teorizzato nelle sue tre leggi della robotica un codice comportamentale per queste macchine. Nella prima sosteneva che “un robot non deve fare del male a un essere umano o, attraverso l’inazione, permettere che un essere umano si faccia male”. Nel caso in esame questo principio viene rispettato.

 

Le cose cambiano quando nell’esperimento viene aggiunto un terzo robot, che si sposta nella stessa direzione e alla stessa velocità del primo. Il “salvatore” deve quindi ora raggiungerli entrambi per metterli fuori pericolo, ma il tempo che ha a disposizione è limitato e quindi l’operazione non è così semplice. Su 33 prove, in alcuni casi riesce a salvarne uno, lasciando “morire” l’altro; in due occasioni riesce a raggiungerli entrambi, ma in ben 14 simulazioni il robot è troppo lento nel decidere, e non riesce a salvare nessuno dei due. “Ci sono due ragioni per cui ogni test è leggermente diverso dagli altri”, spiega Winfield. “Innanzitutto diamo ai robot ‘in pericolo’ delle indicazioni di partenza lievemente distinte, e in secondo luogo perché i robot sono macchine reali, con sensori, motori e ruote imperfetti. Voglio sottolineare che il robot non ha memoria da un esperimento all’altro: non c’è apprendimento dalla pratica”.

“Un tempo sostenevo che un robot non fosse in grado di prendere decisioni per conto proprio, sulla base di principi etici”, prosegue il professore, “oggi la mia risposta è: non ne ho idea. Faccio un esempio: sapete perché se vediamo un uomo che sta per cadere in un precipizio interveniamo per metterlo al riparo dal pericolo? Perché abbiamo quella innata capacità di prevedere le conseguenze delle azioni di un altro essere”, conclude Winfield, “e questa capacità, se acquisita dall’automa, segnerà la differenza nello sviluppo dell’intelligenza artificiale”.

Gli scenari offerti dai numerosi impieghi di questi robot possono essere i più vari se, come sostiene il professore di robotica Rodney Brooks del Mit di Boston, “entro al massimo 50 anni il nostro mondo sarà popolato da miriadi di robot, ed esattamente come è successo per la diffusione dei pc, ci sarà l’esplosione dell’impiego di automi”.

Facciamo allora un passo indietro e consideriamo, ad esempio, gli standard di salvataggio del soccorso alpino. La prima regola per questi operatori è non mettere mai a repentaglio la propria vita e quella del resto della squadra, per aiutare qualcuno che si trova già a rischio. La seconda è – in una situazione concitata, senza tempo per agire – mettere prima in salvo la persona più facile da recuperare e poi pensare agli altri: “In quei momenti dobbiamo essere cinici e considerare in fretta la situazione”, spiega un alpino esperto di soccorso e recupero. “Quando si legge dei casi in cui la squadra di salvataggio è morta sul luogo dell’incidente significa che si è disattesa la prima regola basilare. Dobbiamo agire in maniera fredda e razionale e così facendo sappiamo di compiere il nostro dovere”. 

L’utilizzo di robot, la cui priorità sarà sempre quella di sacrificare la propria esistenza per mettere in salvo quella di un uomo, apre quindi il terreno a questa e altre applicazioni in un futuro, forse, di “automi etici”.

Fonte

Questo sito non rappresenta una testata giornalistica; viene aggiornato saltuariamente e non può quindi considerarsi un prodotto editoriale ai sensi della legge 62 del 07/03/2001. Inoltre viene utilizzato materiale tratto da siti/blog che possono essere ritenuti di dominio pubblico. Se per qualsiasi motivo gli autori del suddetto materiale, o persone citate nello stesso non gradissero, è sufficiente una email all'indirizzo apocalisselaica[@]gmail.com e provvederemo immediatamente alla rimozione.