I nostri assistenti robot stanno imparando a mentire e dovremmo lasciarli

Sophia la ROBOT UMANOIDE COME PENSA VERAMENTE- RETE NEURALE - SPIEGATO IN 3 MINUTI

Sophia la ROBOT UMANOIDE COME PENSA VERAMENTE- RETE NEURALE - SPIEGATO IN 3 MINUTI
Anonim

I robot si stanno rivelando dei grandi compagni umani. Chi non vorrebbe un adorabile Peperoncino per raccontarci barzellette, complimenti e, in generale, farci sentire meno soli al mondo? Anche i robot senza forma stanno dimostrando di essere sorprendentemente una buona compagnia. Prendi Alexa di Amazon Echo, per esempio. È un cervello robotico con una voce umana intrappolata nel corpo di un altoparlante, ma è utile e se leggi le sue recensioni, è chiaro che è diventata una famiglia per molti utenti. La gente penserebbe diversamente se mentisse? Che ne dici se ti dicesse qualcosa che davvero, davvero non volevi sentire?

Pensaci: diciamo ai bambini di non dire mai una menzogna e che l'onestà è la migliore politica, eppure omettiamo, distorciamo la verità, e mentiamo apertamente ai bambini tutto il tempo. Questo insegna loro, attraverso le nostre azioni se non attraverso le nostre parole, che non si tratta di completa onestà, ma di imparare le complicate regole sociali su quando e come rivelare o nascondere informazioni potenzialmente sensibili. Programmare i robot per osservare queste regole sociali può essere una parte difficile ma necessaria del processo di innovazione dell'automa in corso.

Ecco un esempio: sono stato a casa di mio cognato l'altro fine settimana e sono andato al negozio per prendere qualcosa da sandwich per il pranzo di tutti. La mia nipotina di sei anni mi stava aiutando a mettere il cibo fuori mentre tutti gli altri erano fuori dalla cucina, e lei mi ha chiesto quanto costava la spesa. Le ho detto, perché insegnare ai bambini il valore del denaro è una buona cosa.

A tavola, mi chiese di dire a tutti quanto costava la spesa. Ho detto no."Perché?" Chiese, sinceramente confusa sul motivo per cui una domanda alla quale avevo risposto liberamente pochi minuti prima era ormai un'informazione segreta. "Non è educato", dissi, spiegando che, poiché è una bambina, le regole sono diverse quando siamo soli. Le stavo insegnando che onestà e franchezza hanno un tempo e un posto. L'informazione non, in un contesto umano, vuole sempre essere libera.

È la stessa cosa con i robot. Pensiamo che non vogliamo che i nostri robot ci mentano, ma in realtà vogliamo che imparino le complicate regole sociali di cortesia e discrezione che a volte richiedono distorsioni della verità. E stanno già imparando come farlo. Prendi questo breve clip di Pepper che interagisce con un reporter, ad esempio:

La prima cosa che esce dalla bocca di Pepper è un complimento: "Quindi sei molto chic. Sei un modello?"

Il giornalista è abbastanza bello, ma la domanda di Pepper non è completamente onesta. Comprendiamo che Pepper in realtà non si chiede se è un modello ed è stato programmato per dire cose carine a prescindere da come sia una persona.

Poco dopo, Pepper chiede un prestito, all'improvviso. È una domanda scortese, un'indiscrezione per cui perdoniamo facilmente un robot, proprio come faremmo con un bambino. Il giornalista avrebbe potuto precisare che la domanda è scortese, che i robot non hanno bisogno di soldi o che non ha interesse a consegnare $ 100 a Pepper. Tutta la verità è che il giornalista poteva dai al robot i soldi, ma capisci che la domanda stessa è un po 'un gioco. Quello che sceglie di dire è una deflessione, o una bugia bianca o una mezza verità - non ha i soldi su di lui. La speranza è che il robot capisca questo come un "no" gentile e non suggerisce che il reporter vada in un bancomat e faccia un prelievo. Perché Pepper ha evidentemente qualche grazia sociale, la linea di domande finisce lì.

I robot sociali sono programmati per imparare i segnali sociali, e questa è una buona cosa - alla fine li renderà migliori ai nostri posti di lavoro. Il compito dei programmatori non è quello di eliminare tutte le inganni dei robot, ma di aggiungere funzionalità che rendano più facile per i robot prendere decisioni sulle risposte appropriate.

Quando i robot sono i nostri confidenti, devono avere consapevolezza del contesto e del pubblico. Per esempio, se sto provando un abbigliamento a casa, voglio una valutazione onesta di quanto siano lusinghiere le diverse opzioni. Se sono fuori ad una festa e improvvisamente consapevole che ho scelto l'abito sbagliato, la rassicurazione che sto bene sarà la risposta più utile.

I robot impareranno molte informazioni personali sui loro compagni, e sarà importante per loro capire la differenza tra informazioni riservate e informazioni pubbliche, e anche essere consapevoli di chi sta ascoltando ogni volta che parla. Le domande avranno risposte diverse a seconda di chi sta chiedendo. I robot si comportano in modo diverso quando gli ospiti sono in casa.

I robot, come i bambini, hanno bisogno di essere genitori responsabili. Ciò significa che sia i programmatori di robot sia i proprietari di robot devono riflettere profondamente sulle conseguenze etiche e sociali del nostro A.I. interazioni. Ma ciò non significa esigere la perfetta onestà - sul serio, nessuno lo vuole.