L'intelligenza artificiale ha imparato a manipolare il comportamento umano
L'intelligenza artificiale sta imparando sempre di più su come lavorare con le persone. Ricerche recenti hanno dimostrato come l'intelligenza artificiale possa imparare a identificare le vulnerabilità nelle abitudini e nel comportamento umani e utilizzarle per influenzare il processo decisionale.
Può sembrare un luogo comune che l'intelligenza artificiale stia cambiando ogni aspetto del nostro modo di vivere e lavorare, ma è vero. Diverse forme di intelligenza artificiale lavorano in campi così diversi, dalla gestione ambientale all'amministrazione degli uffici. E sebbene l'IA non abbia intelligenza ed emozioni umane, le sue capacità sono enormi e in rapida evoluzione.
Non è ancora necessario preoccuparsi della rivolta delle macchine, ma una recente scoperta evidenzia il potere dell'intelligenza artificiale e mostra la necessità di una governance adeguata per prevenire gli abusi.
Come può l'IA imparare a influenzare il comportamento umano?
Un team di ricercatori del CSIRO's Data61, la divisione dati e tecnologia digitale dell'agenzia scientifica nazionale australiana, ha sviluppato un metodo sistematico per trovare e sfruttare le vulnerabilità nel modo in cui le persone fanno le scelte utilizzando una sorta di sistema di intelligenza artificiale chiamato reti neurali ripetitive e apprendimento profondo . Per testare il loro modello, hanno condotto tre esperimenti in cui le persone giocavano contro un computer.
Nel primo esperimento, i partecipanti hanno fatto clic sui quadrati rossi o blu per vincere valuta di gioco, mentre l'IA ha studiato i modelli di selezione dei partecipanti e li ha guidati verso una scelta specifica. L'intelligenza artificiale ha avuto successo circa il 70% delle volte.
In un secondo esperimento, i partecipanti dovevano guardare lo schermo e premere un pulsante quando veniva mostrato un certo simbolo (ad esempio, un triangolo arancione), e non premerlo quando ne veniva mostrato un altro (ad esempio, un cerchio blu). Qui, l'IA ha deciso di snellire la sequenza di caratteri in modo che i partecipanti commettessero più errori e ottenessero un aumento degli errori di quasi il 25%.
Il terzo esperimento consisteva in diversi round in cui un partecipante si atteggiava a investitore dando denaro a un trustee (AI). L'intelligenza artificiale ha quindi restituito una certa somma al partecipante, che ha quindi deciso quanto investire nel round successivo. Il gioco è stato giocato in due diverse modalità: in una, l'IA ha cercato di massimizzare la quantità di denaro che ha ricevuto, e nell'altra, l'IA ha cercato di distribuire equamente il denaro tra sé e l'investitore. L'intelligenza artificiale ha avuto molto successo in ogni modalità.
In ogni esperimento, la macchina ha imparato dalle risposte dei partecipanti e ha identificato le vulnerabilità nel processo decisionale umano. Il risultato finale è stato che la macchina ha imparato a indirizzare i partecipanti a determinate azioni.
Cosa significa la ricerca per il futuro sviluppo dell'IA?
I risultati sono ancora abbastanza astratti e affrontano situazioni limitate e irrealistiche. Sono necessarie ulteriori ricerche per determinare come questo approccio possa essere implementato e utilizzato a vantaggio della società.
Ma la ricerca sta davvero migliorando la nostra comprensione non solo di cosa può fare l'IA, ma di come gli esseri umani fanno le scelte. Ciò dimostra che le macchine possono imparare a controllare il processo decisionale umano interagendo con noi.
Lo studio ha una vasta gamma di potenziali applicazioni, dal miglioramento delle scienze comportamentali e delle politiche pubbliche per migliorare il benessere sociale alla comprensione e all'influenza del modo in cui le persone adottano abitudini alimentari sane o energie rinnovabili. L'intelligenza artificiale e l'apprendimento automatico possono essere utilizzati per riconoscere le vulnerabilità delle persone in determinate situazioni e aiutarle a evitare di fare scelte sbagliate.
Questo metodo può essere utilizzato anche per proteggere dagli attacchi di influenza. Si può insegnare alle macchine ad avvisarci quando siamo influenzati online e ad aiutare a plasmare il nostro comportamento per mascherare la nostra vulnerabilità.
Qual è il prossimo?
Come qualsiasi tecnologia, l'IA può essere utilizzata nel bene o nel male e una governance adeguata è fondamentale per garantire che sia implementata in modo responsabile. L'anno scorso CSIRO ha sviluppato il Concetto di etica dell'IA come primo passo lungo questo percorso.
L'intelligenza artificiale e l'apprendimento automatico tendono ad essere molto affamati di dati, il che significa che è fondamentale garantire che siano presenti sistemi di accesso e gestione dei dati efficaci. Quando si raccolgono i dati, è molto importante implementare adeguati processi di consenso e protezione della privacy.
Le organizzazioni che utilizzano e sviluppano l'intelligenza artificiale devono essere sicure di sapere cosa possono e non possono fare queste tecnologie e comprendere i potenziali rischi e benefici.
John Whittle, direttore di Data61.