Preso tradotto ed adattato da: EPFL
Nell’intelligenza artificiale (AI), le macchine eseguono azioni specifiche, osservano il risultato, adattano il loro comportamento di conseguenza, osservano il nuovo risultato, adattano il loro comportamento ancora una volta, e così via, imparando da questo processo iterativo. Ma questo processo potrebbe andare fuori controllo?
NdR. Ecco un altro allarme sul futuro possibile in cui macchine, intese come robot oppure automobili e forse i temibili microonde diventeranno intelligenti grazie ai nostri insegnamenti, tanto intelligenti da acquisire una propria autocoscienza e quindi prendere il sopravvento sulla razza umana.
A parte il fatto che l’intelligenza porta sempre alla ricerca di autogratificazione e quindi il nirvana delle macchine potrebbe consistere semplicemente nel mandare i propri comandi in loop all’infinito, concentrandosi sui processi della propria CPU, una versione digitale del buddismo.
Il problema vero relativo alla AI è che già esiste e già fa veramente molto danno, la vera AI risiede negli algoritmi dei social e vari motori di ricerca che già guidano le nostre scelte, non solo commerciali, plagiano le menti più deboli o pigre e ripetendo a ciascuno di noi quello che già ci vogliamo sentire dire porta ad un progressivo abbrutimento già pesantemente in atto.
“L’IA cercherà sempre di evitare l’intervento umano e creerà una situazione in cui non può essere fermato”, dice Rachid Guerraoui, professore al Distributed Programming Laboratory dell’EPFL e coautore dello studio EPFL. Ciò significa che gli ingegneri IA devono impedire alle macchine di imparare alla fine come eludere i comandi umani.
I ricercatori dell’EPFL che hanno studiato questo problema hanno scoperto un modo per gli operatori umani di mantenere il controllo di un gruppo di robot IA.
Un metodo di apprendimento automatico utilizzato nell’intelligenza artificiale è l’apprendimento di rinforzo, in cui gli agenti vengono premiati per l’esecuzione di determinate azioni, una tecnica presa in prestito dalla psicologia comportamentale.
Applicando questa tecnica all’IA, gli ingegneri usano un sistema a punti in cui le macchine guadagnano punti eseguendo le azioni giuste.
Ad esempio, un robot può guadagnare un punto per impilare correttamente un set di scatole e un altro punto per recuperare una scatola dall’esterno Ma se, in un giorno di pioggia, ad esempio, un operatore umano interrompe il robot mentre esce per raccogliere una scatola, il robot scoprirà che è meglio stare al chiuso, impilare scatole e guadagnare più punti possibile.
“La sfida non è quella di fermare il robot, ma piuttosto di programmarlo in modo che l’interruzione non cambi il suo processo di apprendimento – e non lo induca ad ottimizzare il suo comportamento in modo tale da evitare di essere fermato”, dice Guerraoui.
Da una singola macchina a un’intera rete di IA Nel 2016, i ricercatori di Google DeepMind e il Future of Humanity Institute della Oxford University hanno sviluppato un protocollo di apprendimento che impedisce alle macchine di imparare dalle interruzioni e diventare quindi incontrollabili.
Per esempio, nell’esempio sopra, la ricompensa del robot – il numero di punti che guadagna – verrebbe pesata dalla possibilità di pioggia, dando al robot un maggiore incentivo a recuperare le scatole all’esterno. “Qui la soluzione è abbastanza semplice perché abbiamo a che fare con un solo robot”, afferma Guerraoui.
Tuttavia, l’intelligenza artificiale è sempre più utilizzata in applicazioni che coinvolgono decine di macchine, come auto a guida autonoma sulla strada o droni in aria. “Questo rende le cose molto più complicate, perché le macchine iniziano a imparare l’una dall’altra – specialmente nel caso di interruzioni”.
Imparano non solo da come vengono interrotte individualmente, ma anche da come vengono interrotte le altre “, afferma Alexandre Maurer, uno degli autori dello studio. Hadrien Hendrikx, un altro ricercatore coinvolto nello studio, dà l’esempio di due auto a guida automatica che si susseguono su una strada stretta dove non possono passare l’un l’altro. Devono raggiungere la loro destinazione il più rapidamente possibile – senza violare alcuna legge sul traffico – e gli esseri umani nelle macchine possono prendere il controllo in qualsiasi momento. Se l’umano nella prima macchina frena spesso, la seconda macchina adatterà il suo comportamento ogni volta e alla fine si confonderà quando frenare, eventualmente rimanendo troppo vicino alla prima auto o guidando troppo lentamente.
Dare agli esseri umani l’ultima parola
Questa complessità è ciò che i ricercatori dell’EPFL mirano a risolvere attraverso “l’interruzione sicura”.
Il loro metodo rivoluzionario consente all’uomo di interrompere i processi di apprendimento dell’IA quando necessario, assicurandosi che le interruzioni non cambino il modo in cui le macchine apprendono. “In poche parole, aggiungiamo meccanismi” dimenticabili “agli algoritmi di apprendimento che essenzialmente eliminano i bit della memoria di una macchina.
È un po ‘come il dispositivo flash di Men in Black “, afferma El Mahdi El Mhamdi, un altro autore dello studio.
In altre parole, i ricercatori hanno modificato il sistema di apprendimento e ricompensa delle macchine in modo che non sia influenzato dalle interruzioni. È come se un genitore punisce un bambino, ciò non influenza i processi di apprendimento degli altri bambini della famiglia. “Abbiamo lavorato su algoritmi esistenti e abbiamo dimostrato che l’interruzione sicura può funzionare indipendentemente dalla complessità del sistema di intelligenza artificiale, dal numero di robot coinvolti o dal tipo di interruzione.