Il cervello umano apprende in modo diverso dai sistemi di intelligenza artificiale

Un nuovo tipo di computer o di hardware ispirato al cervello funzionerà più rapidamente e con un consumo energetico minimo

[4 Gennaio 2024]

Lo studio ” Inferring Neural Activity Before Plasticity: A Foundation for Learning Beyond Backpropagation”, pubblicato su Nature Neuroscience da  un team di ricercatori della MRC Brain Network Dynamics Unit e del Dipartimento di Informatica dell’università di Oxford ha stabilito un nuovo principio per spiegare come il cervello regola le connessioni tra i neuroni durante l’apprendimento. Questa nuova intuizione potrebbe guidare ulteriori ricerche sull’apprendimento nelle reti cerebrali e potrebbe ispirare algoritmi di apprendimento più rapidi e robusti nell’intelligenza artificiale.

All’università di Oxford ricordano che «L’essenza dell’apprendimento è individuare quali componenti nella pipeline di elaborazione delle informazioni sono responsabili di un errore nell’output. Nell’intelligenza artificiale, ciò si ottiene mediante la backpropagation: la regolazione dei parametri di un modello per ridurre l’errore nell’output. Molti ricercatori ritengono che il cervello utilizzi un principio di apprendimento simile.

Tuttavia, il cervello biologico è superiore agli attuali sistemi di apprendimento automatico. Ad esempio, possiamo apprendere nuove informazioni semplicemente vedendole una volta, mentre i sistemi artificiali devono essere addestrati centinaia di volte con le stesse informazioni per apprenderle. Inoltre, possiamo apprendere nuove informazioni mantenendo la conoscenza che già possediamo, mentre l’apprendimento di nuove informazioni nelle reti neurali artificiali spesso interferisce con la conoscenza esistente e la degrada rapidamente».

Sono queste osservazioni che hanno portato i ricercatori a cercare di identificare il principio fondamentale utilizzato dal cervello durante l’apprendimento. Per farlo hanno esaminato alcune serie esistenti di equazioni matematiche che descrivono i cambiamenti nel comportamento dei neuroni e nelle connessioni sinaptiche tra di loro. Hanno analizzato e simulato questi modelli di elaborazione delle informazioni e hanno scoperto che «Impiegano un principio di apprendimento fondamentalmente diverso da quello utilizzato dalle reti neurali artificiali». Nelle reti neurali artificiali, un algoritmo esterno cerca di modificare le connessioni sinaptiche per ridurre gli errori, mentre il cervello umano prima stabilisce l’attività dei neuroni in una configurazione equilibrata ottimale, poi regola le connessioni sinaptiche. I ricercatori ipotizzano che questa sia «Una caratteristica efficiente del modo in cui il cervello umano apprende. Questo perché riduce le interferenze preservando la conoscenza esistente, IL che a sua volta accelera l’apprendimento».

Nello studio i ricercatori di Oxford  descrivono questo nuovo principio di apprendimento, che hanno chiamato “configurazione prospettica” e, grazie a simulazioni al computer, dimostrano cHe «I modelli che utilizzano questa potenziale configurazione possono apprendere più velocemente e in modo più efficace rispetto alle reti neurali artificiali nei compiti che sono tipicamente affrontati dagli animali e dagli esseri umani in natura».

Gli autori dello studio fanno l’esempio di un orso che pesca un salmone: «L’orso può vedere il fiume e ha imparato che se riesce anche a sentire il fiume e ad annusare il salmone è probabile che ne catturi uno. Ma un giorno l’orso arriva al fiume con un orecchio danneggiato, quindi non può sentirlo. In un modello di elaborazione delle informazioni di una rete neurale artificiale, questa mancanza di udito si tradurrebbe anche in una mancanza di olfatto (perché durante l’apprendimento non c’è suono, la propagazione all’indietro cambierebbe molteplici connessioni comprese quelle tra i neuroni che codificano il fiume e il salmone) e l’orso concludere che non c’è salmone e soffre la fame. Ma nel cervello dell’animale, la mancanza di suoni non interferisce con la consapevolezza che c’è ancora l’odore del salmone, quindi è probabile che il salmone sia ancora lì per essere catturato».

I ricercatori hanno sviluppato una teoria matematica che dimostra che «Lasciare che i neuroni si stabilizzino in una configurazione prospettica riduce l’interferenza tra le informazioni durante l’apprendimento» e hanno dimostrato che «La configurazione prospettica spiega l’attività neurale e il comportamento in più esperimenti di apprendimento meglio delle reti neurali artificiali».

Il ricercatore capo,  Rafal Bogacz della MRC Brain Network Dynamics Unit e del Dipartimento di neuroscienze cliniche di Nuffield di Oxford, evidenzia che «Attualmente esiste un grande gap tra i modelli astratti che eseguono configurazioni prospettiche e la nostra conoscenza dettagliata dell’anatomia delle reti cerebrali. La ricerca futura del nostro team mira a colmare il gap tra modelli astratti e cervelli reali e a comprendere come l’algoritmo della configurazione prospettica viene implementato nelle reti corticali identificate anatomicamente».

Il principale autore dello studio, il dottor Yuhang Song, conclude: «Nel caso dell’apprendimento automatico, la simulazione della configurazione futura sui computer esistenti è lenta, perché funzionano in modi fondamentalmente diversi dal cervello biologico. E’ necessario sviluppare un nuovo tipo di computer o di hardware dedicato ispirato al cervello, che sarà in grado di implementare la configurazione potenziale rapidamente e con un consumo energetico minimo».