predizione
 |  | 

La predizione non è più (solo) magia

Facciamo progressi

Mario Gentili

L’ambizione alla conoscenza è sempre stata uno dei motori principali dell’evoluzione. Il desiderio della scoperta, il continuo anelare alla ricerca di soluzioni più performanti ed in grado di assicurarci una vita più vivibile hanno permesso lo sviluppo delle scienze che è sotto gli occhi di tutti.

Nei processi evolutivi possiamo individuare come denominatore comune la necessità della conoscenza del futuro che, almeno storicamente, in alcuni casi ha dato luogo alle pratiche esoteriche della magia.

Nelle civiltà arcaiche coesistono sempre due modi di conoscenza e di azione, l’uno è simbolico, mitologico e/o magico, l’altro è empirico e razionale. Si ritrova questo dualismo anche con l’avvento delle grandi civiltà, come quella egiziana o la babilonese, dove l’aspetto razionale dell’astronomia coesisteva allegramente con l’aspetto mistico e simbolico dell’astrologia. Ma si può affermare che anche la società contemporanea conserva, anche se in termini e dimensioni diversi, il problema dei due pensieri: il Mythos e il Logos.

La predizione è sempre stata affrontata sotto due aspetti. Il primo fa ricorso alle esperienze vissute e quindi si può dire che una cosa accadrà perché, se si conservano i presupposti, è sempre accaduto così. Il secondo pone le sue radici nell’incapacità dell’uomo di spiegarsi dei fenomeni, per cui si fa ricorso a qualcosa che trascende le sue conoscenze: la magia.

Possiamo sicuramente affermare che la mancanza di conoscenza da una parte, e la razionalità del Logos dall’altra, hanno rappresentato la spinta alla ricerca e alla scoperta di un futuro basato sempre più su scienze razionali quali la matematica, la statistica e la probabilità.

Mythos e Logos convergono nella soggettività e nell’interpretazione del nostro cervello, ed è così che, a seguito delle importanti scoperte di inizio del XX secolo sulle funzioni e sull’anatomia del cervello umano, ci si comincia a chiedere se è possibile ottenere un ‘cervello meccanico’.

Alla base dello studio sulle reti artificiali c’è l’ambizione di usare il cervello umano come modello per la progettazione e la realizzazione del calcolatore. A seguito della ricerca neurofisiologica effettuata sulle leggi di attivazione e modificazione neuronale, vengono sviluppati dei modelli matematici la cui caratteristica principale è la capacità di simulare alcuni dei comportamenti più elementari delle reti neuronali biologiche nei problemi di apprendimento e riconoscimento. La struttura di questi modelli, che si differenziano dagli algoritmi tradizionali a carattere sequenziale, è, in analogia con la struttura cerebrale, altamente parallela. Le singole unità di elaborazione, in analogia con le cellule neuronali, sono caratterizzate da una soglia di attivazione ed un valore massimo di accumulo, superato il quale si attiva una funzione di trasferimento dell’informazione. L’informazione elaborata diventa patrimonio dell’intero sistema che si caratterizza così come un ‘organismo’ in grado di apprendere e di adattarsi a nuove situazioni.

Mantenendo l’analogia con l’esempio biologico, le funzioni fondamentali del soma, dell’assone e della ramificazione dendritica con le proprie sinapsi vengono riprodotte rispettivamente dall’unità di elaborazione, dal dispositivo di uscita e dai dispositivi di ingresso, utilizzando ‘pesi di accoppiamento’ variabili per le varie unità, che costituiscono, di fatto, la parte adattiva del sistema artificiale.

Il primo notevole risultato che si ha è che una rete artificiale può contemporaneamente ‘imparare’ da situazioni storiche che gli vengono fornite e ‘predire’, ovvero adattarsi a nuovo comportamenti e situazioni originariamente sconosciute.

Ma perché dovremmo ricorrere ad un ‘mostro meccanico’ per migliorare la nostra conoscenza? La risposta è complessa. Sicuramente uno dei motivi principali è nell’evoluzione dell’informazione che se fino a qualche decennio fa era assente, o patrimonio di pochi asceti che ne facevano motivo di potere, oggi è troppo ingombrante se non dilagante, tanto da doverci difendere da attacchi strumentali quali fake news e manipolazioni studiate ad arte. Altro motivo è rappresentato dai limiti fisici dell’elaborazione del nostro cervello se rapportato alle capacità del calcolo parallelo che oggi un computer di media capacità è in grado di assicurare. Semplificando, per motivi di convenienza ormai utilizziamo le reti artificiali come un’estensione della nostra capacità elaborativa per vedere informazioni nascoste tra i dati e, di conseguenza, predire situazioni altrimenti sconosciute anche alla nostra esperienza. Allo stato attuale della ricerca, esistono solo cinque domande a cui l’analisi scientifica dei dati può risponde in termini di predizione:

  1. È A o B?
  2. È strano?
  3. In che quantità o in che numero?
  4. In che modo sono organizzati i dati?
  5. Qual è il prossimo passo da compiere?

La risposta a ciascuna di queste domande viene fornita da una particolare famiglia o tipologie di reti artificiali o algoritmi genetici. È utile pensare a un algoritmo come una ricetta e ai dati come gli ingredienti. Un algoritmo specifica come combinare e mettere insieme i dati per ottenere una risposta. I computer sono simili ai frullatori. Svolgono la maggior parte del lavoro più impegnativo e lo fanno in modo molto veloce.

Per rispondere alla prima domanda si utilizzano degli algoritmi detti di ‘classificazione’. È utile per qualsiasi domanda che può avere solo due risposte possibili. Ad esempio: sarà possibile percorrere i prossimi 1.000 km con questi pneumatici: Sì o No? La domanda può anche essere riformulata per includere più di due opzioni: È A o B o C o D? E così via.

Alla seconda domanda risponde una famiglia di algoritmi detta ‘rilevamento delle anomalie’. Ad esempio, una banca che rilascia una carta di credito analizza i modelli di acquisto, in modo tale da avvisare gli utenti di possibili episodi di frodi. Addebiti ‘strani’ potrebbero essere acquisti presso un negozio in cui non si effettuano compere abitualmente o acquisti di articoli eccezionalmente costosi.

La terza domanda trova risposta nella famiglia di algoritmi detta ‘regressione’ che effettuano previsioni numeriche. Ad esempio: Quale sarà la temperatura martedì prossimo? Come andrà il quarto trimestre di vendite?

Particolarmente sfidante è la risposta alla quarta domanda, dove non è possibile analizzare degli esempi di cui si conoscono già i risultati. In questo caso si utilizza l’approccio detto ‘clustering’ che separa i dati in insiemi naturali per una loro interpretazione più semplice. Esempi comuni di domande di clustering sono: a quali spettatori piacciono gli stessi tipi di film? Quali modelli di automobile hanno lo stesso malfunzionamento?

Gli studi sull’apprendimento per rinforzo introdotti dal fisiologo russo Ivan Petrovič Pavlov hanno ispirato i modelli che rispondono alla quinta e ultima (per ora) domanda. In questo caso gli algoritmi di apprendimento per rinforzo raccolgono i dati durante i processi, imparando dai tentativi e dagli errori, e stabiliscono l’azione successiva. In genere, l’apprendimento per rinforzo è una buona scelta per i sistemi automatizzati che devono prendere tante piccole decisioni senza la guida umana e sono alla base della robotica.

Concludendo, dobbiamo ormai convivere con un nuovo sciamano: il nostro cellulare!

 

Articoli simili