Da Darwin ai Big Data

Comunicare dati nell’Era della Robotica

Introduzione

Negli ultimi secoli la nostra civiltà ha spostato il proprio focus comunicativo da oralità, riflessi e tendenze speculative ad un “magma” di informazioni di bruciante tenacia scientifica.
Si è passati da una modernità dai ritmi lenti, quieta nella sua laicità senza scossoni, ovattata nei propri solidi valori ad una post-modernità liquida, al passo con i tempi, forgiata nell’ibridazione del mondo reale e virtuale, ma al tempo stesso consapevole della perdita dei valori del passato; una società che sfanga per vivere, per produrre, per dare continue risposte ai bisogni propri e altrui, in un incessante senso di vuoto riempito da “grandi dati” (‘Big data’).
Non c’è dubbio, uno dei vulnus della post-modernità riguarda proprio l’informazione. È evidente che non si tratta solo di un problema di equilibri, di verità o di “spazi” conoscitivi da misurare con improbabili osservatori; faccenda ben più seria riguarda la gestione del sistema dell’informazione.
I big data rappresentano la capacità di usare una grossa mole di informazioni per elaborare, analizzare e trovare riscontri oggettivi su diversi fenomeni; questa trasformazione, questa variazione nel modo di trattare i dati, non è circoscritta alla funzione esposta ma subentra su altri aspetti dell’esistenza umana, come una differente interpretazione del codice linguistico. Così, con l’avvento dell’era robotica, questa tale variazione potrà essere ritrovata nella modifica della semantica, nel fatto che, frequentemente, nei dimostrativi non vi sia distinzione tra umano e non umano mentre, invece, tale distinzione è abituale negli interrogativi: “Chi è quella donna?” “Che cos’è quella cosa?”

Un’analisi dei dati in Darwin

Come in passato, anche odiernamente, si assiste a fenomeni spiegati tramite un calcolo di variabili indissolubilmente intrecciato nella ricerca in modo che possa scaturirne l’autentico, il vero, ciò che si potrà stabilmente confermare.
Ma Darwin va oltre questo processo, oltre la prima vindemiatio del pensiero induttivo e le prime fasi di quello ipotetico-deduttivo.
Egli sostenne:
«Appena ho dei dati importanti non riesco a non fare delle ipotesi che li possano spiegare; può darsi che acquisendo nuovi dati sia costretto ad ammettere che l’ipotesi non stia in piedi. Allora vado avanti, cerco nuovi dati, ma nello stesso tempo mi formulo una nuova ipotesi, e così via, fin quando non ho raggiunto un equilibrio soddisfacente tra i dati che ho a disposizione e l’ipotesi che ho formulato. Agisco così e non posso fare altrimenti».

La visione top-down e bottom-up dell’intelligenza artificiale

Un algoritmo è costituito da una semplice procedura matematica che tenta di risolvere uno specifico problema applicando un determinato numero di passi elementari.
Gli algoritmi stanno avendo successo nel valutare le previsioni di un certo fenomeno, cogliendone i suoi tratti caratteristici. La creazione di algoritmi innovativi, al giorno d’oggi, è legata all’intelligenza artificiale, in cui nel machine learning trovano la loro massima espressione.
Per fare un esempio, in robotica evolutiva (in cui i robot lavorano senza che il programmatore abbia a priori definito con precisione le loro azioni) si cerca spesso di ricreare comportamenti adattivi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente (Fantini, 2014).
Una rappresentazione di come, determinate architetture tecnologiche, siano in grado di dedurre informazioni dai dati imparando dagli stessi e applicando quanto già acquisito nelle elaborazioni successive.
In tutto questo, mentre i primi tentativi dell’intelligenza artificiale erano top-down, ovvero replicare e comprendere il modo umano di essere intelligente e costruire conoscenza sulla base di una intelligenza del fenomeno studiato e la creazione di algoritmi che ricreassero l’intelligenza, oggi, invece, gli algoritmi dell’intelligenza artificiale sono bottom up» (Cristianini, 2006), cioè partono da moltissimi dati, costruiscono previsioni ma senza avere obbligatoriamente una rappresentazione interna del fenomeno, ovvero relazione tra le variabili. Ma non potendo utilizzare un pensiero critico (top-down) nei confronti degli algoritmi, non avendo possibilità di confutazione, questo rappresenta un problema.

Conclusioni

Il mondo non è conosciuto direttamente, ma attraverso la riproduzione delle sue forme in un ambito mentale. La conoscenza non è una relazione ma un processo di copia (Villamira, Mazotti, 2004) che subisce ipotesi, paradigmi, confutazioni in un processo evolutivo che ha, come punto di riferimento, un modo-di-vedere collettivo. La conoscenza e il sapere, nell’era robotica, sono de-finiti da una prospettiva bottom-up, da un “pensiero dall’alto”, in cui l’egemonia dell’intelligenza artificiale più che sostenere l’intelligenza umana, la governa.

Bibliografia

  • Russell, Stuart J., and Peter Norvig. Intelligenza artificiale. Un approccio moderno. Vol. 1. Pearson Italia Spa, 2005.
  • Fantini, Alessandro. Principi e metodi della robotica evolutiva. Diss. 2014.
  • Cristianini, Nello, and Matthew W. Hahn. Introduction to computational genomics: a case studies approach. Cambridge University Press, 2006.
  • Villamira, Marco Alessandro, and Riccardo Manzotti. Comunicazione e sistemi. Psicologia della complessità. Vol. 119. FrancoAngeli, 2004.

 

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.