Computazione Biologica e Simulazione Neurale

Neuroscienze.net

Neurone Biologico nei Paradigmi delle Reti Neurali Artificali

 Abstract

Questi ultimi anni sono stati caratterizzati da un sempre maggiore interesse verso la simulazione (software ed hardware) dei processi computazionali biologici ed è ormai dimostrato che un automa può acquisire nuove esperienze e generalizzarle. Una macchina può quindi essere liberata dall’eseguire in maniera rigida e schematica regole in essa programmate. Attraverso l’implementazione di algoritmi di simulazione neurale è possibile impartire ad una macchina un apprendimento per esempi e poi constatare che a fronte di nuovi target l’automa è in grado di classificarli secondo una delle categorie già apprese.        

 

La simulazione (in genere software) delle reti neurali rappresenta un approccio relativamente recente alle questioni cognitive legate all’intelligenza. Quando si parla di reti neurali ci si riferisce ad un mondo di teorie ed applicazioni assai vasto del quale è difficile descriverne gli aspetti comuni. Sicuramente il minimo comun denominatore tra le tante tipologie di reti neurali va ricercato nel tentativo di simulare matematicamente alcuni “aspetti” della computazione biologica così da poter replicare quelle caratteristiche, connesse all’intelligenza, come l’apprendimento, la memoria ecc. Ovviamente l’enorme complessità dei sistemi nervosi animali ed in particolare dell’uomo con 1011 neuroni e 1015 connessioni, costituisce un limite ancora insuperato della simulazione, ma anche muovendosi in scale assai più ridotte è possibile replicare vari aspetti, interessanti ed utili, della plasticità del cervello. Tale plasticità neuronale, pur essendo sempre legata ad una impalcatura epigenetica, si manifesta nell’apprendimento che l’individuo sperimenta nel confronto continuo con il mondo. Il cervello, continuamente stimolato dal mondo degli agenti, dimostra la propria plasticità sia con variazioni strutturali, connesse alla crescita di nuove fibre nervose e nuove ramificazioni, sia con modificazioni chimiche legate alla variazione di accoppiamento sinaptico. Le reti neurali artificiali simulano quasi esclusivamente la variazione chimica dell’accoppiamento sinaptico attraverso la variazione dei pesi del neurone matematico, anche se in qualità di ricercatore e direttore tecnico dellaNeurotech, ho (assieme al gruppo da me coordinato) iniziato la sperimentazione di algoritmi neurali in grado di simulare la crescita di nuove fibre nervose ritenendo questo aspetto fondamentale alla creazione di reti neurali di nuova generazione. Ma il livello di simulazione matematica costituisce solamente la teoria delle reti neurali, ad essa deve seguire la simulazione software ed hardware che si svolge su di un terreno altrettanto complesso e spesso paradossale. Infatti i calcolatori digitali, legati alle regole della logica digitale, vengono impiegati per simulare l’attività del neurone matematico che svolge, sul segnale dell’input, un’operazione di trasformazione analogica ovvero un filtraggio additivo del segnale. Quindi partendo dal concetto di neurone, che costituisce l’oggetto elementare, si costruisce una grande complessità di interconnessione nella quale viene simulata la distribuzione dei processi di retroazione. Ciò che viene realizzato è quindi un algoritmo connessionista che simula la non linearità della trasformazione dell’informazione. Questo significa che l’informazione nella simulazione delle reti neurali viene distribuita e scomposta ad un livello sub simbolico, diversamente dalla logica dei calcolatori digitali che hanno un approccio simbolico con la conoscenza ed il mondo. L’approccio storico delle reti neurali si basa quindi sulle leggi di attivazione e modificazione del neurone biologico codificate dalla ricerca neurofisiologica. Sulla base dei risultati sperimentali delle neuroscienze, sono stati sviluppati, negli anni, modelli matematici in grado di simulare alcune caratteristiche elementari dei tessuti neuronali quali l’apprendimento, la memoria, il riconoscimento ecc. Basandosi su concetti d’ispirazione biologica, la struttura dei modelli di simulazione neurale si è differenziata profondamente dagli algoritmi di calcolo tradizionale. I calcolatori digitali basati sugli assiomi di Von Neumann, interpretano il calcolo come un processo sequenziale e fortemente centralizzato, ma la struttura celebrale altamente connessionista ha suggerito un’idea di calcolo parallelo. Il neurone matematico in similitudine alle cellule nervose distribuisce e memorizza l’informazione attraverso una funzione di trasferimento non lineare all’interno dell’intero sistema delle interconnessioni. Il primo approccio alle questioni connesse all’intelligenza artificiale si era ispirato alla struttura del calcolatore come modello di funzionamento del cervello. Il risultato di un siffatto parallelismo sottintendeva l’idea di un centro di elaborazione delle attività celebrali in similitudine al Central Processing Unit. Ma la negazione di tale assunto, da parte delle ricerche neurofisiologiche, ha aperto le porte ad un approccio totalmente nuovo e rivoluzionario alla questione. Lo studio delle reti neurali artificiali sta portando avanti l’idea che il cervello possa costituire da modello per il calcolatore. L’informazione nel cervello non è centralizzata in una specifica area ma viene distribuita in ogni suo componente. Seguendo questo schema, le unità di elaborazione artificiali si differenziano negli strati d’ingresso e di uscita in quanto utilizzano pesi di connessione sinaptica variabili. In questa variabilità dei pesi di accoppiamento viene distribuita l’informazione ed elaborata attraverso le funzioni di trasferimento che propagano e retropropagano l’input sino a trasformarlo in output. Sicuramente l’utilizzo più importante delle reti neurali è legato al riconoscimento di pattern sia visivi che acustici. Questo genere di applicazioni hanno primariamente mostrato i limiti della programmazione tradizionale e successivamente  hanno dimostrato le potenzialità della simulazione neurale. Attraverso il modo in cui è affrontato il problema del riconoscimento dei pattern, in relazione all’apprendimento di tali forme, è possibile distinguere le reti neurali artificiali in due famiglie. Abbiamo da un lato le reti neurali ad apprendimento supervisionato e dall’altro le reti neurali ad apprendimento non supervisionato. Nelle reti supervisionate l’apprendimento è vincolato ad un supervisore, ovvero ad un istruttore esterno in grado di pianificare l’apprendimento sotto forma di esempi. Il supervisore fornisce un esempio di pattern ed un target ovvero l’uscita ideale che la rete dovrebbe avere su quel pattern ad apprendimento ultimato. Nella fase di apprendimento il supervisore non fornisce regole (che potrebbe non conoscere) ma esempi la cui correttezza è nota. L’eventuale distanza tra la risposta della rete e il target proposto viene rielaborata dalla rete attraverso un processo di retroazione che ha lo scopo di far avvicinare, in successive iterazioni, l’uscita al target. Nelle reti non supervisionate è la rete stessa che forma delle associazioni tra i pattern creandosi delle rappresentazioni interne. Il neurone è l’unità cellulare fondamentale del sistema nervoso e la sua simulazione rappresenta la struttura fondamentale delle reti neurali artificiali . La struttura fisiologica del neurone è costituita da una corpo centrale, il “soma” , (nel quale è contenuto il citoplasma) che può assumere forma piramidale, rotondeggiante ecc. e dimensioni variabili tra 5 e 120 µm. Il neurone è dotato di due tipologie di diramazioni dette rispettivamente dendriti ed assone. I dendriti ampliano la superficie cellulare aumentando le possibilità di connessioni afferenti con altre cellule; l’assone porta ad altre cellule l’impulso nervoso generato tra i dendriti ed il soma. L’interconnessione tra neurone e neurone è infine mediato dalla sinapsi: una struttura in grado di trasmettere l’impulso nervoso tramite lo scambio biochimico di neurotrasmettitori. Il neurone tipicamente simulato nelle reti neurali artificiali è la cellula piramidale. Tale cellula è composta da un corpo cellulare di forma triangolare (da cui il nome piramidale), da  un lungo assone ed un albero di ramificazioni dendritiche. Il corpo della cellula è rivestito da una membrana che, attraverso numerosi canali microscopici, consente la comunicazione di ioni positivi e negativi tra l’interno e l’esterno della cellula. L’apertura e la chiusura di tali canali dipende principalmente dagli input ricevuti dalle altre cellule. Tramite le diramazioni dendritiche, la cellula riceve i segnali provenienti da altre cellule. Questi segnali, come già accennato, non sono inviati direttamente alla cellula ma mediati dalle sinapsi che connettono agli assoni delle altre cellule. L’albero dendritico ha il compito quindi di raccogliere gli input provenienti da molte cellule e di integrarli per trasmetterli all’interno della cellula. Gli input che la cellula riceve possono essere sia di tipo eccitatorio che di tipo inibitorio. Molto genericamente si può schematizzare il fenomeno dicendo che se la cellula viene eccitata dagli stimoli oltre una certa soglia allora scaricherà il segnale lungo l’assone alle cellule interconnesse. Tale segnale sarà costituito da una serie di brevi impulsi elettrici con frequenza proporzionale all’eccitazione della cellula, in genere tra i 100 e i 500 impulsi al secondo. I neuroni mantengono comunque un’attività spontanea di 10 impulsi al secondo anche quando non sono eccitati o inibiti. Il segnale viene trasmesso dall’assone del neurone al dendrite di un altro neurone tramite le sinapsi il cui numero può variare da alcune centinaia a molte migliaia. La sinapsi modula la trasmissione dell’impulso al neurone ricevente in modo tale che il segnale ricevuto dipenderà dall’intensità dell’impulso afferente per il valore dell’efficacia sinaptica. Numerose osservazioni sulla neurofisiologia del neurone hanno dimostrato che le variazioni dell’efficacia sinaptica gioca un ruolo importante nel fenomeno della memoria. Sulla base delle osservazioni sperimentali nate in seno alla neurofisiologia si venne via, via affermando una modellizzazione che sembrava suggerire che tra le due cellule nervose interconnesse l’impulso nervoso fosse sempre completo o nullo. Sulla base di questa modellizzazione, nel 1943 McCulloch e Pitts proposero una schematizzazione della cellula nervosa che è tutt’ora (nonostante i molti contributi al riguardo) alla base dell’equazione di attivazione utilizzata nella simulazione neurale. Il neurone veniva matematicamente descritto come un sistema a soglia binaria con uscita a due stadi 0 ed 1.

 

Bibliografia  

  • Rosenblatt, F. (1962). Principles of Neurodynamics, New York, Spartan Books. 
  • Minsky, M. & Papert, S. (1969), Perceptrons. Cambridge, MA: MIT Press.
  • Haykin, S. (1998). Neural Network: A Comprehensive Foundation. Prentice Hall, Englewood Cliffs, NJ.
  • Nilsson, N.J. (1998). Intelligenza Artificiale. Milano: APOGEO

Scarica il PDF 

Share

Francesco Carlino

Lascia un commento