Il Computer Umano

La teoria computazionale della mente:
tra cognizione naturale e artificiale

«L’essenza del mentale
è la capacità di far funzionare
un sistema fisico di simboli.»

Newell (1980)

 

Osservo il computer. Scrivo una parola sul motore di ricerca. Procedo con un click e attendo il riscontro.

Questa procedura così semplice, per molti quotidiana, racchiude un’analogia nonché un parallelismo tra la mente umana e quella artificiale.

Sezionando in due parti la circostanza descritta possiamo constatare che: a) prima di immettere la parola nel motore di ricerca la nostra mente ha prodotto dei pensieri (stati mentali) per conseguire un risultato. b) Dopo il click, il computer, tramite programmi, “pensa” a come raggiungere l’obiettivo imposto.

Ma che differenza c’è in termini di pensiero tra un soggetto umano e un computer?

Dalla prospettiva della mente: l’immagine, il ragionamento, il ricordo, l’intenzione. Dalla prospettiva del computer: 01 01 10 11.

Ma in questa interazione uomo/computer (HCI: human-computer interaction) cosa si può definire cognizione naturale e cognizione artificiale?

 

Il concetto di computazione

La computazione riguarda un modo per analizzare sintatticamente l’informazione (Licata, 2003).

Il modello computazionale della mente rappresenta l’espressione della tendenza a risolvere il dualismo cartesiano riducendo gli stati mentali ad un problema computazionale, e quindi al software di un computer (Azzone, 2003). La teoria computazionale della mente (TCM) combina una teoria rappresentazionale della mente (TRM) con il calcolo computazionale del ragionamento (CAR), perché il pensiero si manifesta come un sistema rappresentazionale sintatticamente strutturato (Smart, Thagard, 2006).

Gli approcci cognitivisti corrispondono al classico e ancora comune punto di vista secondo il quale “la cognizione è un tipo di computazione” definita da rappresentazioni simboliche e i sistemi cognitivisti “istanziano tali rappresentazioni fisicamente come simboli e […] il loro comportamento è una conseguenza causale di operazioni effettuate su tali simboli (Pylyshyn, 1984)”.

 

Turing e il computer umano

Il concetto di Turing di una macchina di calcolo, a sua volta, ci mostra come collegare la sintassi alla causalità, in quanto è possibile progettare un meccanismo in grado di valutare qualsiasi funzione formalizzabile (…) ovvero delimitare la classe di funzioni che sono “computabili” nel senso tecnico di essere decidibili o valutabili dall’applicazione di una procedura o di un algoritmo. Molti processi fisici e biologici possono altresì essere caratterizzati in termini algoritmici; non tutte le funzioni matematiche sono computabili in questo senso; e mentre questo fu conosciuto dai matematici nel 19° secolo, non fu fino al 1936 che Alan Turing propose una caratterizzazione generale della classe delle funzioni computabili. È in questo contesto che ha proposto la nozione di una “macchina di calcolo”, una macchina che fa le cose analoghe a ciò che un matematico umano fa per “computare” una funzione. L’intuizione di base qui è che tutte le operazioni sensibili solo alla sintassi possono essere duplicate (o forse simulate) meccanicamente. La formalizzazione e il calcolo sono quindi strettamente correlati, e insieme forniscono il risultato che il ragionamento che può essere formalizzato può anche essere duplicato (o simulato) dal giusto tipo di macchina. Turing stesso sembra aver pensato che una macchina operante in questo modo avrebbe fatto letteralmente le stesse cose che i compiti eseguiti dall’uomo fanno – che sarebbe “duplicare” quello che fa il computer umano (Horst, 2011).

 

La macchina di Turing

La macchina di Turing, in sostanza, si identifica con un insieme di istruzioni volte a modificare i simboli in ingresso per pervenire al risultato finale e può calcolare le funzioni ricorsive. Ciò significa che, dimostrando come un problema può essere risolto da una macchina di questo tipo, si dimostra che esso può essere risolto in generale mediante metodi computazionali. Con la sua macchina, dalle caratteristiche non dissimili da quelle di un attuale computer digitale, Turing intervenne anche nel dibattito sull’Intelligenza Artificiale (IA), inteso ad accertare se il comportamento umano possa essere spiegato in termini computazionali e se a un elaboratore possa essere attribuita la capacità di “pensare” (Licata, 2008).                                                                                                                                  L’esperimento mentale da lui proposto significa che una macchina che sia in grado di dialogare con un uomo, senza che questi si accorga di stare parlando con una macchina, testimonia della presenza di una macchina pensante ed è questo il modo in cui è stato in seguito interpretato il Test di Turing (Bianchini, 2007).

 

Bibliografia

  1. Newell, A. (1980). Physical symbol systems. Cognitive Science, 4: 135-183.
  2. Licata, Ignazio. “Mente & computazione.” Sistema Naturae, Annali di Biologia Teorica5 (2003).
  3. Azzone G.F., La moralità come adattamento. Altruismo degli animali e moralità degli esseri umani,ZADIG,Milano 2003.
  4. Di J. J. Smart, Paul Thagard, Identità e rappresentazione. Scienza cognitiva e teorie della mente; Stamen edizioni, 2006.
  5. Pylyshyn, Z.W., (1984). Computation and cognition: Towards a foundation for cognitive science. MIT Press, Cambridge, MA.
  6. Horst, Steven. “The computational theory of mind.” Stanford Encyclopedia of Philosophy(2011).
  7. Licata, Ignazio.(2008) La logica aperta della mente. Torino: Codice.
  8. Bianchini, Francesco. “L’IA e il linguaggio fra storia ed epistemologia.” (2007): 23-65.

 

Torna a trovarci nei prossimi giorni per altri articoli sul Cognitive Computing!

4 Responses

  1. interessante..penso a un loop dove la macchina convince se stessa, anzichè solo gli umani lá fuori, che essa esiste e pensa. Semplicemente parlando a sè stessa.In tal caso potremmo dire Ella esiste, c’è qualcuno dentro!

  2. Nel corso degli anni ’50 del novecento, quando gli equilibri mondiali dipendevano da due super-potenze, Stati Uniti e Unione Sovietica, prendono corpo tre progetti: la manipolazione del materiale genico, la colonizzazione dello spazio e la creazione di macchine intelligenti. Il primo progetto si delinea grazie alla teoria cromosomica dell’ereditarietà (il materiale genetico è costituito da DNA e non da proteine → Hershey-Chase, 1952) e alla scoperta della struttura molecolare del DNA (J. Watson, F. Crick, M. Wilkins e R. Franklin, 1952). Il secondo progetto si concretizza quando i sovietici lanciano il primo satellite artificiale in orbita intorno alla Terra, lo Sputnik 1 (1957). Il terzo progetto si fa strada quando un giovane matematico americano, non ancora trentenne, John McCarthy, propose di creare un gruppo di lavoro che si occupasse di un nuovo campo di ricerca, che lui chiamò Intelligenza Artificiale (1956).
    Un gruppo di lavoro che oggi ha assunto proporzioni mondiali e che: is conducted by a range of scientists and technologists with varying perspectives, interests, and motivations. Scientists tend to be interested in understanding the underlying basis of intelligence and cognition, some with an emphasis on unraveling the mysteries of human thought and others examining intelligence more broadly. Engineering-oriented researchers, by contrast, are interested in building systems that behave intelligently. Some attempt to build systems using techniques analogous to those used by humans, whereas others apply a range of techniques adopted from fields such as information theory, electrical engineering, statistics, and pattern recognition. Those in the latter category often do not necessarily consider themselves AI researchers, but rather fall into a broader category of researchers interested in machine intelligence.

    Ognuno di questi tre progetti verrà sviluppato separatamente sia dagli americani che dai sovietici, ma sarà l’academic/industrial/military iron triangle statunitense a dimostrare di possedere maggiore vigore quando, nel 1958, fonda l’Advanced Research Projects Agency (ARPA), erede dell’OSRD (Office of Scientific Research and Development, creato nel 1941) e futura Defense Advanced Research Projects Agency (DARPA 1972, agenzia governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie per uso militare).

    La locuzione Artificial Intelligence, coniata da McCarthy, sta ad indicare una nuova e promettente frontiera della moderna Information Theory. L’Information Theory, è una disciplina nata nell’ambito delle Telecomunicazioni tra gli anni ’20 e ’30 del XX secolo, in particolare grazie ai lavori di ricerca e alle soluzioni militari (telecomunicazione crittografata e non) sperimentate durante la prima guerra mondiale, il cui sviluppo e la cui fortuna si consoliderà, sempre grazie al contributo fornito dalla ricerca e dalle applicazioni in ambito militare, nel corso della seconda guerra mondiale. Decisivo ai fini della elaborazione della versione contemporanea della Teoria dell’Informazione, fu il lavoro condotto tra gli anni ’40 e ’50 e separatamente da Claude Shannon (The Mathematical Theory of Communication) e da Norbert Wiener (Cybernetics).

    Il termine intelligenza utilizzato per distinguere la nuova frontiera di ricerca dell’Information Theory, riesuma lo stesso termine impiegato da uno dei pionieri della teoria dell’informazione, Harry Nyquist, della American Telephone and Telegraph Company (AT&T). Nel 1924 Nyquist pubblica un articolo sul Bell System Technical Journal dal titolo Certain Factors Affecting Telegraph Speed, dove tratta dei fattori che condizionano la “maximum speed of transmission of intelligence”. Per gli addetti ai lavori dell’epoca, il termine metaforico “intelligence” utilizzato da Nyquist in relazione alla trasmissione di un segnale elettromagnetico, apparve improprio e fuorviante, compromesso da riferimenti antropomorfici e psicologici incompatibili con la materia trattata. La trasmissione di segnali tra macchine (coder/decoder), ovvero l’invio e la ricezione di variazioni di stato elettromagnetiche attraverso un mezzo (via etere o via cavo), non poteva essere in alcun modo confusa con la trasmissione di significati (messaggi) né poteva essere associata a proprietà intellettive come la abilità di apprendere, analizzare, comprendere, comunicare, fare progetti, ragionare, ipotizzare, trarre conclusioni, formulare pensieri astratti, risolvere problemi, etc. A quattro anni di distanza dalla pubblicazione dell’articolo di Nyquist, un suo collega del Bell Telephone Laboratories Inc., Ralph V.L. Hartley, pubblica un articolo sul Bell System Technical Journal dal titolo Transmission of Information, dove la metafora intelligence viene sostituita, per ragioni di “physical as contrasted with psychological considerations”, dalla metafora information.
    Ma cosa intendeva Nyquist con il termine intelligenza? Di fatto niente che potesse avere a che fare con proprietà intellettive come quelle sopra elencate, o che potesse attribuire ad un segnale un contenuto semantico. Con il termine intelligenza Nyquist si riferisce alla componente statisticamente determinata e decifrabile di un segnale aleatorio (in altre parole si riferisce ai dati immessi, veicolati e resi disponibili da un segnale analogico, che Nyquist qualifica come “the number of characters, representing different letters, figures, etc.”, trasmessi in un certo arco di tempo), la cui trasmissibilità (senza perdita di intelligenza ovvero di dati) da un dispositivo trasmittente (coder) ad uno ricevente (decoder) dipende dal grado di risoluzione dell’incertezza (associata al rumore intrinsecamente generato dal mezzo trasmissivo o dagli apparati coinvolti) ottenuto nella trasmissione del segnale.

    In realtà, il modello di intelligenza (e il modello cognitivo in generale) perseguito dalla ricerca sulla AI è costruito a immagine e somiglianza di quello sviluppato dalla Teoria dell’Informazione, dalla Cibernetica e dall’Informatica nell’ambito delle telecomunicazioni, derivato da sistemi algoritmici di feedback-loops che non hanno niente a che vedere con l’intelligenza umana, ma che invece hanno molto in comune con il modello di animale descritto da Denis Diderot [On the Interpretation of Nature (1753)] e con il modello di essere umano concepito da Descartes [Treatise on Man (1633)].

    Nella migliore delle ipotesi, le performance delle cosiddette macchine intelligenti sono e resteranno una simulazione delle capacità manifestate da alcuni individui affetti dalla sindrome del savant (savant syndrome), o sindrome dell’idiot savant, dove con idiota ci si riferisce a un individuo (generalmente di sesso maschile) affetto da una serie di più o meno gravi ritardi cognitivi e mentali, ma che presenta una o più di una capacità super-sviluppate, tipicamente la capacità di calcolo e di memorizzazione. Questo è tutto quello che una macchina intelligente può e potrà aspirare a fare: simulare artificialmente la sindrome del savant (ASSS, Artificial Simulation of the Savant Syndrome) [56].
    Se ciò è corretto, perché la ASSS viene declamata come AI?
    Inseguire la realizzazione di idridi uomo-macchina, immaginandoli come un primo passo verso la produzione di umanoidi artificiali, programmati per entrare a far parte dei CPSs (Cyber Physical Systems), interconnessi da reti neurali dotate di AI, è un progetto concepito e alimentato dal tecno-scientismo progressivo di ultima generazione nel grembo del neo-positivismo. La AI è la versione 3.0 dell’anima razionalista cartesiana: “When a rational soul is present in this machine it will have its principal seat in the brain, and reside there like the fountain-keeper”. Un progetto che non rinuncia a trattare l’animale umano come un sistema meccanico che, per quanto complesso possa essere, è sempre riducibile ad un mosaico di unità costitutive (buildig blocks), e ad applicare alla res cogitans lo stesso schema riduzionistico e meccanicistico applicato dal paradigma positivista alla res extensa: la strutturazione degli oggetti e dei fenomeni che osserviamo dentro e fuori di noi, avviene grazie ad una sequenza di combinazioni (fattorizzabili), guidata da un codice (algoritmico), tra determinati elementi strutturali (building blocks). Nel caso di un oggetto materiale gli elementi strutturali possono essere molecole, atomi, particelle. Nel caso di un oggetto fittizio come l’intelligenza possono essere, ad es.. l’intelligenza logico-matematica, l’i. verbale, l’i. spaziale, l’i. musicale, l’i. cinestesica, l’i. emotiva (Howard Gardner), a loro volta scomponibili in sotto-gruppi, e chi più ne ha più ne metta. Una volta scomposto in elementi strutturali oggettivabili, l’oggetto potrà essere sottoposto a misurazione ed eventualmente riprodotto e controllato.
    Il risultato è un puzzle composto da tanti elementi collegati ad incastro in una cornice meccanica (fattorizzabile) che produce una data funzione.

  3. Nel mondo della globalizzazione dei mercati, della destabilizzazione sociale e degli scontri armati, dei droni controllati a distanza grazie ad un Advanced Drone Interfacing System, dei robot antropomorfi interfacciati nel Cloud Machine, degli assistenti vocali interconnessi nel cloud environment supportato da un neural net, un mondo dove la scienza dell’artificiale (necrofilia?) e l’auto-referenzialità della tecnologia godono di un indice di gradimento e di consenso senza precedenti, la scienza e la tecnologia devono (imperativo) soddisfare l’incalzante richiesta di strumenti pervasivi, persuasivi e invasivi, sempre più sofisticati e innovativi, che possano garantire a chi li detiene il controllo….. Controllo di cosa? Di tutto quello che può essere controllato. Controllare è il mantra del terzo millennio. E come?? Attraverso la computerizzazione della vita sociale, ad ogni livello e in ogni settore: “If the seventeenth and early eighteenth centuries are the age of clocks, and the later eighteenth and the nineteenth centuries constitute the age of steam engines, the present time is the age of communication and control”, scriveva Norbert Wiener, il padre della Cibernetica, a cui fanno eco le parole di Frank Rose: “The computerization of society……has essentially been a side effect of the computerization of war”. La globalizzazione della computerizzazione è un progetto pianificato negli ambienti militari a stelle e strisce durante gli anni della Guerra Fredda, che offre a chi la gestisce la possibilità di controllare tutto quello che si regge sui processi informatici. L’Intelligenza Artificiale (AI, Artificial Intelligence) fa parte di questo progetto. Le scienze cognitive e le discipline che sono direttamente o indirettamente coinvolte nello studio, nella interpretazione e nella descrizione del fenomeno mentale (la res cogitans di cartesiana memoria), possono contare su una vasta schiera di scienziati, di ricercatori, di studiosi e di addetti ai lavori che a vario titolo e in varia misura si sono uniformati a questo progetto. Il risultato è un lavoro di copia e incolla senza onore e senza gloria. Piuttosto che ridimensionare drasticamente le possibilità di applicazione del modello a cui si ispirano (quello positivista, meccanicistico e riduzionistico, secondo il quale la res cogitans è una entità fittizia, non oggettivabile, e in quanto tale non è di alcun interesse per la scienza), ed elaborare nuovi strumenti metodologici nella investigazione della realtà, questi signori hanno copiato il modello computazionale su cui si basa la AI e lo hanno applicato alla biologia, alla genetica, alla psicologia, alla psichiatria, alla antropologia, alla etologia, alla neuroscienza, così da rendere il fenomeno mentale oggettivabile, un fenomeno che da quando è regolato dalle stesse leggi che regolano la trasmissione dei segnali nelle telecomunicazioni e la programmazione informatica non è più così fittizio come sembrava. La realtà in vivo è stata falsificata a immagine e somiglianza della realtà in vitro, artificiale.
    Noncuranti del fatto che “the brain is not a bundle of neurons dissected in a laboratory but exists within an organism which is essentially carrying on its own auto-regulation, its nutrition and self-preservation, which feels hunger and thirst and needs social relations, while continually permeated, interwoven, by emotions, sentiments, needs, desires” [In: A conversation of Sergio Benvenuto with Francisco Varela, Consciousness in the Neurosciences, 2002, available at: http://www.psychomedia.it/jep/number14/varela.htm%5D, questi esperti di scienza dell’artificiale insistono nel voler localizzare le funzioni cerebrali in questa o in quella area e rete neuronale, in questa o in quella struttura sub-cellulare (es. microtubuli) o inter-cellulare (sinapsi), in questa o in quella sequenza deterministica o probabilistica di informazioni (codice), e non contenti di ciò arrivano a riesumare la visione adulto-metrica, sessista e razzista di certa tradizione pseudo-scientifica del passato, secondo la quale “il neonato umano è un essere decerebrato dotato di riflessi” (Paul Emil Flechsig, 1847-1929), e “il cervello del negro possiede un midollo spinale del tipo trovato nei bambini e nelle donne, e oltre a ciò, si avvicina al tipo di cervello trovato nelle scimmie antropomorfe superiori” (Emil Huschke, 1797-1858), per tornare a screditare il livello cognitivo di un bambino associando il suo Quoziente di Intelligenza (IQ, Intelligence Quotient), non più a quello di un essere decerebrato o di una scimmia antropomorfa, ma a quello di un elaboratore, alias macchina intelligente.
    È quello che è stato fatto nel 2013, ad es., da un team di esperti di AI della Università dell’Illinois a Chicago (UIC), che ha ideato e condotto uno studio – Artificial and natural knowledge researchers IQ-tested one of the best available artificial intelligence systems and learned that it’s about as smart as the average 4-year-old [University of Illinois at Chicago, Computer as smart as a 4-year-old? Researchers IQ test new artificial intelligence system, ScienceDaily, 15 July 2013:
    http://www.sciencedaily.com/releases/2013/07/130715151059.htm ] – il cui scopo era di valutare il grado di “intelligenza” (sig!) del super elaboratore ConceptNet 4, mediante la somministrazione alla macchina di una parte di un noto test di IQ, utilizzato per l’IQ test di bambini di età compresa tra i due anni e sei mesi e i sette anni e sette mesi, il Wechsler Preschool and Primary Scale of Intelligence Test (WPPSI), ideato nel 1967 dallo psicologo americano David Wechsler, già ideatore della Wechsler Intelligence Scale for Children (WISC, 1949) e della Wechsler Adult Intelligence Scale (WAIS, 1955). Lo studio ha stabilito (?) che ConceptNet 4 avrebbe un IQ paragonabile a quello di un bambino di quattro anni.
    Oltre ad offendere l’intelligenza dei bambini in età pre-scolare, studi come questo servono solo ad aggiungere ulteriori “prove” a vantaggio della deliberata azione di depistaggio che viene condotta da anni vannevariano (Vannevar Bush, 1947) “academic/industrial/military iron triangle”[Vedi: Norbert Wiener, “Men, Machines, and the World About”, in Medicine and Science, 13-28, New York Academy of Medicine and Science, ed. I. Galderston, New York: International Universities Press, 1954.
    http://21stcenturywiener.org/wp-content/uploads/2013/11/Men-Machines-and-the-World-About-by-N.-Wiener.pdf ], con il sostegno degli ambienti militari e dei mezzi di comunicazione di massa, per nascondere la verità sulla AI.
    Una verità che è sotto gli occhi di tutti, e che si colloca nel solco tracciato dal processo di integrazione uomo-macchina avviato dalla Rivoluzione Industriale settecentesca.

    Il profilo che viene fornito della res cogitans deve essere funzionale alla moderna applicazione dell’insegnamento impartito alla storia dalla Rivoluzione Industriale settecentesca, e cioè che grazie alle macchine, grazie ad una applicazione mirata, imprenditoriale, specialistica e soprattutto militare della tecnologia, si aprono prospettive di guadagno e di benessere (ma anche di distruzione e di morte, però su questo è meglio sorvolare) impensabili senza di esse, una vera e propria Eldorado tecnologica. L’Intelligenza Artificiale appartiene, di fatto e di diritto, al processo di integrazione uomo-macchina che ha fatto della realtà virtuale uno dei suoi terreni di caccia, e di pascolo, preferiti.

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.