Attenzione: nel tuo browser javascript è disattivato!
I contenuti di questo sito restano disponibili, ma con javascript la tua esperienza sarà molto migliore.
Segui le istruzioni per attivare javascript nei browser desktop e mobile e poi ricarica questa pagina.

Divenire

Rassegna di studi interdisciplinari sulla tecnica e sul postumano

LA RIVISTA

Presentazione

Divenire è il titolo di una serie di volumi incentrati sull'interazione tra lo sviluppo vertiginoso della tecnica e l'evoluzione biologica dell'uomo e delle altre specie, ovvero votati allo studio dei rapporti tra la tecnosfera e la biosfera. Gli autori, provenienti da diverse aree disciplinari e orientamenti ideologici, sviluppano la propria analisi con occhio attento al probabile esito finale di queste mutazioni casuali o pianificate: il postumano. Sono dunque studi che sul piano temporale spaziano nel presente, nel passato e nel futuro, mentre sul piano della prospettiva disciplinare sono aperti a idee e metodi provenienti da diverse aree di ricerca, che vanno dalle scienze sociali alle scienze naturali, dalla filosofia all'ingegneria, dal diritto alla critica letteraria.

Ogni volume ha quattro sezioni. In Attualità compaiono studi attinenti a problematiche metatecniche del presente. Genealogia è dedicata a studi storici sui precursori delle attuali tendenze transumanistiche, futuristiche, prometeiche — dunque al passato della metatecnica. In Futurologia trovano spazio esplorazioni ipotetiche del futuro, da parte di futurologi e scrittori di fantascienza. Libreria è dedicata ad analisi critiche di libri su tecnoscienza, postumano, transumanesimo.
I volumi pubblicati finora (ora tutti leggibili in questo sito):

  1. D1. Bioetica e tecnica
  2. D2. Transumanismo e società
  3. D3. Speciale futurismo
  4. D4. Il superamento dell'umanismo
  5. D5. Intelligenza artificiale e robotica

Divenire 5 (2012) è interamente dedicato all'Intelligenza Artificiale (IA).

Intelligenze artificiose (Stefano Vaj) sostiene che il tema dell'automa (esecuzione di programmi antropomorfi o zoomorfi su piattaforma diversa da un cervello biologico) resta tuttora circondato da un vasto alone di misticismo: quando non viene negata in linea di principio la fattibilità dell'IA, ne viene esagerata escatologicamente la portata. (english version)

La maschera dell'intelligenza artificiale (Salvatore Rampone) indaga gli equivoci concettuali sottostanti alla domanda se una macchina abbia intelligenza o possa pensare e spiega perché l'IA debba nascondersi sotto la maschera del Soft computing.

Il problema filosofico dell'IA forte e le prospettive future (Domenico Dodaro) Analizza il tema della coscienza  semantica mettendo in luce i suoi  aspetti corporei e considera la possibilità di implementarli in sistemi artificiali. Sono valutati sia i limiti tecnologici e computazionali della riproduzione artificiale della coscienza (intesa come una facoltà del vivente) sia i programmi di ricerca più fecondi al fine di arginarli.

Cervelli artificiali? (Emanuele Ratti) espone il progetto di ricerca forse più ardito nel campo dell'IA che emula funzioni e organi biologici: il cervello artificiale di Hugo de Garis, introducendo concetti chiave di questo settore disciplinare come rete neurale e algoritmo genetico.

>

Presentazione

Automi e lavoratori. Per una sociologia dell'intelligenza artificiale (Riccardo Campa) sposta l'attenzione sull'impatto economico e sociale della computerizzazione e della robotizzazione. Quali effetti sull'occupazione e quali correttivi per massimizzare i benefici e minimizzare gli effetti indesiderati? Proiettando il tema nel futuro, vengono analizzati i possibili scenari, in dipendenza di diverse politiche (o non-politiche) dello sviluppo tecnologico.

Il nostro cervello cinese (Danilo Campanella) riporta l'origine dei calcolatori moderni all'antica Cina. Utilizzando matematica, teologia e misticismo, i cinesi elaborarono i primi rudimenti del linguaggio binario, poi rubato dagli occidentali.

Alan Turing: uno spirito transumanista (Domenico Dodaro) Sono esposte le ragioni per cui Turing può essere definito un pensatore transumanista. Il matematico inglese è in genere descritto solo come padre dell'IA tradizionalmente intesa. L'analisi dell'autore dimostra invece la sua vicinanza ai temi delle "nuove scienze cognitive" e della computazione complessa (o ipercomputazione).

Passato, presente e futuro dell'Intelligenza Artificiale (Bruno Lenzi). L'articolo mostra, su un arco temporale molto ampio, fallimenti, riuscite, pericoli e scoperte delle scienze cognitive, sottolineando che l'IA non è questione solo tecnico-scientifica, racchiude germogli e frutti maturi in ogni area del sapere, e potrebbe essere molto diversa dall'intelligenza umana.

Post-embodied AI (Ben Goertzel). L'autore, uno dei principali sostenitori dell'AI forte, analizza la questione filosofica dell'embodiment: una intelligenza artificiale forte (capace di risolvere problemi in domini nuovi, di comunicare spontaneamente, di elaborare strategie nuove) deve necessariamente avere un body?

Nanotecnologia: dalla materia alle macchine pensanti (Ugo Spezza) spiega questo ramo della scienza applicata che progetta nanomacchine e nanomateriali in molteplici settori di ricerca: biologia molecolare, chimica, meccanica, elettronica ed informatica. L'articolo presenta le applicazioni già esistenti e le fantastiche potenzialità progettuali, dai nanobot per il settore medico ai neuroni artificiali.

Verso l'Intelligenza artificiale generale (Gabriele Rossi) introduce la Matematica dei Modelli di Riferimento degli iLabs ed esplora i potenziali vantaggi di questa prospettiva alla luce di alcune questioni teoriche di fondo che pervadono tutta la storia della disciplina.

Ich bin ein Singularitarian (Giuseppe Vatinno) è una recensione di La singolarità è vicina di Ray Kurzweil.

NUMERI DELLA RIVISTA

Divenire 1. Bioetica e tecnica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 2. Transumanismo e società

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 3. Speciale futurismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 4. Il superamento dell'umanismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 5. Intelligenza artificiale e robotica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

RICERCHE

1

2

3

4

CHI SIAMO

Comitato scientifico

Riccardo Campa
Docente di metodologia delle scienze sociali all'Università Jagiellonica di Cracovia
Patrizia Cioffi
Docente di neurochirurgia all'Università di Firenze
Amara Graps
Ricercatrice di astronomia all'Istituto di Fisica dello Spazio Interplanetario
James Hughes
Docente di sociologia medica al Trinity College del Connecticut
Giuseppe Lucchini
Docente di statistica medica all'Università di Brescia
Alberto Masala
Ricercatore di filosofia all'Università La Sorbonne (Paris IV)
Giulio Prisco
Vice-presidente della World Transhumanist Association
Salvatore Rampone
Docente di Sistemi di elaborazione delle informazioni all'Università degli studi del Sannio
Stefan Lorenz Sorgner
Docente di filosofia all'Università di Erfurt
Stefano Sutti
Docente di diritto delle nuove tecnologie all'Università di Padova
Natasha Vita-More
Fondatrice e direttrice del Transhumanist Arts & Culture H+ Labs

Ait

L'AIT (Associazione Italiana Transumanisti) è un'organizzazione senza scopo di lucro con la missione di promuovere, in ambito culturale, sociale e politico, le tecnologie di potenziamento dell'essere umano.

Fondata nel 2004, è stata formalizzata mediante atto pubblico nel 2006 ed ha avviato le pratiche per ottenere il riconoscimento.

Sede legale AIT: via Montenapoleone 8, 20121 Milano

Sito internet AIT: www.transumanisti.it (>)

Pubblica questa rivista: Divenire. Rassegna di studi interdisciplinari sulla tecnica e il postumano

Curatore: Riccardo Campa

Segretaria di redazione: Nicoletta Barbaglia

Art director: Emmanuele Pilia (>)

Gruppo di Divenire su Facebook: (>)

Contatti

Puoi contattare la Redazione di Divenire compilando questo modulo (tutti i campi sono necessari)

Il problema filosofico dell'IA Forte e le prospettive future

Autore: Domenico Dodaro

da: Divenire 5, Attualità () | pdf | stampa

Un quesito filosofico sul quale i transumanisti devono interrogarsi è quello che riguarda la plausibilità di un'Intelligenza Artificiale Forte. Come è noto questa espressione è stata introdotta nel dibattito scientifico dal filosofo americano John Rogers Searle (1980) che ha distinto i programmi di ricerca dell'IA in base alla loro ambizione. Da una parte vi sono quei teorici che ritengono che le menti delle specie viventi siano simili al software che gira in un calcolatore – e quindi siano riproducibili meccanicamente seguendo gli stessi principi che guidano l'implementazione di un programma per calcolatore. Da un altro versante vi sono quegli scienziati cognitivi che abbracciano una visione più debole delle potenzialità dell'IA, ritenendo che l'ingegneria della conoscenza può essere utile per comprendere alcuni aspetti cognitivi delle menti biologiche senza per questo rappresentare una riproduzione delle facoltà pensanti. I primi teorici, stando a Searle, sostengono la tesi dell'IA forte, i secondi la tesi dell'IA debole 1 .

In questo articolo intendo esaminare tale problema filosofico da più angolazioni: da un lato mi interrogherò sulla natura degli stati e delle rappresentazioni mentali e sulla loro intenzionalità, dall'altro – prendendo inizialmente per buono il test di Turing che vuole che a una macchina parlante sia riconosciuta intelligenza – mi chiederò cosa vuol dire saper usare una lingua e mi interrogherò sulla natura dei significati delle parole. Solo chiariti questi aspetti è infatti possibile rispondere alla domanda finale dell'ancoraggio simbolico 2 . Nella parte construens indicherò qual è a mio avviso il programma di ricerca più adatto per realizzare una mente artificiale. Questa analisi comporterà un'introduzione al dibattito delle "macchine pensanti", sebbene eviterò in questa sede di ripercorrere la sua storia a partire dagli albori 3 e mi concentrerò fin dal prossimo paragrafo sul momento che ritengo cruciale: l'ideazione della Macchina di Turing e il test di Turing.

La macchina e il test di Turing

L'invenzione della macchina di Turing (MT) rappresenta senza dubbio il passaggio nel quale ogni domanda filosofica relativa alle ambizioni dell'IA trova una sua sistematizzazione. Nel 1936 il matematico Alan Turing ideò un metodo astratto di calcolo in grado di computare ogni funzione debitamente sottopostagli. Il progetto era realizzato semplicemente con carta e penna. Immaginiamo un sistema meccanico in grado di eseguire operazioni: esso consta di un nastro di carta scorrevole potenzialmente infinito e diviso in caselle, e di un dispositivo capace di leggere, scrivere e cancellare le informazioni presenti sul nastro, oltre che di spostare il nastro verso destra o sinistra e infine in grado di arrestarlo. Tale dispositivo dispone di un inventario di stati interni (symbols of the second kind) e legge e manipola stringhe composte da cifre (figures) di 0 e 1. Una MT funziona così: 1) il dispositivo meccanico legge una stringa finita di cifre; 2) a tale stringa è associata una regola predeterminata dal programmatore; 3) il dispositivo risponde alla regola compiendo alcune delle seguenti operazioni: cancellazione delle cifre presenti sulla casella del nastro esaminata, scrittura di nuove informazioni – quindi di nuove stringhe di 0 e 1 – e spostamento del nastro verso destra o verso sinistra per consentire una nuova lettura; 4) il risultato di quest'ultima operazione restituisce un nuovo stato interno, e così il congegno va avanti esaminando stringhe e manipolandole. Quando non ci sono più regole, e quindi numeri computabili da manipolare, il dispositivo si arresta e fornisce il suo stato finale: ciò che si trova registrato sul nastro all'atto dell'arresto rappresenta il risultato dell'elaborazione.

L'idea consiste quindi nel predeterminare una serie di azioni manipolative, simboliche e automatiche, per ogni funzione logico-matematica che si intende svolgere. Sebbene la MT fosse semplicemente implementata su carta, con questa intuizione Turing riuscì a cogliere materialmente il concetto di emulazione in quanto una MT adeguatamente programmata è in grado di eseguire qualsiasi funzione computabile dall'uomo. Si dice quindi che per ogni funzione computabile esiste una MT corrispondente 4 . Il passaggio ulteriore consiste nell'estendere l'astrazione e immaginare una Macchina Universale di Turing (MUT) che disponga di una tabella d'istruzioni tanto vasta quanto sono le MT – potenzialmente infinite, poiché potenzialmente infinite sono le funzioni computabili – e che pertanto sia capace di simularne il "comportamento". Il modello computazionale ideato da Turing è rivoluzionario in quanto rende probabile la sfida di una ricerca delle funzioni calcolabili che caratterizzano una mente. L'obbiettivo dell'intelligenza artificiale diventa perciò quello di individuare un programma di regole che spieghi, e auspicabilmente emuli, il funzionamento delle intelligenze biologiche.

Nel 1950 esce l'articolo che dà inizio ai sogni dell'IA 5 . Turing propone di considerare un esperimento mentale – che egli denomina Imitation Game – in cui vi sono tre partecipanti: A e B sono rispettivamente un uomo e una donna, mentre C è un interrogante di un qualunque sesso. C conosce A e B tramite le etichette X/Y e ha il compito di individuare il sesso dei due partecipanti ponendo loro delle domande che vengono sottoposte tramite una telescrivente. Mentre A cercherà di ingannare C, B cercherà di aiutarlo nell'identificazione. A questo punto Turing si chiede: cosa accadrebbe se un calcolatore digitale prendesse il posto di A e riuscisse a ingannare l'intervistatore umano? In altre parole: quali valutazioni psicologiche scaturirebbero se una macchina fosse capace di intrattenere una discussione con un essere umano, per un periodo di tempo non eccessivamente breve 6 , mettendo in atto un piano d'azione e tenendo conto anche delle intenzioni altrui?

Da Searle a Dennett: due diversi approcci al problema dell'intenzionalità degli stati mentali

L'Imitation Game – o test di Turing – costringe il filosofo a riflettere e dare una risposta ad almeno due problemi della cognizione. In questo paragrafo esaminerò gli approcci più famosi tesi alla risoluzione del primo problema: quello dell'intenzionalità degli stati mentali. La scienza cognitiva usa il termine stati mentali per riferirsi alla descrizione mentalistica della fenomenologia e del comportamento propri dei sistemi complessi. Stati mentali tipici sono il desiderio e la credenza. L'intenzionalità è invece quella proprietà che rende gli stati mentali relativi all'oggetto dell'atto di pensiero. Lo psicologo sperimentale Franz Brentano (1874) ha indicato due caratteristiche dell'intenzionalità: il possesso di un contenuto informativo e la peculiarità dello stato mentale di vertere su di esso. A esempio, la credenza che "Babbo Natale è buono" possiede un contenuto – ossia il creduto: che potrebbe essere rappresentato, a esempio, dall'immagine mentale di Babbo Natale e dalle emozioni associate alla sua figura – sul quale verte 7 .

Secondo Brentano, in particolare, la caratteristica degli stati mentali di riferirsi anche a oggetti non reali – come potrebbe essere Babbo Natale – sarebbe indice della presenza d'intenzionalità e questo principio – noto come inesistenza intenzionale – differenzierebbe gli stati mentali da quelli fisici, invalidando ogni tentativo della scienza esatta di studiarne i contenuti. In effetti, Brentano (1874) ritiene che l'intenzionalità degli stati mentali sia una proprietà immanente della coscienza e non considera quest'ultima di natura fisica:

Ogni fenomeno mentale è caratterizzato da ciò che gli scolastici del Medioevo chiamavano inesistenza intenzionale (o mentale) di un oggetto, e da ciò che potremmo chiamare, sebbene in modo non del tutto privo di ambiguità, il riferimento a un contenuto, la direzione verso un oggetto (che non deve essere qui intesa come il significato), o oggettività immanente. Ogni fenomeno mentale include in se stesso qualcosa come un oggetto, sebbene non tutti lo facciano nello stesso modo. Nella rappresentazione qualcosa è rappresentato, nel giudizio qualcosa è affermato o negato, nell'amore amato, nell'odio odiato, nel desiderio desiderato e così via. Questa inesistenza intenzionale è una caratteristica esclusiva dei fenomeni mentali. Nessun fenomeno fisico mostra qualcosa di simile. Noi possiamo, dunque, definire i fenomeni mentali dicendo che sono quei fenomeni che contengono intenzionalmente un oggetto in loro stessi 8

Searle (1983) riprende parte della teoria di Brentano sull'intenzionalità. A esempio, il filosofo americano continua a considerarla una proprietà della coscienza e vede sempre l'orientamento e il contenuto degli stati mentali come irriducibili agli stati fisici. Tuttavia, la non riducibilità alla quale si riferisce Searle non chiama in causa l'assunzione metafisica dualista, bensì l'autore si rifà alla tesi filosofica della sopravvenienza causale. Secondo questa teoria gli stati mentali sono sopravvenienti su quelli neurofisiologici e incidono allo stesso tempo su di essi 9 . In tal modo, il realismo dell'intenzionalità degli stati mentali è fondato su scala biologica, sebbene non venga ridotto a essa 10 .

Questo modello ha delle ricadute sul discorso che riguarda la possibilità di estendere l'intenzionalità ai sistemi artificiali, in quanto stando a Searle è possibile effettuare questa operazione solo in un senso metaforico:

Spesso attribuiamo il comprendere e altri predicati cognitivi per metafora e analogia alle automobili, alle addizionatrici e ad altri manufatti [...] Diciamo: "la porta sa quando si deve aprire, grazie alla sua cellula fotoelettrica", "l'addizionatrice sa come (capisce come, è capace di) fare l'addizione e la sottrazione" [...] "il termostato sente le variazioni di temperatura" 11 .

Secondo la filosofia searliana gli esempi riportati sono delle semplici attribuzioni d'intenzionalità che vanno distinte dall'intenzionalità intrinseca che è propria soltanto dei sistemi biologici: «Non bisogna cadere nell‟errore di considerare l'intenzionalità come se come un tipo particolare di intenzionalità: più semplicemente se ne fa menzione quando un sistema è come-se-avesse-intenzionalità» (Searle, 1992, trad. it. p. 94). Un'ulteriore attribuzione d'intenzionalità è quella conferita ai calcolatori digitali che, sebbene opportunamente progettati siano capaci di stampare proposizioni dotate di senso e aderenti a un contesto, derivano la loro intenzionalità da quella del programmatore. In ultima analisi, nell'ottica searliana le intenzionalità come se e quella derivata sono delle interpretazioni stabilite per comodità descrittiva dagli uomini, mentre l'intenzionalità intrinseca è propria degli esseri viventi superiori – quelli per cui può essere usato il vocabolario mentalistico

.

Una teoria che, al contrario di quella di Searle, riconosce immediatamente intenzionalità ai calcolatori digitali è quella degli atteggiamenti intenzionali, a opera del filosofo Daniel Clement Dennett (1971). Dennett, come il logico e filosofo della scienza Willard van Orman Quine (1960), sostiene una posizione scettica sul realismo degli stati mentali e li considera come delle espressioni facenti parte di una psicologia del senso comune che, sebbene venga considerata di dubbia accettabilità scientifica, è ritenuta utile ai fini della predizione dei comportamenti altrui 12 .

Dennett dà inizio alla sua argomentazione sostenendo che è possibile prevedere i comportamenti dei sistemi che ruotano attorno all'uomo usando delle strategie cognitive. La strategia più immediata è quella che chiama in causa la conoscenza delle leggi di natura ed è usata dall'uomo per relazionarsi al mondo fisico. A esempio, se della neve cade sui rami di un albero ci si può aspettare che questi si spezzino se non sono abbastanza robusti. O ancora, se c'è un guasto alla parte hardware di un computer l'eventuale riparatore userà le conoscenze che possiede sul mezzo fisico. In tutti questi casi l'uomo adopererà quello che Dennett definisce l'atteggiamento fisico. Un ulteriore atteggiamento è quello del progetto. Si tratta in questo caso della disposizione assunta da un programmatore nei confronti di un software non complesso: egli potrà prevedere un dato output essendo a conoscenza delle regole e dei comandi implementati. Infine, l'atteggiamento intenzionale è quello proprio della folk psychology ed è usato dall‟uomo per relazionarsi con i suoi conspecifici e con altri esseri viventi. Sebbene si tratti della strategia cognitiva più ricca e articolata, Dennett ritiene che essa è quella che viene assunta dall'uomo nei confronti di un software complesso come può essere un programma che gioca a scacchi; diventerà infatti utile leggere le sue azioni nei termini di desideri e credenze:

Non si può più sperare di sconfiggere la macchina utilizzando le conoscenza di fisica o di programmazione per anticipare le sue risposte, si può ancora evitare la sconfitta trattandola più o meno come un normale avversario umano intelligente (Dennett, 1971, trad. it. p. 41)

Sia la teoria dell'intenzionalità di Dennett che quella di Searle sollevano diversi problemi. La teoria degli atteggiamenti intenzionali è una teoria che si basa solo sull'attribuzione d'intenzionalità degli stati mentali, ma nulla dice a proposito del realismo e dell'ontologia degli "stati intenzionali" 13 . Dennett (1987) considera oggettivi gli stati intenzionali solo in quanto disposizioni comportamentali – e questo è il motivo per cui la sua posizione filosofica è spesso tacciata di eliminativismo. Anche l'ontologia di questi resta dubbia in quanto l'unico sforzo compiuto dall'autore è quello di considerarli come atteggiamenti proposizionali. Resta tuttavia un problema: se la natura dell'intenzionalità degli stati mentali fosse di tipo concettuale allora dovremmo rinunciare a considerare intenzionali i comportamenti esibiti dalle altre specie animali – che non possiedono il linguaggio verbale – e questo, oltre a essere controintuitivo, è senza alcun dubbio falso 14 .

Va sottolineato che, come Dennett, Searle non chiarisce l'interrogativo ontologico dell'intenzionalità degli stati mentali. Tuttavia, il filosofo fornisce degli indizi: l'intenzionalità degli stati mentali è una proprietà della coscienza e come tale è condivisa tra le specie viventi che stabiliscono una relazione cosciente con il mondo. Inoltre, come tutti i fenomeni mentali, è il risultato emergente dell'attività fisiologica del sistema nervoso 15 . Questa prospettiva teorica, nota come naturalismo biologico 16 , deve però fare i conti con l'annosa questione degli stati soggettivi della coscienza: «I contenuti della mente sono accessibili soltanto dal punto di vista della prima persona; sono fenomeni soggettivi e ontologici. Non è possibile dare una spiegazione della coscienza se non nel senso dell'ontologia, di un'ontologia soggettiva non metafisica» (Searle, 1997, trad. it. p. 189). Alla luce di questo, è facile capire che lo slogan searliano secondo cui la coscienza è «epistemologicamente oggettiva, e ontologicamente soggettiva» pone un bel rompicapo ai neuroscienziati che avrebbero il compito di spiegare in termini neurologici la proprietà degli stati mentali di essere intenzionali.

Il problema del significato delle parole

Il secondo problema filosofico che scaturisce da un'attenta analisi del test di Turing è di tipo semantico: ammesso che sia creato un programma che superi il test, è ammissibile che questo letteralmente comprenda il significato di una conversazione?

Esiste una risposta classica a questo quesito che è l'esperimento mentale della stanza cinese. Searle (1980) propone di immedesimarsi nel ruolo svolto dal processore di un computer, che manipola formalmente dei simboli – in modo analogo al funzionamento della MT. Searle chiede quindi al lettore se sia possibile comprendere una semantica nella situazione surreale di dover tradurre un testo da una lingua sconosciuta alla propria lingua usando un semplice manuale che indichi l'espletazione di passaggi formali simbolici 17 . Sebbene ci sia una serie di riposte date al Gedankenexperiment di Searle 18 , quella che ai giorni nostri risulta più convincente è la risposta del robot. Si immagini di inserire un programma formale in un corpo artificiale, aggiungendo però al sistema la funzione di trasdurre degli stimoli esterni, tramite degli opportuni recettori, e quella di agire sull'ambiente, per mezzo di arti in grado di conservare un feedback dell'azione svolta. In questo caso produrremmo dell'intelligenza consapevole o saremmo confinati ancora a una manipolazione di simboli priva di significato?

Sebbene oggi l'uomo disponga dei mezzi tecnici per realizzare l'ipotesi presentata, non si è ancora riusciti a costruire robot che diano l'impressione di avere consapevolezza delle proprie azioni; possiamo comunque – usando un po' di lungimiranza – provare a rispondere in linea di principio.

Stando a un'autorevole teoria del significato, quella proposta dal filosofo del linguaggio Diego Marconi (1997), la risposta del robot darebbe sostanza all'ipotesi dell'intelligenza artificiale. Marconi dimostra che la competenza semantica si basa su due abilità, autonome e distinte 19 , che sono quella inferenziale e quella referenziale. La competenza inferenziale consiste nel collegare le parole l'una con l'altra. Colui il quale è inferenzialmente competente deve saper gestire una rete di connessioni tra le parole «che sta alla base di prestazioni come l'inferenza semantica, la parafrasi, la definizione, il ricupero della parola a partire dalla sua definizione, il ricupero di un sinonimo, e così via» 20 . Essere referenzialmente competenti vuol dire invece saper riconoscere il referente di un significato ed essere in grado di applicare il linguaggio al mondo. È facile comprendere che nell'aspetto referenziale della competenza semantica giocano un ruolo basilare i sensi. I sistemi artificiali finora ideati, sebbene siano dei dispositivi inferenzialmente efficaci, non sono affatto capaci di esibire una competenza referenziale; e questo sarebbe il motivo per cui non possono comprendere una semantica.

L'idea conclusiva è che l'IA classica 21 , fondando il suo programma di ricerca sulla sfida lanciata dal test di Turing, abbia dimenticato che una peculiarità fondamentale dell'intelligenza biologica risiede nell'interazione con l'ambiente esterno; e quindi il possesso di un apparato senso-motorio diventa fondamentale.

La distinzione tra sistemi semplici e complessi

Searle risponde scetticamente anche alla replica del robot: «Il robot non possiede alcuno stato intenzionale; esso si muove semplicemente per effetto dei suoi collegamenti elettrici e del suo programma» 22 . L'autore americano adduce due motivazioni congiunte alla sua affermazione: la prima – quella probabilmente ragionevole – continua a rimarcare il fatto che un programma formale è prettamente deterministico; la seconda – a mio parere dubbia – individua nella computazione in sé l'elemento pregiudicante agli intenti di creare intelligenza artificiale.

Le moderne teorie dei sistemi dinamici, in effetti, indicano che il primo punto è corretto: i calcolatori digitali computano serialmente e seguono una logica lineare, a differenza dei sistemi complessi. Sistemi complessi naturali sono le galassie e i fenomeni atmosferici. Essi sono caratterizzati da una serie di attributi che rendono il proprio "comportamento" non lineare e non facilmente prevedibile. A esempio: le relazioni tra le parti dei sistemi dinamici non sono già "disegnate", cambiano nel tempo e sono molto dense da un punto di vista informativo. Inoltre, i sistemi dinamici sono immersi in un ambiente esterno e formano un tutt'uno con le informazioni provenienti da questo. Il mercato azionario, a titolo esemplificativo, è un sistema complesso artificiale. Le parti del sistema "mercato azionario" possono essere individuate nelle "transazioni", che sono continue, non predeterminate, sono tante e mutano in ogni momento: è quindi impossibile "istruire" dall'alto un programma algoritmico che simuli in vivo un mercato azionario. Un altro aspetto che caratterizza i sistemi complessi è che l'interazione con i dati esterni è mutevole: una perturbazione di piccola entità può scatenare considerevoli sconvolgimenti all'interno del sistema, mentre grosse perturbazioni possono lasciarlo intatto 23 . Si può pensare a queste caratteristiche – non programmabilità, non meccanicità, complessità informazionale e dinamismo temporale – associandole ai sistemi complessi finora menzionati e aggiungendo a questi i sistemi nervosi superiori, che rientrano senza alcun dubbio nella categoria.

Paul Churchland (1995) evidenzia come il calcolo parallelo messo in atto dai cervelli biologici stia alla base di una velocità e di una persistenza funzionale 24 molto più potenti rispetto ai sistemi che calcolano serialmente, come i computer. Le migliori performance e la solidità sono garantite dal fatto che i sistemi nervosi uniscono il lavoro di più unità d'informazione che procedono contemporaneamente dal basso verso l'alto e viceversa. Vi sono anche altri requisiti che differenziano qualitativamente i sistemi dinamici – come i cervelli – dai sistemi semplici – come i calcolatori digitali. Lo psicologo della mente Domenico Parisi (1998), a esempio, sostiene che un sistema complesso non può essere isolato da un contesto senza che siano compromessi il suo funzionamento e la sua comprensione come oggetto di studio. In altri termini: non può essere studiato in tutti i suoi aspetti in un laboratorio 25 . Anche l'etologo Roberto Marchesini (2002) condivide questa assunzione:

Un sistema biologico può essere descritto in ogni sua minima parte, perlomeno teoricamente, astraendolo dal contesto temporale, ma non può essere spiegato in alcun modo se non immergendolo in un frattale evolutivo. Ogni azione di un sistema biologico ha pertanto un significato che trascende il piano sincronico, ovvero un valore che deriva dalla sua posizione diacronica e non dalla sua disposizione formale. Questo ci consente di dire che un sistema di manipolazione di rappresentazioni se astratto dal piano diacronico mancherà di una sua specificità di significato e in tal senso comprendiamo quanto rilevato da Dreyfus (2000) sull'incapacità di un computer di essere situato (Marchesini, 2002, p. 342)

Quest'ultimo passo sottolinea che uno degli errori dell'IA classica – nel suo tentativo di promuoversi come IA forte – è stato quello di confondere la simulazione con la riproduzione dei fenomeni complessi. Le simulazioni infatti vengono usate dagli scienziati come modelli sperimentali per testare teorie: esse hanno quindi lo scopo di "semplificare" quantitativamente e qualitativamente le variabili di un fenomeno – non di riprodurle 26 .

Comparando gli attributi dei calcolatori digitali con quelli dei sistemi nervosi è possibile arrivare a una conclusione. I calcolatori digitali funzionano computando dei programmi e i programmi altro non sono che un insieme di MT 27 . Una MT: 1) è composta di parti – i numeri computabili e gli stati interni – che stabiliscono delle relazioni lineari e prevedibili dal programmatore. La MT calcola serialmente e meccanicamente. Stando alla tesi di Church-Turing, infatti, le funzioni calcolabili da una MT sono quelle che possono essere descritte con un algoritmo: ovvero con un numero finito di passi formali espletabili da un uomo munito di carta e penna; 2) non si relaziona in modo continuativo con un contesto e questo è il motivo per cui lo sperimentatore può avere un totale controllo sull'oggetto di studio; 3) si arresta nella computazione alla presenza di un errore nelle istruzioni, a causa della sua meccanicità e per il fatto stesso di calcolare serialmente; 4) non possiede un piano diacronico ma la sua azione è schiacciata sul presente.

I sistemi nervosi rispettano al contrario tutti i requisiti richiesti dalla teoria dei sistemi dinamici: 1) le relazioni tra le parti non sono lineari in quanto connotate da un forte parallelismo; 2) il comportamento emergente non è statico nel tempo poiché i processi selezionisti sono continui e riguardano la storia di vita di un individuo; 3) il rapporto tra perturbazioni ed effetti scaturiti non è direttamente proporzionale ed è solo probabilistico. A esempio, una micro-deiezione può causare grossi insulti al cervello, e una perdita apparentemente più grave può lasciare intatte le sue funzioni. Questo perché le configurazioni neuronali variano da encefalo a encefalo e può essere colpita un'area con bassa densità di collegamenti sinaptici piuttosto che un'area dove le connessioni si sono rinsaldate per la risoluzione di specifiche funzioni; 4) infine – come sottolineato da Marchesini – essi possiedono un piano diacronico, dal momento che si tratta di strutture "viventi", e non possono essere rigidamente programmati su un piano sincronico alla stregua di un insieme di MT. Questa comparazione tra MT e strutture viventi complesse lascia presupporre che occorre qualcosa di computazionalmente diverso se si intende emulare l'intelligenza biologica.

Conclusioni sul tema IA forte

Tornando alla tesi dell'IA forte occorre chiedersi se, alla luce dei problemi, delle teorie e dei risultati presentati, possa dirsi un'ipotesi fondata scientificamente. La convinzione attuale è che si tratti di una congettura tramontata. In primo luogo perché anche la teoria dell'intenzionalità più benevola nei confronti dei sistemi artificiali – quella di Dennett (1971) – si pronuncia solo su un aspetto esteriore dell'intenzionalità degli stati mentali basato sull'attribuzione di questa e non sulla sua fondatezza ontologica 28 . In tal senso ha probabilmente ragione Searle a richiedere che l'intenzionalità sia resa intrinseca a un sistema artificiale. In secondo luogo perché, stando all'autorevole lettura di Marconi (1997), i sistemi artificiali mancano di una competenza referenziale e dunque di una competenza semantica – e la stessa argomentazione può essere sostenuta prendendo in esame il thought experiment di Searle 29 (1980). In terzo luogo, ciò che separerebbe i calcolatori digitali dai sistemi nervosi sarebbe rappresentato dagli attributi che ho elencato che contraddistinguono i sistemi semplici da quelli complessi. Anche l'ipotesi Possible AI di Hauser (1997) non sarebbe d'aiuto, in quanto, se si mette in discussione la fondatezza dell'IA forte argomentando contro la complessità computazionale dei computer, è ovvio che i computer, restando tali, non potranno pensare: né oggi, né mai. Se tutte queste argomentazioni sono corrette è facile capire che il test di Turing non può rappresentare il criterio su cui testare l'intelligenza delle macchine. Oltre alle motivazioni indicate, per le ulteriori ragioni che il test si concentra solo sugli elementi linguistici e concettuali, mentre l'intelligenza è una proprietà presente anche nelle specie animali non dotate di linguaggio. Inoltre, dal momento che nessun sistema artificiale è stato finora in grado di superare l'Imitation Game, vi è la paradossale impressione che esso sia servito più a circoscrivere i limiti dei sistemi artificiali che non a promuoverne le attitudini.

Prospettive future

Resta tuttavia un aspetto da chiarire: se non si è ancora riusciti a creare una mente artificiale che dia prova di consapevolezza e intenzionalità intrinseca, occorre perlomeno provare a individuare una strada affinché questo risultato sia perseguibile. Stando alla pars destruens di questo articolo: 1) servono dei sensi artificiali che colleghino l'artefatto con l'ambiente esterno in modo continuativo; 2) occorre trovare dei principi computazionali più complessi della MT; 3) bisogna collocare il sistema artificiale su un piano diacronico, rendendolo struttura "vivente".

Robotica Situata (affrontare il punto 1)

Il punto (1) è al centro dell'ambito di ricerca della nuova IA (Nouvelle AI) inaugurato dall'ingegnere Rodney Brooks (1990) e seguito da altri eminenti studiosi come il biologo, premio Nobel, Gerald Edelman e lo scienziato cognitivo Andy Clark. L'obbiettivo di queste nuove ricerche consiste nel rendere il sistema artificiale situato in un contesto, in modo da soddisfare uno dei requisiti propri della teoria dei sistemi dinamici. Anziché partire dall'alto, implementando delle regole che devono essere semplicemente computate da un motore inferenziale – idea che sta alla base del concetto di IA forte – si cerca di dare al sistema dei "sensi" e delle capacità di esplorazione dell'ambiente, in modo che questo possa costruirsi una propria rappresentazione del mondo. L'idea della robotica situata consiste quindi nel prendere in seria considerazione le critiche filosofiche mosse contro il programma di ricerca dell'IA simbolica e incorporea, noto ormai come GOFAI 30 .

Brooks, a esempio, in questi anni ha costruito dei robot che si basano su un‟architettura detta della sussunzione. In questa architettura non vi è pianificata esplicitamente tutta la conoscenza, ma lo scopo è che questa emerga tramite l'interazione dell'agente con il suo ambiente di riferimento. I robot di Brooks sono infatti dotati di sensori, e di una serie di moduli 31 . A esempio, nel caso del robot Herbert (1991): un primo modulo sfrutta una griglia di sensori a ultrasuoni che fa in modo che il sistema artificiale eviti gli oggetti che incombono sul suo cammino; un secondo modulo consta di un dispositivo di bordo che permette al sistema di girovagare in modo casuale, nella circostanze opportune; infine, un terzo modulo può far agire il robot in modo imprevisto, "trascinandolo" verso mete inesplorate. I moduli sono interconnessi solo nella modalità in cui si scambiano dei semplici segnali: incoraggiando o interrompendo l'attività l'uno dell'altro. L'intenzione di Brooks è quella di ricostruire la relazione causale che lega un agente vivente a un ambiente e per riuscire nell'impresa bisogna, secondo l'ingegnere, rendere senzienti gli artefatti 32 . Tuttavia, la concezione di "mente" di Brooks è stata criticata da più parti di essere troppo semplicistica, in quanto, cercando di evitare una pianificazione centrale e simbolica dei moduli del sistema, ha finito per negare un ruolo alle rappresentazioni, che non costituirebbero più una componente dell'azione intelligente del sistema. Inoltre, rinunciando alla programmazione simbolica diventa difficile aggiungere, e integrare, dei moduli per rendere più complesso il comportamento dell'artefatto.

La computazione dinamica (affrontare il punto 2)

Alcuni studiosi, come Edelman (1987) e Parisi (1999), hanno "salvato" il ruolo delle rappresentazioni a capo del comportamento intelligente, guardando però a un modo di "rappresentare" la conoscenza totalmente diverso dalla logica che è alla base dei calcolatori digitali. Si tratta delle reti neurali. Una rete neurale è un modello computazionale ispirato al funzionamento dei sistemi nervosi. Essa è composta da una molteplicità variabile di unità d'informazione connesse tra loro 33 . Ognuna di queste unità agisce sull'altra nello stesso modo in cui le sinapsi biologiche scambiano informazione 34 . I sostenitori del connessionismo si pongono in antitesi ai programmi di ricerca precedenti – contestando anche concetti filosofici come quello di IA forte – in quanto la logica combinatoria neurale permette di raggiungere alcune proprietà dei sistemi nervosi biologici, come: 1) realizzare un calcolo parallelo – che è un altro requisito proprio della teoria dei sistemi dinamici; 2) memorizzare l'informazione in modo distribuito e dinamico – differentemente da quanto avviene nell'architettura dei computer – dal momento che la rete neurale conserva "porzioni" diverse d'informazione all'interno di ogni singolo nodo; 3) riconoscere un ruolo all'apprendimento: poiché le reti imparano a "rispondere" nel modo opportuno a un dato input, a seguito di specifiche tecniche di addestramento utilizzate dallo sperimentatore 35 ; 4) tollerare il rumore; per il fatto di avere tante unità che manipolano informazione in modo simultaneo e parallelo.

Il vantaggio di una computazione neurale è quindi evidente: un insieme di reti neurali, a differenza di un insieme di MT, costituisce un'intelligenza irripetibile che prende forma dall'apprendimento – così come avviene per le specie animali – e non è rigidamente programmata. Inoltre, in un'epoca storica dominata dal paradigma della neuroscienza è chiaro a tutti che il modo più facile di generare intelligenza è quello di provare a emulare il lavoro svolto dai neuroni biologici. Parisi (2006) ha sostenuto che gli attributi delle reti neurali e degli algoritmi genetici – parallelismo, non programmabilità, capacità di interagire in modo multiforme ai dati esterni – possono aiutare a colmare il divario che separa gli attuali artefatti dai sistemi complessi. I principi computazionali propri degli algoritmi genetici, a esempio, sono stati implementati per simulare i processi genetici e di selezione naturale. Un algoritmo genetico, infatti, genera una popolazione di stringhe – che, nella metafora, corrispondono ai genotipi dell'evoluzione naturale – ognuna delle quali rappresenta una possibile soluzione a un dato problema. Questa "popolazione" viene fatta evolvere mediante l'applicazione di criteri di ricombinazione che mimano i processi genetici. Per esempio, se una mutazione biologica consiste in cambiamenti nella disposizione dei segmenti delle basi del DNA, una mutazione algoritmica è prodotta con l'inversione dei numeri 1 e 0 nella stringa di bit. In questo modo da stringhe "genitrici" se ne generano altre che possono rappresentare eventuali "soluzioni migliori" a un problema.

L'aspetto interessante, ai fini della modellazione di un'intelligenza artificiale, è che un algoritmo genetico associato a una rete neurale può servire a determinare la struttura della rete – così come in biologia i geni determinano la conformazione di un individuo – e può incidere anche, in concomitanza con gli stimoli ricevuti dalla rete, sui valori dei pesi sinaptici di questa 36 . L'idea di Parisi è quindi quella di inserire nei robot delle reti neurali – che fungano da sistema nervoso – e degli algoritmi genetici – che fungano da genoma – evitando che le loro potenzialità computazionali vengano "appiattite" dal fatto di essere simulati su calcolatori che computano serialmente 37 .

La ricorrenza nelle reti neurali (affrontare il punto 3)

Nonostante i progressi nel campo della tecnica, fornire i sistemi artificiali di un "piano diacronico" è la sfida più difficile. L'ingegnere della conoscenza Jeffrey Elman (1990) ha dato una chiave di lettura implementando nelle sue reti neurali una capacità di ricorsione. L'idea è quella di dotare le reti neurali di una forma di sensibilità a eventi passati, in modo che questa informazione possa influire anche nella modellazione dell'attività cognitiva corrente. Sono stati realizzati a questo scopo dei percorsi discendenti all'interno della rete – così come accade nei sistemi nervosi biologici – cosicché i neuroni artificiali possano stabilire dei legami sinaptici su se stessi, includendo nel calcolo l'informazione sedimentata.

Conclusioni generali

In questo articolo ho sostenuto che la metafora della mente come software, e del cervello come hardware, è sbagliata. La mente è incarnata e studiarla senza interrogarsi del ruolo giocato dal corpo, dai sensi e dal sistema nervoso, oltre a essere sterile, è controproducente. A mio avviso l'intelligenza artificiale deve guardare alla biologia e cercare di riprodurre i nessi causali alla base del comportamento. Questo approccio presenta un indubbio vantaggio: oggi, grazie ai potenti mezzi della neuroscienza, è possibile comprendere numerosi e differenti meccanismi su come l'informazione sia generata e integrata a partire dal lavoro svolto da gruppi neuronali 38 .

Dire che l'IA forte è falsa vuol dire affermare che la mente non è un programma, ma questo non significa sostenere che una macchina non possa, in futuro, pensare. Per raggiungere questa meta occorrerà probabilmente riprodurre i requisiti – elencati in questo articolo – che caratterizzano i sistemi complessi. Un sistema biologico complesso è infatti programmato geneticamente, ma il programma genetico non è deterministico e tiene conto dei fattori ambientali. I sistemi nervosi selezionano l'informazione e non sono istruiti una volta per tutte come un insieme di MT.

Ho anche illustrato e discusso brevemente le posizioni filosofiche più note sull'IA: quelle di Dennett e Searle. Penso che entrambe siano frutto di un'ideologia. Infatti, da una parte, Dennett vorrebbe sminuire l'intelligenza delle specie biologiche fornendo spiegazioni artificiose della mente che finiscono per identificarla in ogni oggetto fisico – anche in quelli non ideati per essere "macchine pensanti"; come i termostati. Dall'altra, con l'argomento della stanza cinese, Searle pensa di avere confutato tout court ogni ricerca dell'intelligenza artificiale. Questo perché l'autore americano identifica la manipolazione formale dei simboli con il ruolo svolto dalla computazione nei sistemi artificiali. Credo che quest'ultima argomentazione sia sbagliata. La computazione è usata dalle scienze dell'artificiale per garantire l'azione fisica del sistema – così come i processi biochimici danno luogo ai segnali elettrici che rendono un sistema biologico animato. A mio avviso la parabola cinese è perciò convincente nella misura in cui critica il programma di ricerca dell'IA classica, fondato su una pianificazione di regole simboliche concretizzate serialmente, non lo è se applicata a un sistema artificiale che esibisca il grado di complessità di un sistema nervoso. In altre parole, un sistema artificiale che svolga tutte le funzioni di una mente biologica sarà probabilmente dotato di pensiero – a meno che non si voglia sostenere la tesi metafisica secondo cui la sola materia biologica avrebbe racchiusa in sé, in potenza, la facoltà di generare una mente 39 .

Quello che sostengo è che la stanza cinese non può essere applicata, da un punto di vista logico, ai sistemi connessionisti. In tal modo si esporrebbe alla risposta dei sistemi 40 , che sostiene che la comprensione dei significati può emergere da un complesso computazionale. Il limite della rispo- sta dei sistemi, ai tempi in cui fu espressa contro il Gedankenexperiment di Searle, era che difendeva la logica seriale dei calcolatori digitali. Ma se fosse realizzato un robot che colmi il divario che separa gli attuali artefatti dai sistemi complessi non avrebbe alcun senso continuare a descrivere la computazione come una manipolazione formale dei simboli. Questo perché il ruolo che svolgerebbe sarebbe quello di dare avvio a una serie di funzioni che, per ipotesi, renderebbero vivente il sistema artificiale. Dunque, ciò che sostengo in questo articolo è che i modelli proposti dal programma di ricerca della Vita Artificiale si "salvano" dall'argomento di Searle 41 . Tuttavia, non tutti gli studiosi sono d'accordo 42 . Searle (1990) contro-argomenta all'obiezione connessionista sostenendo che la natura parallela dell'elaborazione computazionale è irrilevante, in quanto una funzione calcolata su una macchina parallela può essere calcolata anche su una macchina seriale.

A mio avviso, la miopia di questa osservazione sta nel fatto che una macchina seriale non può calcolare con la stessa velocità delle funzioni che nei sistemi nervosi si presentano simultaneamente. E, come sanno i neurobiologi, i tempi di risposta dei neuroni si prestano a diverse letture teoriche e hanno dei loro significati funzionali 43 .

Per concludere, secondo quanto sostenuto nell'articolo occorre riuscire a dare delle risposte soddisfacenti ai punti (1), (2) e (3) indicati nel precedente paragrafo. Sul punto (1) va detto che si è ancora lontani dalla modellazione di autentici sensi artificiali. La visione artificiale costruisce attualmente dei riconoscitori di forme, ma la vista è un processo attivo e si serve, a esempio, anche delle informazioni tattili ai fini della discriminazione sensoriale. Sono state create coclee artificiali che riescono a emettere corretti output a fronte di specifici input, ma esse non sono in grado di ascoltare perché i loro segnali non terminano in un talamo. Certo, si potrebbe pensare di costruire un cervello artificiale. Ma si tratta di un'impresa tutt'altro che semplice, dal momento che un encefalo consta di oltre dieci miliardi di neuroni ognuno dei quali può stabilire anche centomila connessioni sinaptiche 44 . Ricordare queste difficoltà non lede, a mio avviso, l'istintuale ottimismo che dovrebbe contraddistinguere un transumanista, ma serve ad avere chiara in mente la portata della missione.

Il punto (2) è quello dove può avvenire il salto di qualità: ci sono teorie dette dell'ipercomputazione che ritengono vi siano modelli computazionali non calcolabili da una MT 45 . Non voglio entrare nel merito di questa questione, ma credo che se fosse superato il dominio di computabilità proprio della teoria classica potremmo, finalmente, guardare con occhi nuovi la sfida dell'IA.

Il punto (3) è decisivo. Penso che sarà possibile risolverlo solo avendo a disposizione una teoria della coscienza 46 esauriente e condivisa.

Bibliografia

  • William Bechtel, Philosophy of mind. An overview for Cognitive Science, Lawrence Erlbaum Associates Inc., Hillsdale, New Jersey, 1988 (trad. it. Filosofia della Mente, Il Mulino, Bologna, 1992)
  • Franz Brentano, Psychologie vom empirischen Standpunkte, Duncker & Humblot, Leipzig, 1874 (trad. it. La psicologia dal punto di vista empirico, Laterza, Roma, 1997)
  • Rodney Brooks, “Elephants don‟t play chess”, Robotics and Autonomous Systems, 6, 1990, (pp. 3-15)
  • Rodney Brooks, “Intelligence without reason”, Proceedings of the 12th International Joint Conference on Artificial Intelligence, Morgan Kauffman, 1991
  • Fritjof Capra, The Web of Life, Doubleday-Anchor Book, New York, 1996 (trad. it. La rete della vita. Una nuova visione della natura e della scienza, R.C.S. Libri & Grandi Opere, Milano, 1997)
  • Paul Churchland, "Folk psychology and the explanation of human behavior", in: D. Greenwood (a cura di) The future of folk psychology, Cambridge University Press, Cambridge, 1991, (pp. 51- 69)
  • Paul Churchland, The Engine of Reason, The Seat of Soul. A Philosophical Journey into the Brain, MIT Press, Cambridge, Massachusetts, 1995 (trad. it. Il motore della ragione. La sede dell'anima, Il Saggiatore, Milano, 1998)
  • Jack Copeland, Diane Proudfoot, "Alan Turing's forgotten ideas in Computer Sciences", Scientific American, 1999, (pp. 99-103)
  • Roberto Cordeschi, "Vecchi problemi filosofici per la Nuova Intelligenza Artificiale", Networks. Rivista di Filosofia dell'Intelligenza Artificiale e Scienze Cognitive, 1, 2003, (pp. 1- 23)
  • Daniel Clement Dennett, "Intentional Systems", The Journal of Philosophy, 68, 1971, (pp. 87-106)
  • Daniel Clement Dennett, The Intentional Stance, MIT press, Cambridge, Massachusetts, 1987 (trad. it. L'atteggiamento intenzionale, Mulino, Bologna, 1993)
  • Daniel Clement Dennett, "Two contrasts: folk craft versus folk science, and belief versus opinion", in: D. Greenwood (a cura di) The future of folk psychology, Cambridge University Press, Cambridge, 1991, (pp. 135-48)
  • Michele Di Francesco, Introduzione alla Filosofia della Mente, Carocci editore, Roma, 2002
  • Domenico Dodaro, Può una macchina pensare? Dibattito sull'Intelligenza Artificiale Forte e prospettive future, www.libreriauniversitaria.it , 2010
  • Jordan Domeniconi, Discorsi sulle reti neurali e l'apprendimento, Franco Angeli, 2001
  • Gerard Edelman, Neural Darwinism. The Theory of Neuronal Group Selection, Basic Books, New York 1987 (trad. it. Darwinismo neurale. La teoria della selezione dei gruppi neuronali, Einaudi, Torino, 1995)
  • Jeffrey Elman, "Finding structure in time", Cognitive Science, 14, 1990 (pp. 179-221)
  • Jerry Fodor, The Modularity of Mind. An Essay on Faculty Psychology, MIT Press, Cambridge, Massachusetts, 1983 (trad. it. La mente modulare. Saggio di psicologia delle facoltà, Il Mulino, Bologna, 1988)
  • John Haugeland, Artificial Intelligence: the very idea, MIT Press, Cambridge, Massachusetts, 1988 (trad. it. Intelligenza Artificiale. Il significato di un'idea, Bollati Boringhieri, Torino)
  • Larry Hauser, "Searle's chinese box: Debunking the Chinese Room argument", Minds and Machines, Kluwer Academic Publishers, Netherlands, 7, 1997, (pp. 199-226)
  • Donald Hebb, The organization of behavior, John Wiley, New York, 1949
  • Julian Jaynes, The Origin of Counsciousness in the Breakdown of the Bicameral Mind, Houghton Mifflin, Boston (trad. it. Il crollo della mente bicamerale e l'origine della coscienza, Adelphi, Milano, 1984)
  • Jaegwon Kim, "Causality Identity and Supervenience in the Mind-Body problem", Midwest Studies in Philosophy, 4, 1979, (pp. 31- 49)
  • Roberto Marchesini, Posthuman. Verso nuovi modelli di esistenza, Bollati Boringhieri, Torino, 2002
  • Diego Marconi, Lexical Competence, MIT Press, Cambridge, Massachusetts, 1997 (trad. it. Competenza lessicale, Laterza, Roma- Bari, 1999)
  • Domenico Parisi, "AntiTuring", Sistemi Intelligenti, 1, 1998, (pp. 60-77)
  • Domenico Parisi, Mente. I nuovi modelli della Vita Artificiale, Il Mulino, Bologna, 1999
  • Domenico Parisi, "Dodici differenze tra l'intelligenza artificiale e la vita artificiale", Sistemi Intelligenti, 1, 2005, (pp. 155-58)
  • Domenico Parisi, Una nuova mente, Codice edizioni, Torino, 2006
  • Alfredo Paternoster, "Percezione e Ancoraggio Simbolico", in: R. Contessi, M. Mazzeo, T. Russo (a cura di) Linguaggio e Percezione, Carocci Editore, Roma, 2002, (pp. 31-36)
  • Willard van Orman Quine, Word and Object, MIT Press, Cambridge, Massachusetts, 1960 (trad. it. Parola e Oggetto, Il Saggiatore, Milano, 1970)
  • John Rogers Searle, "Minds, Brains, and Programs", The Behavioral and Brain Sciences, 3, 1980 (trad. it. L'Io Della Mente, Fantasie e riflessioni sul sé e sull'anima, Adelphi, Milano, 1985)
  • John Rogers Searle, Intentionality: An essay in the Philosophy of Mind, New York University press, New York, 1983 (trad. it. Della Intenzionalità: un saggio di filosofia della conoscenza, Bompiani, Milano, 1985)
  • John Rogers Searle, "Is the brain's mind a computer program?", Scientific American, 262, 1990, (pp. 26-31), (trad. it. "La mente è un programma?", Le Scienze, 259, 1990)
  • John Rogers Searle, The Rediscovery of the Mind, MIT Press, Cambridge, Massachusetts, 1992 (trad. it. La riscoperta della mente, Bollati Boringhieri, Torino, 1994)
  • John Rogers Searle, The Mistery of Counsciousness, New York Review of Books, New York, 1997 (trad. it. Il mistero della coscienza, Raffaello Cortina Editore, Milano, 1998)
  • Alan Mathison Turing, "On computable numbers, with an application to the Entscheidungsproblem", Proceedings of the London Mathematical Society, 42, 1936 (pp. 230-65)
  • Alan Mathison Turing, "Computing machinery and intelligence", Mind, 59, 1950 (pp. 433-60)

Note

  • 1 Il filosofo cognitivo Larry Hauser, in un articolo teso a smontare l'impianto concettuale presentato da Searle, riformula i termini del dibattito identificando la tesi dell'IA forte – secondo cui i programmi sono letteralmente delle menti – con l'assunto proprio del computazionalismo e del funzionalismo fondato sulla Macchina di Turing – che Hauser definisce con il nome di Essential AI (EAI) – e introducendo l'ulteriore tesi detta AI proper (AIP) che è suddivisa nelle due sotto-tesi: Possible AI (PAI), secondo cui i computer un giorno potranno pensare, e Actual AI (AAI), stando alla quale alcuni programmi che girano su calcolatore sono già in grado di pensare. Queste due tesi – EAI e AIP – rappresentano delle asserzioni metafisiche e vanno distinte dall'ipotesi epistemologica secondo cui i programmi creati dall'ingegneria della conoscenza sono utili allo studio delle menti biologiche – tesi che Searle identifica con il nome di IA debole e che Hauser chiama cognitivismo. Cfr. L. Hauser, "Searle's Chinese Box: Debunking the Chinese Room Argument", Minds and Machines, 7, 1997, pp. 199-226.
  • 2 Il problema del symbol grounding consiste nel chiedersi quali requisiti debbano essere soddisfatti affinché sia possibile rendere il significato intrinseco a un sistema artificiale e non semplicemente dipendente da un'interpretazione esterna. Tuttavia, una tesi filosofica nota come interpretazionismo non considera rilevante il problema dell'ancoraggio simbolico in quanto assume che il significato possa essere indagato solo in quanto entità condivisa intersoggettivamente – ovvero solo nella sua funzione sociale e normativa.
  • 3 Mi limito ad alcune annotazioni. Le cronache storiche narrano che già ai tempi di Ctesibio, Filone di Bisanzio (III secolo a.C.) e di Erone d'Alessandria (I secolo a.C.) erano state costruite delle sculture animate. Si trattava di artefatti utili a dimostrare alcuni principi scientifici o ancora di idoli religiosi – non sembra quindi che gli inventori Greci si sforzassero di costruire "menti artificiali". Tuttavia, come emerge dalle ricerche di alcuni archeologi della mente – a esempio, quelle dello psicologo statunitense Julian Jaynes (1976) – la visione di "mente" più popolare in età ellenistica era radicalmente diversa da quella sviluppatasi con l'era moderna. La psyche non designava concetti come quello di "anima" o "mente cosciente" ma riguardava sostanze vitali come il sangue e il respiro. Così come il thumos non era l'anima che si emoziona, ma era "il movimento" e "l'agitazione", e le phrenes erano basilarmente "le sensazioni del diaframma" (questa è una visione conforme alla speculazione filosofica aristotelica e ben diversa da quella propugnata da Platone). Come fa notare il filosofo della mente Michele Di Francesco (2002) il concetto di "mente" degli antichi Greci era qualcosa di "parcellizzato" rispetto al concetto popolare ai giorni nostri: «Al di là della correttezza delle singole interpretazioni filologiche, non sembra errato affermare che quella che possiamo ritrovare nell'Iliade è un'immagine dell'uomo come "aggregato, sia fisico che psicologico", dove sono le parti del corpo o della mente che sembrano prendere le decisioni e gli stati psicologici sono agenti esterni rispetto ai soggetti: il cuore è ansioso di battersi; la Discordia gira per l'accampamento; sono gli dei a originare le volizioni. All'uomo omerico sembrerebbero dunque mancare molti caratteri che per noi sono essenziali della soggettività (non patologica) quali l'unità psichica, l'autonomia della volizione e la dimensione introspettiva» (Di Francesco, 2002, p. 57). Se queste interpretazioni sono corrette è legittimo ipotizzare che gli inventori Greci nella loro ottica stessero costruendo delle "menti artificiali". A ogni modo, il dibattito sulle "macchine pensanti", così come lo conosciamo più diffusamente, ha preso forma a partire dal XVI e XVII secolo d.C. allorché si diffuse la tecnica degli orologi e delle macchine calcolatrici. Nel 1642 l'inventore e filosofo Blaise Pascal costruì una macchina per calcolare che chiamò pascalina. Pochi anni dopo il celebre logico e filosofo Gottfried Wilhem Leibinz realizzò una nuova versione aggiornata della macchina calcolatrice e con la sua teoria delle monadi argomentò che le azioni dell'uomo e delle altre specie viventi fossero mosse da automatismi innatistici. Il filosofo Thomas Hobbes diffuse l'idea che il ragionamento fosse un calcolo logico-proposizionale e, due secoli dopo, il logico George Boole fondò una disciplina – la logica matematica – allo scopo di ricercare le leggi alla base del pensiero. Infine, va citato il progetto incompiuto della Macchina Analitica portato avanti dell'inventore Charles Babbage – assieme a Lady Ada Lovelace, figlia del famoso poeta Lord Byron – che rappresenta il primo calcolatore programmabile della storia. È quindi con l'avvento della scienza moderna che ha preso corpo il dibattito sullo status delle rappresentazioni mentali e sulla loro riproducibilità. Tra la fine del XIV secolo e l'inizio del XX secolo furono realizzati i primi artefatti cibernetici in grado di spostarsi autonomamente seguendo i principi dell'autoregolazione.
  • 4 Quella appena formulata è la celebre tesi di Church-Turing.
  • 5 A. M. Turing, "Computing Machinery and Intelligence", Mind, 59, 1950, pp. 433-60.
  • 6 Turing (1950) ritiene che il programma per calcolatore che superi il suo test debba essere capace di "resistere" ad almeno 5 minuti di dialogo.
  • 7 Brentano riporta in auge la formulazione del concetto d'intenzionalità sviluppatasi con la filosofia scolastica. Si tratta di una definizione generalmente accettata.
  • 8 Il passo di Brentano tradotto in italiano l'ho reperito da: W. Bechtel, Filosofia della Mente, 1992, p. 71.
  • 9 Occorre specificare che la prima teoria della sopravvenienza applicata alla mente si deve all'opera del filosofo cognitivo Jaegwon Kim (1979). Kim si limita a considerare gli stati mentali come sopravvenienti su quelli cerebrali e questa sarebbe l'unica relazione di causazione possibile. L'opinione di Searle (1992) è che gli stati mentali godono di una loro autonomia ontologica e svolgono a loro volta un ruolo causale sugli stati neurologici: «Gli stati mentali sono sopravvenienti sugli stati neurofisiologici, nel senso che cause neurofisiologiche di tipo identico avranno effetti mentalistici di tipo altrettanto identico [...] Mentre stati mentali identici non è detto siano causati dai medesimi stati neurofisiologici» (Searle, 1992, trad. it. pp. 139-40).
  • 10 La biologia è il ponte tra mente e mondo che permette di spiegare le relazioni causali tra gli stati mentali e la loro proprietà di vertere sui contenuti: «Un'assunzione di base del mio approccio ai problemi del linguaggio è che la filosofia del linguaggio è un ramo della filosofia della conoscenza. La capacità degli atti linguistici di rappresentare oggetti e stati di cose del mondo è un'estensione della più biologicamente fondamentale capacità della mente (o del cervello) di porre in relazione l‟organismo con il mondo per mezzo di stati mentali come credenza e desiderio, e in particolare tramite azione e percezione. Poiché gli atti linguistici sono un tipo di azione umana, e poiché la capacità del discorso di rappresentare oggetti e stati di cose è parte di una capacità più generale della mente di porre in relazione l'organismo con il mondo, qualsiasi spiegazione completa del discorso e linguaggio richiede una spiegazione di come la mente/cervello mette in relazione l'organismo con la realtà» (Searle, 1983, trad. it. p. 7).
  • 11 Cfr. J. R. Searle, “Minds, Brains, and Programs”, The Behavioral and Brain Sciences, 3, 1980, trad. it. L'Io della Mente, fantasie e riflessioni sul sé e sull'anima, 1985, pp. 341-60.
  • 12 La psicologia ingenua o del senso comune – in termini anglosassoni: folk psychology – è l'armamentario di conoscenze psicologiche di cui si serve ogni uomo al fine di predire le azioni altrui. Essa attinge al vocabolario mentalistico che si esprime in termini di credenze, desideri e intenzioni. Alcuni scienziati cognitivi, come Paul Churchland (1991), ritengono che si tratti di una vera e propria teoria che andrebbe sostituita con le moderne teorie neu- roscientifiche. Dennett (1991), invece, preferisce riferirsi a essa come un'abilità – folk craft – sebbene anch'egli non manchi di metterne in dubbio la legittimità scientifica.
  • 13 Dennett, come Searle, definisce "stati intenzionali" gli stati mentali che svolgono imprendiscibilmente il ruolo attribuito all'intenzionalità. A esempio, desiderio e credenza sono sempre "intenzionali", diversamente da altri "stati mentali" quali la depressione che non è sempre orientata a un contenuto preciso.
  • 14 Sebbene con atteggiamento proposizionale si indichi il ruolo svolto dalle proposizioni nella logica simbolica – e dunque il termine "proposizione" non è da intendersi nella sua accezione grammaticale – sembra una forzatura affermare che l'ontologia degli stati intenzionali abbia a che fare con la predisposizione ad "afferrare" un enunciato logico. Si può fare ricorso alla logica delle proposizioni per descrivere il ruolo causale di alcuni stati mentali, ma concordo con Searle che ciò non spiega nulla dell'ontologia degli stati mentali e della loro proprietà di essere relativi agli oggetti del mondo. In altri termini: caratterizzare ontologicamente gli stati intenzionali come atteggiamenti proposizionali equivale a un'antropomorfizzazione di tutti i sistemi intenzionali in quanto, come evidenzia il filosofo cognitivo William Bechtel, parafrasando Searle: «Le peculiarità logiche esibite dal linguaggio che descrive i fenomeni mentali non individuano realmente delle caratteristiche degli stati mentali, ma soltanto quelle del linguaggio che usiamo per parlare degli stati mentali. L'intenzionalità si riferisce al fatto che gli stati mentali hanno dei contenuti e che si riferiscono ad altri fenomeni, i quali costituiscono aspetti del mondo assai diversi dalle peculiarità logiche degli enunciati che vertono sui fenomeni mentali. Searle sostiene così che la ricerca di un criterio linguistico sia una falsa pista, perché non coglie l'aspetto cruciale dell'intenzionalità» (Bechtel, 1992, trad. it. p. 77).
  • 15 Searle ricorre alla metafora della liquidità dell'acqua: «Una proprietà emergente di un sistema è qualcosa che è spiegato causalmente dal comportamento degli elementi del sistema; ma non è una proprietà di qualsiasi elemento individuale e non può essere spiegata semplicemente come la somma delle proprietà di quegli elementi. La liquidità dell'acqua è un buon esempio: il comportamento delle molecole di H2O spiega la liquidità, ma le mole- cole individuali non sono liquide» (Searle, 1997, trad. it. p. 14).
  • 16 Precisamente, il naturalismo biologico è la tesi filosofica che ritiene «che i fenomeni mentali causati dai processi neurofisiologici cerebrali sono a loro volta proprietà del cervello» (Searle, 1992, trad. it. p. 17). Searle aggiunge: «Gli eventi e i processi mentali sono parte della nostra storia naturale non meno della digestione, della mitosi, della meiosi o della secrezione di enzimi» (ibidem).
  • 17 Searle si riferisce alla lingua cinese a titolo esemplificativo.
  • 18 Lo stesso Searle nel suo articolo del 1980 le presenta e risponde a ognuna di queste.
  • 19 Marconi (1997) cita molti dati neuropsicologici a sostegno dell'ipotesi della distinzione e dell'autonomia delle due facoltà.
  • 20 Cfr. Marconi, 1997, trad. it. p. 72.
  • 21 L'IA classica è l'area di ricerca che ha caratterizzato i primi decenni di sperimentazione nelle scienze dell‟artificiale. In questo caso la figura dello sperimentatore è quella dell‟ingegnere della conoscenza che si limita a scrivere delle regole simboliche che vengo- no poi computate da un motore inferenziale.
  • 22 Cfr. Searle, 1980, trad. it. p. 350.
  • 23 Per un approfondimento sulle teorie dei sistemi dinamici rimando a: F. Capra, The Web of Life, 1996, trad. it. La rete della vita. Una nuova visione della natura e della scienza, 1997.
  • 24 Con il termine "persistenza funzionale" si indica la capacità di un sistema di tollerare sia l'errore, che il rumore – con quest'ultimo si intende il sovraccarico d'informazione causato dal lavoro di più elementi "impegnati" nella computazione di funzioni. Nei sistemi neuronali queste caratteristiche sono ottenute grazie al parallelismo del sistema e grazie alla plasticità delle connessioni. Infatti, la perdita di singole connessioni cerebrali non causa necessariamente un malfunzionamento del sistema poiché quest'ultimo può assorbirne la mancanza facendo computare ad altre reti neuronali le funzioni temporaneamente perdute e stabilendo nuove connessioni tra i neuroni.
  • 25 A esempio, non si può isolare una galassia, un tornado e un mercato azionario per com- prenderne i meccanismi di funzionamento come in un laboratorio. A limite, in alcuni casi, si può cercare di riprodurre fisicamente questi fenomeni ai fini di studio.
  • 26 Come fa notare ironicamente Parisi: «Tutto può essere simulato ma questo non vuol dire che tutto sia un computer. Anche un oceano può essere simulato in un computer ma questo non vuol dire che l'oceano sia nel computer» (Parisi, 2006, p. 13).
  • 27 Bisogna stare attenti a non confondere la definizione di MT e MUT. La MUT è un concetto probabilmente irrealizzabile fisicamente, in quanto viene ipotizzata da Turing l'eventualità di avere una tabella d'istruzioni che computi ogni funzione calcolabile meccanicamente – si pensi al nastro scorrevole potenzialmente infinito a cui fa riferimento. Per realizzare una simile ipotesi l'uomo dovrebbe ricercare e formalizzare ogni funzione computabile; il che pare al di fuori della portata della più ottimistica delle imprese. Una MT è invece programmata per calcolare una singola funzione. Questo è il motivo per cui si può sostenere che i calcolatori digitali sono un insieme finito di MT.
  • 28 Proprio per questo aspetto "camaleontico" la teoria di Dennett è descritta da altri studiosi come una teoria interpretazionista o strumentalista della mente.
  • 29 Nella mia tesi di laurea dal titolo: Può una macchina pensare? Dibattito sull'Intelligenza Artificiale Forte e prospettive future – scaricabile al link: www.libreriauniversitaria.it – metto in evidenza ulteriori limiti dei sistemi artificiali concernenti la modellazione semantica, soprattutto sul piano figurato e pragmatico.
  • 30 L'acronimo sta per: Good Old-Fashioned AI. L'espressione è stata usata per la prima volta da John Haugeland (1988), uno degli esponenti di spicco della sperimentazione dell'IA degli anni ˈ80.
  • 31 Il concetto di modulo è stato introdotto nelle scienze cognitive dal filosofo Jerry Fodor (1983). Un modulo cognitivo è: 1) specializzato a svolgere uno specifico compito; 2) incapsulato – cioè svolge autonomamente la propria funzione; 3) obbligato a "rispondere" allorché si presenta l'input adeguato 4); innato.
  • 32 Ovviamente, prima di raggiungere una meta così difficile occorre, secondo Brooks, modellare delle risposte motorie che tengano conto dei requisiti adattivi presenti nel mondo animale. Uno di questi è l'immediatezza dell'azione, che invece viene ostacolata da una pianificazione simbolica istituita "dall‟alto" – che è la risposta tipica del calcolo messo in atto dalla MT.
  • 33 Le reti neurali più semplici sono costituite da tre strati: uno di input, uno d'output e uno strato intermedio (hidden layer) in cui si attuano delle computazioni non controllate dallo sperimentatore. Per un'introduzione sul tema: J. Domeniconi, Discorsi sulle reti neurali e l'apprendimento, 2001.
  • 34 Ovviamente, una rete neurale artificiale tratta valori numerici – non essendo costituita di "materia" – mentre una rete neuronale elabora grandezze di ordine fisico e chimico.
  • 35 Questa importante proprietà le rende ottimali anche per svolgere compiti di classificazione dell'input. Si pensi alle prestazioni straordinarie ottenute nel riconoscimento dei volti.
  • 36 La modellazione computazionale raggiunta con gli algoritmi genetici è molto fedele ai processi presenti nella biologia delle specie, in quanto l'algoritmo dà conto anche dei processi di espressività genetica, che coinvolgono i rapporti tra un sistema e un ambiente, durante tutto l'"arco di vita".
  • 37 Per scongiurare questo rischio la computazione deve avvenire per mezzo di una macchina parallela.
  • 38 È vero anche il contrario: le scienze naturali sono progredite enormemente grazie all‟uso del computer, il quale ha consentito di dare rigore alla teoria mediante la memoriz- zazione e la manipolazione di quantità sterminate di dati sperimentali.
  • 39 Ipotesi che, valutata scientificamente, andrebbe probabilmente rigettata.
  • 40 Si tratta di una delle repliche alla stanza cinese, riportata dallo stesso Searle nel suo articolo del 1980.
  • 41 L'espressione Artificial Life viene usata dall'informatico Cristopher Langton nel 1987, in una conferenza internazionale sulla sintesi e la simulazione dei sistemi viventi. Il programma di ricerca ha preso forma durante gli anni '90. In Italia il più autorevole ricercatore impegnato in questo campo è Domenico Parisi, che descrive questa ipotesi come un'IA debole, ponendo il suo programma di ricerca in antitesi con quello dell'IA classica. Parisi (2005) identifica almeno 12 differenze tra la nuova e la vecchia IA: 1) Mentre l'IA classica segue un approccio top down al modellamento dell'intelligenza – concentrandosi su aspetti quali linguaggio e ragionamento – la Vita Artificiale cerca di modellare aspetti propriocettivi quali la sensibilità corporea e l'emozione 2) Se l'IA classica fonda il suo programma di ricerca sul principio funzionalista della realizzabilità multipla ignorando deliberatamente il sostrato neurologico, la Vita Artificiale si ispira al funzionamento del sistema nervoso attraverso lo studio delle reti neurali 3) L'IA classica non considera nei suoi studi il corpo del sistema artificiale, mentre la Vita Artificiale colloca il sistema artificiale in un contesto ecologico per studiarne il comportamento in modo globale 4) L'IA classica considera solo l'intelligenza degli uomini, invece la Vita Artificiale si interessa all'intelligenza di tutte le specie viventi 5) Mentre l'IA classica ha una visione sincronica del suo oggetto di studio, la Vita Artificiale sviluppa anche una visione diacronica attraverso le simulazioni con gli algoritmi genetici 6) Mentre l'IA classica è ricerca applicativa, la Vita Artificiale è ricerca pura 7) La Vita Artificiale rifiuta il computazionalismo e l'IA forte – non considerando le menti solo dei programmi 8) L'IA classica modella il comportamento per compartimenti stagni, invece la Vita Artificiale studia il comportamento in modo unitario e olistico 9) Se l'icona dell‟IA classica è il computer, l'icona della Vita Artificiale è il robot 10) Se per l'IA classica il computer è il modello della mente, per la Vita Artificiale è solo uno strumento di verifica delle teorie 11) L'IA classica nasce con il primo cognitivismo fondato sull'intreccio di filosofia analitica, linguistica e psicologia, invece la Vita Artificiale si ispira alle "nuove scienze cognitive" e agli studi di neuroscienze, biologia evoluzionista, fisica e matematica 12) L'IA classica è raziocentrica, occidentocentrica e antropocentrica per il fatto di studiare l'intelligenza solo in quanto un misto di logica e linguaggio, la Vita Artificiale studia l'intelligenza con un approccio bottom-up, ed è aperta alla considerazione di tutti gli attributi dell'agire intellettivo.
  • 42 A esempio, il filosofo del linguaggio Alfredo Paternoster (2002) ritiene che non sia possibile risolvere il problema dell'ancoraggio simbolico facendo riferimento ai sistemi connessionisti. Il cibernetico Roberto Cordeschi (2003) ha sottolineato che la nuova intelligenza artificiale si trova ad affrontare i medesimi problemi della vecchia. In una corrispondenza privata, mi scrive: «Penso, in breve, che la stanza cinese o vale per tutta l'IA (classica, come si dice, e connessionista) o non vale affatto: in altri termini non se ne esce con i sistemi a reti (o paralleli) se si accettano le premesse dell'obiezione (cosa non necessaria ovviamente) [...] Anche perché questi sistemi non meno degli altri non hanno rapporti col mondo. Inoltre anche costruendo robot reali, ci si ritrova sempre con lo stesso problema: per quanto si restringa l'intervento dall'esterno del progettista, questo non può essere mai eliminato, perché è lui che SCEGLIE le restrizioni per i modelli (se siamo interessati ai modelli)» [messaggio e mail del 13/1/2010].
  • 43 Si pensi alla teoria più semplice sulla comunicazione dei messaggi nervosi: l'apprendimento hebbiano – dal nome dello psicologo Donald Hebb (1949). Stando alla teoria – tutt'ora confermata dalla neuroscienza – l'attivazione simultanea di due neuroni tra loro connessi determina la modifica dei pesi delle connessioni che li uniscono, in modo da aumentare la probabilità che uno dei due neuroni si attivi quando l'altro si attiva. Questo semplice principio, assieme ad altri, ha un significato e un risvolto fenomenologico ai fini dell'apprendimento del sistema vivente.
  • 44 Nemmeno con gli attuali mezzi tecnici è possibile mappare interamente ogni singola connessione neuronale presente in un cervello. Senza contare il fatto che ogni cervello ha, di fatto, una topografia diversa.
  • 45 Il logico e filosofo Jack Copeland (1999) ha condotto indagini storiografiche sui lavori incompiuti di Turing e ritiene che lo stesso padre dell'IA abbia scoperto dei modi per trascendere le limitazioni fisiche della sua "macchina". Copeland si riferisce ai lavori della unorganized machine, l'accelerated Turing machine e altri ancora. A questi aggiunge ulteriori modelli computazionali contemporanei che vanno dalla computazione quantistica a quella naturale, dagli algoritmi super-ricorsivi alle reti neurali che calcolano numeri reali. Tuttavia, la maggior parte degli studiosi ritiene si tratti solo di un mito, com'è possibile leggere alla voce enciclopedica di wikipedia dedicata al concetto di algoritmo: Wikipedia - algoritmo. Ho discusso di questo tema con autorevoli esponenti della ricerca italiana e internazionale, come il cibernetico Giuseppe Tratteur, che in uno scambio e mail del 19/4/2010, mi scrive: «Non esiste l'ipercomputabilità, solo ipotesi non convalidate».
  • 46 Pur avendo sintetizzato nel punto (3) l'approccio connessionista al problema del tempo va detto che l'espediente della ricorsione da solo una memoria a breve termine alla rete neurale, in quanto la capacità ricorsiva di una rete si estende solo per poche frazioni di secondo. Inoltre, la maggior parte delle attuali reti neurali "tratta" il tempo in modo discreto – e non continuo – per il fatto di essere simulate su calcolatore digitale.

Contatto progettista

Puoi contattare la progettista del sito compilando questo modulo (tutti i campi sono necessari)