Attenzione: nel tuo browser javascript è disattivato!
I contenuti di questo sito restano disponibili, ma con javascript la tua esperienza sarà molto migliore.
Segui le istruzioni per attivare javascript nei browser desktop e mobile e poi ricarica questa pagina.

Divenire

Rassegna di studi interdisciplinari sulla tecnica e sul postumano

LA RIVISTA

Presentazione

Divenire è il titolo di una serie di volumi incentrati sull'interazione tra lo sviluppo vertiginoso della tecnica e l'evoluzione biologica dell'uomo e delle altre specie, ovvero votati allo studio dei rapporti tra la tecnosfera e la biosfera. Gli autori, provenienti da diverse aree disciplinari e orientamenti ideologici, sviluppano la propria analisi con occhio attento al probabile esito finale di queste mutazioni casuali o pianificate: il postumano. Sono dunque studi che sul piano temporale spaziano nel presente, nel passato e nel futuro, mentre sul piano della prospettiva disciplinare sono aperti a idee e metodi provenienti da diverse aree di ricerca, che vanno dalle scienze sociali alle scienze naturali, dalla filosofia all'ingegneria, dal diritto alla critica letteraria.

Ogni volume ha quattro sezioni. In Attualità compaiono studi attinenti a problematiche metatecniche del presente. Genealogia è dedicata a studi storici sui precursori delle attuali tendenze transumanistiche, futuristiche, prometeiche — dunque al passato della metatecnica. In Futurologia trovano spazio esplorazioni ipotetiche del futuro, da parte di futurologi e scrittori di fantascienza. Libreria è dedicata ad analisi critiche di libri su tecnoscienza, postumano, transumanesimo.
I volumi pubblicati finora (ora tutti leggibili in questo sito):

  1. D1. Bioetica e tecnica
  2. D2. Transumanismo e società
  3. D3. Speciale futurismo
  4. D4. Il superamento dell'umanismo
  5. D5. Intelligenza artificiale e robotica

Divenire 5 (2012) è interamente dedicato all'Intelligenza Artificiale (IA).

Intelligenze artificiose (Stefano Vaj) sostiene che il tema dell'automa (esecuzione di programmi antropomorfi o zoomorfi su piattaforma diversa da un cervello biologico) resta tuttora circondato da un vasto alone di misticismo: quando non viene negata in linea di principio la fattibilità dell'IA, ne viene esagerata escatologicamente la portata. (english version)

La maschera dell'intelligenza artificiale (Salvatore Rampone) indaga gli equivoci concettuali sottostanti alla domanda se una macchina abbia intelligenza o possa pensare e spiega perché l'IA debba nascondersi sotto la maschera del Soft computing.

Il problema filosofico dell'IA forte e le prospettive future (Domenico Dodaro) Analizza il tema della coscienza  semantica mettendo in luce i suoi  aspetti corporei e considera la possibilità di implementarli in sistemi artificiali. Sono valutati sia i limiti tecnologici e computazionali della riproduzione artificiale della coscienza (intesa come una facoltà del vivente) sia i programmi di ricerca più fecondi al fine di arginarli.

Cervelli artificiali? (Emanuele Ratti) espone il progetto di ricerca forse più ardito nel campo dell'IA che emula funzioni e organi biologici: il cervello artificiale di Hugo de Garis, introducendo concetti chiave di questo settore disciplinare come rete neurale e algoritmo genetico.

>

Presentazione

Automi e lavoratori. Per una sociologia dell'intelligenza artificiale (Riccardo Campa) sposta l'attenzione sull'impatto economico e sociale della computerizzazione e della robotizzazione. Quali effetti sull'occupazione e quali correttivi per massimizzare i benefici e minimizzare gli effetti indesiderati? Proiettando il tema nel futuro, vengono analizzati i possibili scenari, in dipendenza di diverse politiche (o non-politiche) dello sviluppo tecnologico.

Il nostro cervello cinese (Danilo Campanella) riporta l'origine dei calcolatori moderni all'antica Cina. Utilizzando matematica, teologia e misticismo, i cinesi elaborarono i primi rudimenti del linguaggio binario, poi rubato dagli occidentali.

Alan Turing: uno spirito transumanista (Domenico Dodaro) Sono esposte le ragioni per cui Turing può essere definito un pensatore transumanista. Il matematico inglese è in genere descritto solo come padre dell'IA tradizionalmente intesa. L'analisi dell'autore dimostra invece la sua vicinanza ai temi delle "nuove scienze cognitive" e della computazione complessa (o ipercomputazione).

Passato, presente e futuro dell'Intelligenza Artificiale (Bruno Lenzi). L'articolo mostra, su un arco temporale molto ampio, fallimenti, riuscite, pericoli e scoperte delle scienze cognitive, sottolineando che l'IA non è questione solo tecnico-scientifica, racchiude germogli e frutti maturi in ogni area del sapere, e potrebbe essere molto diversa dall'intelligenza umana.

Post-embodied AI (Ben Goertzel). L'autore, uno dei principali sostenitori dell'AI forte, analizza la questione filosofica dell'embodiment: una intelligenza artificiale forte (capace di risolvere problemi in domini nuovi, di comunicare spontaneamente, di elaborare strategie nuove) deve necessariamente avere un body?

Nanotecnologia: dalla materia alle macchine pensanti (Ugo Spezza) spiega questo ramo della scienza applicata che progetta nanomacchine e nanomateriali in molteplici settori di ricerca: biologia molecolare, chimica, meccanica, elettronica ed informatica. L'articolo presenta le applicazioni già esistenti e le fantastiche potenzialità progettuali, dai nanobot per il settore medico ai neuroni artificiali.

Verso l'Intelligenza artificiale generale (Gabriele Rossi) introduce la Matematica dei Modelli di Riferimento degli iLabs ed esplora i potenziali vantaggi di questa prospettiva alla luce di alcune questioni teoriche di fondo che pervadono tutta la storia della disciplina.

Ich bin ein Singularitarian (Giuseppe Vatinno) è una recensione di La singolarità è vicina di Ray Kurzweil.

NUMERI DELLA RIVISTA

Divenire 1. Bioetica e tecnica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 2. Transumanismo e società

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 3. Speciale futurismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 4. Il superamento dell'umanismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 5. Intelligenza artificiale e robotica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

RICERCHE

1

2

3

4

CHI SIAMO

Comitato scientifico

Riccardo Campa
Docente di metodologia delle scienze sociali all'Università Jagiellonica di Cracovia
Patrizia Cioffi
Docente di neurochirurgia all'Università di Firenze
Amara Graps
Ricercatrice di astronomia all'Istituto di Fisica dello Spazio Interplanetario
James Hughes
Docente di sociologia medica al Trinity College del Connecticut
Giuseppe Lucchini
Docente di statistica medica all'Università di Brescia
Alberto Masala
Ricercatore di filosofia all'Università La Sorbonne (Paris IV)
Giulio Prisco
Vice-presidente della World Transhumanist Association
Salvatore Rampone
Docente di Sistemi di elaborazione delle informazioni all'Università degli studi del Sannio
Stefan Lorenz Sorgner
Docente di filosofia all'Università di Erfurt
Stefano Sutti
Docente di diritto delle nuove tecnologie all'Università di Padova
Natasha Vita-More
Fondatrice e direttrice del Transhumanist Arts & Culture H+ Labs

Ait

L'AIT (Associazione Italiana Transumanisti) è un'organizzazione senza scopo di lucro con la missione di promuovere, in ambito culturale, sociale e politico, le tecnologie di potenziamento dell'essere umano.

Fondata nel 2004, è stata formalizzata mediante atto pubblico nel 2006 ed ha avviato le pratiche per ottenere il riconoscimento.

Sede legale AIT: via Montenapoleone 8, 20121 Milano

Sito internet AIT: www.transumanisti.it (>)

Pubblica questa rivista: Divenire. Rassegna di studi interdisciplinari sulla tecnica e il postumano

Curatore: Riccardo Campa

Segretaria di redazione: Nicoletta Barbaglia

Art director: Emmanuele Pilia (>)

Gruppo di Divenire su Facebook: (>)

Contatti

Puoi contattare la Redazione di Divenire compilando questo modulo (tutti i campi sono necessari)

La maschera dell'intelligenza artificiale

Autore: Salvatore Rampone

da: Divenire 5, Attualità () | pdf | stampa

Sommario

Per molto tempo in contesti "seri" di intelligenza artificiale si è parlato poco. E quando lo si è fatto, ci si è accertati di avere il giusto distacco. Come quando si parla di fusione fredda o di reattori adronici. Le idee troppo popolari e troppo discusse tendono a creare attese eccessive che, nel breve periodo, vengono sistematicamente deluse. E la ricerca scientifica necessita di finanziamenti. Se un argomento di ricerca è ritenuto poco credibile, semplicemente questo non viene finanziato. Talvolta qualche idea è stata nascosta per poterla sviluppare senza intoppi; e farla arrivare ad essere molto più che un'idea. Con effetti profondi, ampi e inattesi.

Gli inverni dell’Intelligenza Artificiale

Nella storia dell'Intelligenza Artificiale di periodi in cui i fondi e l'interesse sono mancati ce ne sono stati molti. Tanti che ad essi è stato dato persino un nome: inverni dell'intelligenza artificiale 1 . Quando un'idea diventa troppo popolare, se ne parla tanto e le attese diventano maggiori di quanto sia lecito aspettarsi. In ambito scientifico questo fenomeno viene detto hype. E quando gli entusiasmi diventano eccessivi accade che le attese vengano deluse. E la delusione degli investitori corrisponde alla drastica riduzione dei fondi per la ricerca. Il problema degli hype, delusione e taglio dei fondi è assai comune per le tecnologie emergenti, ma è stato particolarmente grave per l'intelligenza artificiale, ripetendosi molte volte (vedi Tavola 1).

Tavola 1: Inverni dell'Intelligenza Artificiale
1966 Il fallimento della traduzione automatica
1970 L'abbandono delle reti neurali
1971-75 I pessimi risultati dello Speech Understanding Research program del DARPA alla Carnegie Mellon University
1973 La drastica riduzione della ricerca in Intelligenza Artificiale nel Regno Unito dopo il rapporto Lighthill
1973-74 Il taglio generalizzato dei fondi per la ricerca accademica in Intelligenza Artificiale da parte del DARPA
1987 Il tracollo del mercato delle macchine Lisp
1988 La cancellazione di nuove spese sull'Intelligenza Artificiale da parte della Strategic Computing Iniziative degli Stati Uniti
1993 Il crollo dei sistemi esperti
1990- La scomparsa degli originali obiettivi del progetto dei computer di quinta generazione

I periodi peggiori per l'intelligenza artificiale sono stati quelli tra 1974-80 e 1987-93.

Ora questi periodi corrispondono a reali fallimenti solo nella percezione popolare. Gli ambiziosi obiettivi finali, è vero, hanno bisogno di tempo, ma il progresso non si è mai interrotto. Tuttavia la pressione esercitata sugli operatori aveva ed ha effetti traumatici. Ad esempio quando Marvin Minsky e Seymour Papert nel 1969 hanno pubblicato 2 le prove dell'impossibilità del modello di rete neurale allora in voga, il Perceptron di Frank Rosenblatt, di apprendere alcune funzioni matematiche, le reti neurali sono state letteralmente ridicolizzate. E molti vedono nell'incidente di navigazione occorso a Frank Rosenblatt poco dopo un vero e proprio suicidio. Quando poi nei successivi anni '80 le problematiche delle reti neurali evidenziate da Minsky e Papert sono state risolte, la ricerca è ripartita come avrebbe voluto il suo caposcuola. Peccato che Rosenblatt possa ora raccogliere solo riconoscimenti postumi.

E non tutti sono stati cosi coraggiosi. Alcuni studiosi per rispondere alla richiesta di risultati eclatanti hanno preferito inventarli. Venendo progressivamente scoperti e portando discredito alla ricerca. Sì, è successo e succede anche in ambito scientifico. Di recente, come riportato per ben due volte dal New York Times 3 , Marc Hauser, professore di psicologia all'Università di Harvard e biologo evoluzionista, ha falsificato i dati di uno studio pubblicato nel 2002 sulla rivista Cognition nel quale dimostrava come le scimmie siano in grado di comprendere semplici regole algebriche e di discriminare tra diversi tipi di operazioni. Si tratta di uno dei massimi esperti di neuropsicologia cognitiva comparata e uno dei padri della teoria della morale naturale, che evidenzia nella nostra specie una sorta di codice innato, ben riassunta in un libro di grande successo, Menti morali 4 . E' possibile che Hauser abbia ceduto al desiderio di mantenere alto il suo prestigio, ma ora come facciamo a credere alla necessità biologica del rispetto delle regole morali se il suo scopritore è il primo a violarle? Il mondo scientifico durante gli inverni dell'intelligenza artificiale ha dovuto confrontarsi con risultati incredibili e paradossali. Una situazione ben evidenziata in un divertentissimo articolo di Garrison Cottrell, ora Professore all'Università di California San Diego, nel quale si ironizzava su possibili reti neurali per riprodurre gli effetti degli allucinogeni sul suono della chitarra di Jimi Hendrix, pubblicato su una rivista seria come Connection Science, in una apposita sezione "humor" 5 .

La maschera polare

Che tu te ne prenda cura (That Thou Art Mindful of Him) è un racconto fantascientifico scritto da Isaac Asimov 6 . Nel racconto i robot fanno paura agli umani e il Governo Mondiale ha applicato leggi sempre più restrittive all'uso dei robot e ritiene sia giunto il momento di chiudere il loro unico produttore, la U.S. Robots. Keith Harriman, direttore dell'azienda, su suggerimento proprio di un robot, trova la soluzione. L'azienda dovrà smettere di produrre robot antropomorfi: inizieranno invece a creare robot animali, che non intimoriscono l'uomo. Harriman ritiene che dopo secoli di abitudine ai robot animali, le future generazioni non avranno nessun timore dei robot umani.

Qualcosa di molto simile è accaduto per l'intelligenza artificiale. Agli inizi degli anni novanta del secolo scorso era apparso chiaro che i problemi degli hype erano destinati a ripetersi. Il concetto stesso di intelligenza è un hype, di per se così ambiguo e sfuggente da impedire una definizione rigorosa. Così nel 1991, in pieno inverno, un logico, Lofti Zadeh, padre dei fuzzy set 7 , inventa la "maschera polare" dell'intelligenza artificiale, spostando sottilmente ma efficacemente il problema e inventando de facto una nuova disciplina: il Soft Computing 8 .

Le tecniche di soft computing si prefiggono di valutare, decidere, controllare e calcolare in un ambito impreciso e vago emulando e utilizzando la capacità degli esseri umani di eseguire le suddette attività sulla base della loro esperienza. Il soft computing si avvale delle caratteristiche delle sue tre principali branche:

  • la possibilità di modellare e di controllare sistemi incerti e complessi, nonché di rappresentare la conoscenza in maniera efficiente attraverso le descrizioni linguistiche tipiche della teoria degli insiemi fuzzy;
  • la capacità d‟ottimizzazione degli algoritmi genetici la cui computazione si ispira alle leggi di selezione e mutazione tipiche degli organismi viventi;
  • la capacità di apprendere complesse relazioni funzionali delle reti neurali, ispirate a quelle proprie dei tessuti cerebrali.

Secondo Lotfi Zadeh, «una linea promettente è costituita dall'uso della logica fuzzy in combinazione con il calcolo neurale e gli algoritmi genetici. Più in generale, la fuzzy logic, le reti neurali e gli algoritmi genetici possono considerarsi i principali costituenti di ciò che potrebbe essere definito calcolo soft. A differenza dei metodi di calcolo tradizionali o hard, il soft computing si prefigge lo scopo di adattarsi alla pervasiva imprecisione del mondo reale. Il suo principio guida può così esprimersi: sfruttare la tolleranza per l'imprecisione, l'incertezza e le verità parziali in modo da ottenere trattabilità, robustezza e soluzioni a basso costo».

La sua idea è stata sostenuta da Teuvo Kohonen, pioniere delle reti neurali adattative: «soft computing, real-world computing ecc. sono denominazioni comuni per certe forme di elaborazione naturale di informazione che hanno la loro origine in biologia. La logica fuzzy e probabilistica, le reti neurali, gli algoritmi genetici ecc., d'altra parte, sono formalismi teorici alternativi mediante i quali si possono definire schemi computazionali e algoritmi per questi scopi».

Pertanto, le tre tecniche citate, complementari, e non competitive rispetto a quelle tradizionali, hanno costituito il nucleo centrale del calcolo soft, e un modo nuovo di affrontare la questione dell'intelligenza delle macchine. Sotto la maschera del soft computing vi è l'ammissione di principio che al momento la domanda se una macchina abbia intelligenza o possa pensare è troppo confusa per poter dare una risposta precisa. D'altra parte se lo scopo è quello di simulare il comportamento umano, la misura del successo è data dal grado di somiglianza delle prestazioni del sistema con il comportamento umano. Si accetta in altri termini il passaggio di scopo:

  • Non è lo studio di come rendere i calcolatori capaci di pensare nel vero senso letterale del termine 9 . Cioè realizzare sistemi che pensano come gli uomini.
  • È lo studio di come far fare ai calcolatori cose che, ora come ora, gli uomini fanno meglio 10 . Cioè realizzare sistemi che agiscono come gli uomini.

E nello specifico un sistema intelligente deve fare 3 cose:

  1. Memorizzare la conoscenza
  2. Applicare la conoscenza per risolvere i problemi
  3. Acquisire conoscenza tramite l'esperienza

Il soft computing ha ereditato così tutta la ricerca dell'intelligenza artificiale "scientifica" e le sue principali metodologie, ma senza le sue pressanti attese. E da quel momento, sotto la maschera del soft computing, priva dell'assillo della nascita del nuovo dio AI, l'intelligenza artificiale è dilagata in migliaia di applicazioni 11 .

Sotto la maschera

Tomaso Poggio, Eugene McDermott professor presso il Department of Brain Sciences del Massachusetts Institute of Technology (MIT) di Boston, ha sviluppato un approccio teorico ai problemi della computer vision partendo dalle neuroscienze, dallo studio della fisiologia del cervello e non da criteri ingegneristici. E riguardo al futuro ha idee precise: «Negli ultimi 3-4 anni è stato dimostrato che imitare il funzionamento del cervello porta ad algoritmi che applicati all'intelligenza artificiale funzionano molto bene, quindi è un segnale che siamo sulla buona strada. Ho sempre detto che capire cos'è l'intelligenza, com'è, come funziona, e quindi creare macchine intelligenti che la imitino è un problema molto difficile. Non mi aspetto che sarà risolto nei prossimi 10 anni. Ci vorrà molto di più».

Ma l'intelligenza artificiale si manifesta in svariati modi, ce ne sono altri, che, secondo Tomaso Poggio, possono essere oggi molto più insidiosi: «Per esempio Google, che è la cosa in un certo senso più vicina all'intelligenza artificiale, un'entità che è entrata nella vita di tutti. Ha accesso ad una serie di informazioni su quello che facciamo, quali siti web visitiamo, quali sono le nostre e-mail: la nostra vita privata non è mai stata così pubblica come lo può essere adesso. Google è uno strumento estremamente utile, ma ha una sua intelligenza o potrebbe sicuramente evolverla nel corso degli anni» 12 .

Poggio parla di uno dei maggiori investitori attuali nel settore del soft computing. Nei mesi scorsi si è sentito parlare di BlindType, una tastiera virtuale che si basa su soft computing per correggere ciò che viene digitato sui cellulari. BlindType riconosce gli errori di digitazione sugli schermi touch e sembra interpretare ciò che ha in mente chi scrive. La tecnologia sembra così promettente che Google ha acquisito la startup, creata da Kostas Eleftheriou e Panos Petropoulos 13 .

Ed è di pochi giorni or sono la notizia, quasi in sordina, che Google offre un nuovo servizio gratuito indirizzato agli sviluppatori di software: Google Prediction API 14 . Si tratta di un sistema che riesce a "capire" e "classificare" informazioni contenute in un testo, secondo alcune regole di apprendimento impostate dallo sviluppatore. Ma a cosa serve? Esempi possono essere:

  • Identificazione della lingua usata per comporre la frase
  • Pubblicità di prodotti correlati a quanto viene scritto
  • Re-indirizzamento automatico di messaggi
  • Analisi dei sentimenti di chi scrive (clienti, amici, ...)
  • Diagnostica
  • Classificazione di e-mail e documenti
  • Identificazione di attività sospette
  • e molto altro...

E se poi qualcuno raccontasse che negli ultimi mesi un'auto ha percorso 1.500 km sulle strade che vanno da San Francisco a Los Angeles senza alcun intervento umano, senza che mai nessuno prendesse in mano il volante, se non la macchina stessa, probabilmente si penserebbe ad uno scherzo. Eppure è realtà: Google ha messo in strada una Toyota Prius, che è un vero concentrato di soft computing, capace di percorrere oltre 1.500 chilometri senza alcun intervento dei due ingegneri a bordo e altri 2.200 con qualche intervento sporadico e occasionale. E senza incidenti fatta eccezione per un tamponamento (subito, per giunta) ad un semaforo. E' un progetto portato avanti da Sebastian Thrun, direttore dello Stanford Artificial Intelligence Laboratory 15 .

E non c'è solo Google. Al momento vi è un'esplosione delle applicazioni nei controlli automatici, si pensi anche soltanto ai sistemi di messa a fuoco delle macchine fotografiche, l'analisi dei sistemi complessi in ambito finanziario, il riconoscimento delle anomalie, il trattamento dei dati biologici...

Motivare la singolarità

Il concetto di singolarità tecnologica come è conosciuto oggi viene accreditato al matematico e romanziere Vernor Vinge. Vinge cominciò a parlare della Singolarità negli anni ottanta, e raccolse i suoi pensieri nel primo articolo sull'argomento nel 1993, con il saggio Technological Singularity 16 . Da allora questo è divenuto il soggetto di molte storie e scritti futuristici e di fantascienza. Il saggio di Vinge contiene l'affermazione spesso citata che «Entro trenta anni, avremo i mezzi tecnologici per creare una intelligenza superumana. Poco dopo, l'era degli esseri umani finirà».

In effetti noi non stiamo aspettando l'intelligenza artificiale. E' già qui, nascosta nelle videocamere, appostata nei rilevatori del sistema TUTOR di controllo della velocità autostradale, coordinante nelle catene di produzione, lampeggiante nei sistemi di puntamento. Nascosta da un nome e un aspetto diversi da quelli che immaginiamo, evolve, continuamente, inesorabilmente.

Eppure oltre la ricerca vi è un importante tassello da completare. Che potrebbe effettivamente dare senso e significato all'affermazione di Vinge. La scelta della motivazione. «La motivazione (dall'etimo latino motus) è una spinta per svolgere una certa attività e si può definire come un processo di attivazione finalizzato alla realizzazione di un dato scopo in relazione alle condizioni ambientali. Da tale processo dipende l'avvio, la direzione, l'intensità e la cessazione di una condotta da parte del soggetto» 17 . Anche tecnicamente la motivazione è necessaria nei sistemi evoluti. Ad esempio un'architettura neurale dotata di un circuito motivazionale/emozionale ha prestazioni migliori rispetto ad una che ne è priva 18 . Ciò sembra confermare le tesi di vari neuroscienziati 19 , secondo i quali nel sistema nervoso umano esistono strutture sotto-corticali che agiscono in appoggio al più complesso sistema corticale. Strutture presumibilmente dedicate alla gestione del livello strategico del comportamento.

Che motivazioni daremo alle nostre intelligenze artificiali? Le spingeremo a veicolare meglio la pubblicità, ad inseguire il profitto, a controllare le persone, come teme Tomaso Poggio, oppure a migliorare la condizione umana, come vorrebbero i più ottimisti? Di certo è una domanda da porsi. E presto. Come regola generale perché si goda dei risultati delle innovazioni tecnologiche si ha sempre bisogno di più tempo di quanto non prevedano i sostenitori del cambiamento. Ma quando finalmente il cambiamento arriva, in genere ha un effetto più profondo, ampio e inatteso di quanto chiunque possa immaginare, compresi gli scrittori di fantascienza 20 .

Note

  • 1 Cfr.: 1) Howe, J. (1994), Artificial Intelligence at Edinburgh University: a Perspective, www.inf.ed.ac.uk 2). Russell, S. J., Norvig, P. (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall.
  • 2 Minsky, M., Papert, S. (1988), Perceptrons, MIT Press. Prima edizione 1969.
  • 3 www.nytimes.com
  • 4 Hauser, M. d. (2007), Menti morali, Il Saggiatore.
  • 5 Cottrell, G. W., (1992) Screaming Buddha: Recreating the Sixties via Backpropagation in Time, Connection Science, Vol. 4, N. 2, pag. 155-156.
  • 6 Asimov, I. (1977), Che tu te ne prenda cura (That Thou Art Mindful of Him) in Antologia del bicentenario (The Bicentennial Man and Other Stories) trad. it. Urania 736 e 738.
  • 7 Cfr.: 1) Dubois, D., Prade, H., Yager, R. R. (1997), Fuzzy Information Engineering: A Guided Tour of Information Engineering Applications, John Wiley & Sons: New York. 2) Niskanen, V. A. (2004), Soft Computing Methods in Human Sciences Series: Studies in Fuzziness and Soft Computing, Vol. 134, XVI, 272 p., Springer.
  • 8 Zadeh, L. A. (1994), Fuzzy Logic, Neural Networks, and Soft Computing, Communications of the ACM, Vol. 37 No. 3, pag. 77-84.
  • 9 Haugeland, J. (1985), Artificial Intelligence: The Very Idea, Cambridge, Mass.: MIT Press.
  • 10 Rich, E., Knight, K. (1991), Artificial Intelligence, McGraw-Hill College.
  • 11 Tiwari, A., Knowles, J., Avineri, E., Dahal, K., Roy, R. (Eds.) (2006), Applications of Soft Computing Series: Advances in Intelligent and Soft Computing, Vol. 36, Springer.
  • 12 www.lastampa.it
  • 13 www.gadgetblog.it
  • 14 cashbit.wordpress.com
  • 15 next.liquida.it
  • 16 Vinge, V. (1993), Technological Singularity, VISION-21 Symposium NASA Lewis Research Center and the Ohio Aerospace Institute, March 30-31.
  • 17 Anolli, L., Legrenzi, P. (2006), Psicologia Generale, Il Mulino, Bologna, pag. 201.
  • 18 Ruini, F. (2006), La motivazione come determinante del comportamento di organismi artificiali: una simulazione di Artificial Life, Università degli Studi di Modena e Reggio Emilia, tesi di Laurea Specialistica in Economia e Gestione delle Reti e dell‟Innovazione, Anno Accademico 2005/06.
  • 19 LeDoux, J. (1998), Il cervello emotivo. All'origine delle emozioni (The Emotional Brain. The Mysterious Underpinning of Emotional Life), trad. it. Baldini e Castoldi, Firenze.
  • 20 Elmer-Dewitt, P. (1996), Benvenuti nel cyberspazio, Teknos, vol.6, n.1, supplemento.

Contatto progettista

Puoi contattare la progettista del sito compilando questo modulo (tutti i campi sono necessari)