Attenzione: nel tuo browser javascript è disattivato!
I contenuti di questo sito restano disponibili, ma con javascript la tua esperienza sarà molto migliore.
Segui le istruzioni per attivare javascript nei browser desktop e mobile e poi ricarica questa pagina.

Divenire

Rassegna di studi interdisciplinari sulla tecnica e sul postumano

LA RIVISTA

Presentazione

Divenire è il titolo di una serie di volumi incentrati sull'interazione tra lo sviluppo vertiginoso della tecnica e l'evoluzione biologica dell'uomo e delle altre specie, ovvero votati allo studio dei rapporti tra la tecnosfera e la biosfera. Gli autori, provenienti da diverse aree disciplinari e orientamenti ideologici, sviluppano la propria analisi con occhio attento al probabile esito finale di queste mutazioni casuali o pianificate: il postumano. Sono dunque studi che sul piano temporale spaziano nel presente, nel passato e nel futuro, mentre sul piano della prospettiva disciplinare sono aperti a idee e metodi provenienti da diverse aree di ricerca, che vanno dalle scienze sociali alle scienze naturali, dalla filosofia all'ingegneria, dal diritto alla critica letteraria.

Ogni volume ha quattro sezioni. In Attualità compaiono studi attinenti a problematiche metatecniche del presente. Genealogia è dedicata a studi storici sui precursori delle attuali tendenze transumanistiche, futuristiche, prometeiche — dunque al passato della metatecnica. In Futurologia trovano spazio esplorazioni ipotetiche del futuro, da parte di futurologi e scrittori di fantascienza. Libreria è dedicata ad analisi critiche di libri su tecnoscienza, postumano, transumanesimo.
I volumi pubblicati finora (ora tutti leggibili in questo sito):

  1. D1. Bioetica e tecnica
  2. D2. Transumanismo e società
  3. D3. Speciale futurismo
  4. D4. Il superamento dell'umanismo
  5. D5. Intelligenza artificiale e robotica

Divenire 5 (2012) è interamente dedicato all'Intelligenza Artificiale (IA).

Intelligenze artificiose (Stefano Vaj) sostiene che il tema dell'automa (esecuzione di programmi antropomorfi o zoomorfi su piattaforma diversa da un cervello biologico) resta tuttora circondato da un vasto alone di misticismo: quando non viene negata in linea di principio la fattibilità dell'IA, ne viene esagerata escatologicamente la portata. (english version)

La maschera dell'intelligenza artificiale (Salvatore Rampone) indaga gli equivoci concettuali sottostanti alla domanda se una macchina abbia intelligenza o possa pensare e spiega perché l'IA debba nascondersi sotto la maschera del Soft computing.

Il problema filosofico dell'IA forte e le prospettive future (Domenico Dodaro) Analizza il tema della coscienza  semantica mettendo in luce i suoi  aspetti corporei e considera la possibilità di implementarli in sistemi artificiali. Sono valutati sia i limiti tecnologici e computazionali della riproduzione artificiale della coscienza (intesa come una facoltà del vivente) sia i programmi di ricerca più fecondi al fine di arginarli.

Cervelli artificiali? (Emanuele Ratti) espone il progetto di ricerca forse più ardito nel campo dell'IA che emula funzioni e organi biologici: il cervello artificiale di Hugo de Garis, introducendo concetti chiave di questo settore disciplinare come rete neurale e algoritmo genetico.

>

Presentazione

Automi e lavoratori. Per una sociologia dell'intelligenza artificiale (Riccardo Campa) sposta l'attenzione sull'impatto economico e sociale della computerizzazione e della robotizzazione. Quali effetti sull'occupazione e quali correttivi per massimizzare i benefici e minimizzare gli effetti indesiderati? Proiettando il tema nel futuro, vengono analizzati i possibili scenari, in dipendenza di diverse politiche (o non-politiche) dello sviluppo tecnologico.

Il nostro cervello cinese (Danilo Campanella) riporta l'origine dei calcolatori moderni all'antica Cina. Utilizzando matematica, teologia e misticismo, i cinesi elaborarono i primi rudimenti del linguaggio binario, poi rubato dagli occidentali.

Alan Turing: uno spirito transumanista (Domenico Dodaro) Sono esposte le ragioni per cui Turing può essere definito un pensatore transumanista. Il matematico inglese è in genere descritto solo come padre dell'IA tradizionalmente intesa. L'analisi dell'autore dimostra invece la sua vicinanza ai temi delle "nuove scienze cognitive" e della computazione complessa (o ipercomputazione).

Passato, presente e futuro dell'Intelligenza Artificiale (Bruno Lenzi). L'articolo mostra, su un arco temporale molto ampio, fallimenti, riuscite, pericoli e scoperte delle scienze cognitive, sottolineando che l'IA non è questione solo tecnico-scientifica, racchiude germogli e frutti maturi in ogni area del sapere, e potrebbe essere molto diversa dall'intelligenza umana.

Post-embodied AI (Ben Goertzel). L'autore, uno dei principali sostenitori dell'AI forte, analizza la questione filosofica dell'embodiment: una intelligenza artificiale forte (capace di risolvere problemi in domini nuovi, di comunicare spontaneamente, di elaborare strategie nuove) deve necessariamente avere un body?

Nanotecnologia: dalla materia alle macchine pensanti (Ugo Spezza) spiega questo ramo della scienza applicata che progetta nanomacchine e nanomateriali in molteplici settori di ricerca: biologia molecolare, chimica, meccanica, elettronica ed informatica. L'articolo presenta le applicazioni già esistenti e le fantastiche potenzialità progettuali, dai nanobot per il settore medico ai neuroni artificiali.

Verso l'Intelligenza artificiale generale (Gabriele Rossi) introduce la Matematica dei Modelli di Riferimento degli iLabs ed esplora i potenziali vantaggi di questa prospettiva alla luce di alcune questioni teoriche di fondo che pervadono tutta la storia della disciplina.

Ich bin ein Singularitarian (Giuseppe Vatinno) è una recensione di La singolarità è vicina di Ray Kurzweil.

NUMERI DELLA RIVISTA

Divenire 1. Bioetica e tecnica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 2. Transumanismo e società

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 3. Speciale futurismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 4. Il superamento dell'umanismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 5. Intelligenza artificiale e robotica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

RICERCHE

1

2

3

4

CHI SIAMO

Comitato scientifico

Riccardo Campa
Docente di metodologia delle scienze sociali all'Università Jagiellonica di Cracovia
Patrizia Cioffi
Docente di neurochirurgia all'Università di Firenze
Amara Graps
Ricercatrice di astronomia all'Istituto di Fisica dello Spazio Interplanetario
James Hughes
Docente di sociologia medica al Trinity College del Connecticut
Giuseppe Lucchini
Docente di statistica medica all'Università di Brescia
Alberto Masala
Ricercatore di filosofia all'Università La Sorbonne (Paris IV)
Giulio Prisco
Vice-presidente della World Transhumanist Association
Salvatore Rampone
Docente di Sistemi di elaborazione delle informazioni all'Università degli studi del Sannio
Stefan Lorenz Sorgner
Docente di filosofia all'Università di Erfurt
Stefano Sutti
Docente di diritto delle nuove tecnologie all'Università di Padova
Natasha Vita-More
Fondatrice e direttrice del Transhumanist Arts & Culture H+ Labs

Ait

L'AIT (Associazione Italiana Transumanisti) è un'organizzazione senza scopo di lucro con la missione di promuovere, in ambito culturale, sociale e politico, le tecnologie di potenziamento dell'essere umano.

Fondata nel 2004, è stata formalizzata mediante atto pubblico nel 2006 ed ha avviato le pratiche per ottenere il riconoscimento.

Sede legale AIT: via Montenapoleone 8, 20121 Milano

Sito internet AIT: www.transumanisti.it (>)

Pubblica questa rivista: Divenire. Rassegna di studi interdisciplinari sulla tecnica e il postumano

Curatore: Riccardo Campa

Segretaria di redazione: Nicoletta Barbaglia

Art director: Emmanuele Pilia (>)

Gruppo di Divenire su Facebook: (>)

Contatti

Puoi contattare la Redazione di Divenire compilando questo modulo (tutti i campi sono necessari)

Cervelli artificiali?

Autore: Emanuele Ratti

da: Divenire 5, Attualità () | pdf | stampa

La domanda che ogni ricercatore nel campo dell'intelligenza artificiale (AI) si pone è: quali sono le base scientifiche dell'AI? Una volta risposto a questa domanda, ci si comporterà di conseguenza. Fermo restando che chi si occupa di AI forte intende creare quella che si chiama una learning machine (una macchina in grado di apprendere senza supervisione), ritengo vi siano due approcci molto generali alla questione:

  1. trovare una particolare legge del pensiero eretta a meta-regola per la modificazione delle leggi del pensiero in base all'interazione con il proprio ambiente o un modello concettuale e matematico capace di dimostrare qualsiasi cosa 1 ;
  2. elaborare un modello nascosto nella biologia che ci permetta di ottimizzare ciò che di autogeno troviamo in natura.

In altre parole, vi sono le ricerche più improntate su modelli concettuali/logici/matematici, e quelle che cercano nella biologia e nella particolare costituzione biologica umana un modello da conoscere, da seguire per ottimizzare.

Il presente articolo si concentra sul secondo approccio.

Essendo gli esseri umani gli enti dotati del maggior grado di intelligenza (di cui noi abbiamo notizia) è chiaro che dobbiamo osservarli e capire come e perché è presente l'intelligenza. La symbolic AI di tipo classico ha operato un'astrazione che, invece che semplificare le cose, le ha mistificate: ha attribuito a qualsiasi tipo di ragionamento la struttura if-then, non rendendosi conto che, se è vero che quasi ogni tipo di ragionamento può essere ridescritto in quel modo, è altrettanto vero che noi non pensiamo esclusivamente (e nemmeno per la maggior parte!) in quel modo. Quindi in un approccio top-down ci sono state eccessive semplificazioni. Tuttavia noi esseri umani siamo enti biologici, e all'interno del nostro corpo avvengono degli eventi molto importanti. Da un punto di vista strettamente di ontologia terza persona i processi a cui danno luogo il cuore, i polmoni, o i reni sono molto semplici da capire, sono stati retroingegnerizzati e infine resi sostituibili attraverso macchine 2 . Invece che astrarre semplicemente a partire dal high-level, si può guardare al livello più basso (quello cerebrale), capire come funziona, riprodurlo e infine, se possibile, ottimizzarlo.

Quindi la prima fondamentale osservazione da fare a riguardo è la seguente: «L'intelligenza umana emerge attraverso l'evoluzione biologica» (Red'ko: 2007, p 327) 3

Bisognerà guardare ai modelli che cercano di capire e formalizzare questi importanti processi, e non partire da zero e cercare di creare modelli che rendano bene la mera idea intuitiva di "auto-miglioramento" o "raggiungimento di obiettivi in dominii diversi".

Possiamo prendere in considerazione due modi di approcciarsi alla natura in questo ambito: possiamo cercare di caratterizzare l'evoluzione delle abilità cognitive, oppure possiamo cercare di ricreare la complessità di un cervello, da cui emerge l'intelligenza. Sono entrambi, per così dire, tentativi di "navigazione a vista": noi non sappiamo effettivamente se ricreando lo stesso schema evolutivo o ricreando la stessa complessità cerebrale, potremo ottenere l'intelligenza o un comportamento adattivo. Il fatto che avvenga in natura dovrebbe rappresentare un ottimo "precedente" circa i tentativi che si vogliono fare. Intanto, ci occuperemo del tentativo di ricreare la complessità del cervello.

Ricreare la complessità del cervello

Il titolo può sembrare un po' fuorviante, quindi è necessario specificare subito: il cervello è formato da circa trenta miliardi di neuroni, e non è possibile, a livello ingegneristico, creare un simile apparato al giorno d'oggi. Tuttavia Hugo de Garis è riuscito a sviluppare un modello per un cervello artificiale di qualche migliaia di neuroni. Per riuscire a spiegare il suo lavoro, bisogna introdurre due concetti importanti: quello di algoritmo genetico, e quello di rete neurale.

Gli algoritmi genetici

Un algoritmo genetico è un paradigma di autoorganizzazione ispirato all'evoluzione biologica. In particolare si ispira a due paradigmi dell'evoluzione biologica: la riproduzione sessuale e le mutazioni (casuali 4 ). In realtà Storrs Hall all'evoluzione biologica come ispiratrice dell'algoritmo genetico affianca anche l'evoluzione memetica 5 . Il primo algoritmo genetico (GA) è stato implementato da John Holland negli anni sessanta del secolo scorso, ma si è dovuto aspettare fino agli anni ottanta per poter sperimentare questa trovata matematica al computer, a causa di problemi di potenza e di velocità dei processori. Ora, qual è il quid di un GA? La questione fondamentale è che ad un dato problema si trova non un possibile stato/soluzione alla volta, ma un insieme di essi (questo insieme viene detto popolazione). Gli stati nuovi non sono creati dal migliore dei precedenti, ma da un insieme dei migliori. Questo rende un GA un metodo di ricerca molto più dotato di adattamento.

Nel GA di Holland, gli stati individuali sono rappresentati da strisce di bit. Grazie all'operazione chiamata crossover si crea una stringa nuova da due già esistenti. Immaginiamo, dice Storrs Hall, di «prendere due stringhe della stessa lunghezza, e di mettere un punto lungo di esse. Prendi tutti i bits alla sinistra di questo punto dalla prima stringa, e tutti i bits a destra dall'altro, e uniscile in modo da formare una nuova stringa» (Hall: 2007, p 185) 6 . In generale, come ci segnala Hall, il campo dei GA è evoluto rapidamente 7 , e al giorno d'oggi si usano per qualsiasi cosa – dalla progettazione dei reattori nucleari a quella dei robot che camminano.

Come funziona oggi, al di là del primo semplice modello di Holland, un algoritmo genetico? Kurzweil ne dà una descrizione chiara. Prima di tutto si stabilisce un modo per codificare le possibili soluzioni a un problema dato: nel caso stessimo cercando di ottimizzare un progetto di qualcosa, si definisce un insieme di parametri, assegnando a ciascuno un certo numero di bits. Questo è considerato come il codice genetico. Tramite alcune tecniche, come il crossover, si generano random migliaia di codici genetici, e ognuno di essi viene chiamato "organismo-soluzione". Ognuno di questi organismi deve essere in qualche modo testato. Questo avviene in un ambiente simulato, che serve a valutare ciascun organismo. Si attua una selezione: gli organismi migliori (secondo determinati parametri) rimangono e possono moltiplicarsi (sempre secondo tecniche quali crossover), quelli peggiori vengono eliminati. Ad ogni generazione di organismi si avrà un miglioramento e, quando il miglioramento tra una generazione e l'altra diventa irrisorio, «si blocca il ciclo iterativo e si usano i progetti migliori dell'ultima generazione» (Kurzweil: 2008, p 265).

I GA si ispirano all'evoluzione naturale, darwinisticamente intesa: infatti per l'evoluzione artificiale portata avanti dai GA «valgono i principi della riproduzione selettiva degli individui migliori, della ricombinazione genetica, che i biologi chiamano crossover, e delle piccole mutazioni casuali dei cromosomi. Naturalmente i cromosomi artificiali degli algoritmi genetici sono delle semplificazioni di ciò che è realmente il genoma di un organismo biologico» (Marocco: 2006, p 59).

Ci sono due questioni da sottolineare per ciò che concerne l'uso di un GA. La prima è che «i progettisti umani non programmano direttamente una soluzione, ma fanno in modo che emerga (grassetto nostro) attraverso un processo iterativo di competizione simulata e di conseguenti miglioramenti» (Kurzweil: 2008, p 265). Il secondo aspetto è l'ottimizzazione del divenire biologico: com'è noto, l'evoluzione biologica è molto lenta, e i suoi tempi non sono minimamente paragonabili a quelli umani. I computer usati per questo scopo invece, sono molto veloci e simulano decine di generazioni nell'arco di qualche giorno. Il GA è un modo attraverso cui è possibile «catturare gli schemi, sottili ma profondi, che esistono nei dati caotici» (Kurzweil: 2008, p 266): in questo senso, vengono usati là dove le variabili sono troppe per calcolare soluzioni analitiche precise. Il solo concetto di GA, è uno "schiaffo" al determinismo di laplaciana memoria. Laplace, a livello puramente ideale, sosteneva che, conosciuta la posizione delle particelle dell'universo a un tempo t, era possibile calcolare (quindi analiticamente) il successivo sviluppo dell'universo. In un paradigma complesso, tutto questo non è possibile. Infatti il calcolare lo sviluppo dell'universo 8 non è al momento concepibile, perchè la complessità a cui è sottoposto il mondo è tale che analiticamente il lavoro risulterebbe impossibile, e non è detto che l'universo, una volta capiti meglio i suoi paradigmi caotici, si presti ad operazioni del genere. Se poi andiamo oltre le considerazioni di chaos theory e prendiamo in esame la prospettiva ad esempio di Stephen Wolfram, allora tale calcolo è irriducibile computazionalmente.

Reti neurali e connessionismo

Le reti neurali 9 sono un metodo di autorganizzazione tra i più usati. L'idea che è implicita in esse, è quella per cui siamo più propensi per un approccio che imiti la biologia, piuttosto che per un approccio che sia esclusivamente autoreferenziale 10 : in linea del tutto teorica, è possibile elaborare regole che descrivono ciò che facciamo, ma non per questo tali regole riflettono veramente ciò che noi facciamo, e i processi di cui ci serviamo. Le reti neurali nascono per capire meglio come funzionano i processi cerebrali.

L'origine storica delle reti neurali è nota a tutti: nel 1943 McCulloch e Pitts scrissero un articolo intitolato A Logical Calculus of the Ideas Immanent in Nervous Activity 11 . I due ipotizzarono che «ogni neurone potesse essere considerato come On o Off, senza nessuno stato intermedio» (Copeland: 1993, p 185). Tutto ciò che ha a che fare con i neuroni, al di fuori dello scaricare o meno, non ha alcuna importanza.

On/Off, Vero/Falso, 0/1: si sta in qualche modo avanzando l'ipotesi secondo cui il cervello si comporti in maniera analoga a un manipolatore di simboli, seguendo le regole della logica proposizionale se non addirittura quelle di una macchina di Turing. Combinando alcuni neuroni, ed è questo il quid dell'articolo, si ottiene un sistema che è considerato «sorgente dell'incremento della potenza computazionale» (Fausett: 1994, p 22), proprio perchè è un sistema che lavora massicciamente in parallelo. Quindi i neuroni artificiali, esattamente come i neuroni biologici, possono essere «disposti in una rete per produrre qualunque output che possa essere rappresentato come una combinazione di funzioni logiche» (Fausett: 1994, p 22) 12 . E' chiara l'influenza di Turing in un lavoro del genere, e non viene nemmeno troppo velata. Lo stesso Turing nel 1948 con il suo manifesto Intelligent Machinery 13 , introduce un tipo di rete neurale chiamata B-Type Unorganized Machines.

Quindi la vicenda delle reti neurali comincia più di cinquanta anni fa, ma viene subito messa da parte a causa degli enormi successi degli sviluppi dei computer digitali. In particolare, le reti neurali sembravano essere destinate a un notevole sviluppo con le ricerche di Frank Rosenblatt, ma Marvin Minsky (nel 1969) le ritenne perfettamente inutili e nessuno se la sentì di contraddirlo, anche perchè il lavoro in altri campi era tanto, ed era emozionante. Negli ultimi trenta anni si è verificato un ritorno alle reti neurali, e questo per due motivi fondamentali:

  • grazie alla potenza dei computer digitali, è possibile simulare in modo più efficace le reti neurali
  • la possibilità di creare hardware utili alla ricerca nel campo delle reti neurali

Fatta questa breve introduzione storica possiamo finalmente chiederci: che cos'è una rete neurale? Le reti neurali non sono solo modelli matematici per l'elaborazione dell'informazione un pò diverse dalle MT: sono anche «sistemi che hanno determinate caratteristiche di performance in comune con le reti neurali biologiche» (Fausett: 1994, p 3) 14 . I ricercatori, in questo campo, condividono alcune assunzioni fondamentali:

  • l'elaborazione dell'informazione avviene al livello di elementi semplici chiamati neuroni
  • l'informazione è in segnali che passano attraverso collegamenti tra i neuroni (connection links)
  • ogni connessione ha un suo "peso" (strenght, weight) che è determinato principalmente dal diametro delle connessioni e, nelle reti neurali biologiche, dalla composizione chimica delle sinapsi
  • ogni neurone applica una funzione (non-lineare) alla sua rete di input (determinata dalla soma dei "pesi" dei segnali di input) per determinare il suo output
  • ogni neurone ha una sua soglia (threshold) che è l'input minimo che causerà il suo scaricamento

Se noi abbiamo il neurone A con soglia pari a 3, che è collegato con il neurone B (con un peso di connessione pari a 2) e con il neurone C (con un peso di connessione pari a 1), allora il neurone A scaricherà (it fires) se e solo se scaricano sia B che C. Questo per le connessioni eccitatorie (excitatory). Esistono anche connessioni inibitorie (inhibitory).

In generale, una rete neurale è caratterizzata da una particolare configurazione delle connessioni (architecture). Il modo per determinare e coordinare i "pesi" delle connessioni è detto training/learning. Quindi una rete neurale è fatta di piccoli elementi che elaborano l'informazione (i neuroni), i quali sono connessi tra di loro e nel modo sopra esposto si influenzano continuamente.

Come riportato sopra, c'è una profonda analogia tra il neurone biologico e quello artificiale delle reti neurali. I neuroni biologici sono formati da tre componenti importanti da considerare in questa sede: i dendriti (ricevono i segnali dagli altri neuroni), il soma (somma i segnali in entrata, e il neurone scarica quando il segnale in entrata raggiunge il threshold) e l'assone, che è ciò attraverso cui il segnale scaricato arriva ad altri neuroni. Detto questo, i neuroni biologici e quelli artificiali condividono alcune caratteristiche (Fausett: 1994, p 6):

  • il segnale può essere modificato dai "pesi"
  • sotto determinate condizioni (cioè un certo input), il neurone trasmette un output che si propaga ad altre cellule grazie a un "link" (che nei neuroni biologici, come abbiamo visto, si chiama assone)
  • nelle sinapsi e nei pesi c'è memoria a lungo termine, mentre nei segnali c'è memoria a breve termine
  • la forza (il peso) delle sinapsi si modifica con l'esperienza

Abbiamo scritto all'inizio che è un buon metodo di autoorganizzazione. In che senso? In questa sede poco ci importa di parlare di architetture diverse (single-layer o multi-layers), ma ci interessa parlare di training delle reti neurali. Si è detto che il training di una rete neurale è il modo in cui i valori dei pesi vengono stabiliti e/o coordinati. In questo modo una rete neurale "impara" a coordinare dei segnali che portano informazioni.

Semplificando molto, esistono due grosse categorie di training per le reti neurali:

  • l'allenamento/apprendimento supervisionato, dove il training «è fatto presentando una sequenza di vettori di training, o configurazioni, ognuna con un vettore di output associato. I pesi sono dunque accordati» (Fausett: 1994, p 15) 15 di conseguenza
  • l'allenamento/apprendimento non supervisionato, che avviene quando si hanno tutta una serie di dati non classificati, e si vuole capire se è possibile un qualche tipo di classificazione senza avere a priori un filo-guida. Questo metodo viene quindi usato per analisi di dati al fine di riscontrare gruppi aventi similitudini 16

E' facile a questo punto comprendere a quali usi possono essere destinate le reti neurali: dall'elaborazione dei segnali 17 , al riconoscimento vocale, di forme e di configurazioni in generale. Addirittura la Hartmann Music 18 ha costruito il primo sintetizzatore di suoni a reti neurali, quando in questo campo le due alternative erano semplicemente l‟elaborazione del suono in modo digitale o in modo analogico.

In conclusione possiamo dire che le reti neurali artificiali sono nate perchè si è sospettato che il modo che il cervello ha di far viaggiare le informazioni al suo interno fosse in qualche modo vantaggioso e, non meno importante, denso di risultati positivi rispetto alle neo-nate MT. Quindi le reti neurali artificiali sono dei modelli matematici di elaborazione dell'informazione, che cercano di prendere come esempio il processo di elaborazione che hanno i cervelli 19 .

Cervelli artificiali

A questo punto arriviamo a uno degli sviluppi più eccitanti della ricerca nel campo dell'AI, e di questo particolare sub-field che cerca di prendere spunto dalla biologia per poi ottimizzarla. Il ricercatore che vogliamo presentare qui è Hugo de Garis, che ha lavorato a Bruxelles, nello Utah, in Giappone ed attualmente fa ricerca in Cina.

Secondo de Garis, la tecnologia che avrà maggiore impatto circa il progresso tecnologico è quella dei cosiddetti Evolvable Hardware (E-Hard), che sono degli hardware programmabili a cui vengono applicati algoritmi genetici, «permettendo ai circuiti elettrici di evolvere a una velocità elettronica e a un livello di complessità semplicemente oltre i limiti della progettazione di ingegneri elettronici umani» (De Garis: 2007, p 159) 20 . Secondo de Garis quindi, decine e decine di migliaia di questi circuiti potrebbero formare specifiche architetture cerebrali. L'articolo che prendiamo in considerazione è un'introduzione un po' storica e un po' divulgativa alla tematica.

Alla fine degli anni ottanta del secolo scorso, alcuni ricercatori (tra cui de Garis) iniziarono a lavorare a possibili applicazioni di algoritmi genetici alle reti neurali, da una parte per rendere meno arduo il lavoro di programmazione umano, dall'altra per creare scorciatoie allo sviluppo di complessità via via sempre più fitte. All'inizio si cercò di integrare gli algoritmi genetici e le reti neurali solo per inputs e outputs statici 21 , per poi passare a un maggior dinamismo. In questo senso si riuscì a far camminare due bastoni di legno come fossero gambe artificiali (una simulazione, come si evince dall'articolo): attraverso un controllo di reti neurali evoluto grazie a un algoritmo genetico, si riuscì a ricreare un "comportamento dinamico" 22 . Dopo questi primi successi, a de Garis risultò chiaro che «se è possibile far evolvere un comportamento, se ne possono far evolvere più di uno, e così diventa possibile immaginare un'intera libreria di comportamenti di questo genere per poi creare un software che simuli un quadrupede capace di camminare dritto, di svoltare a sinistra, a destra, di mangiare del cibo (...), con una rete neurale o un modulo per ogni comportamento» (de Garis: 2007, p 160) 23 .

Progredendo nella creazione di moduli per interpretare i segnali i comportamenti possono cambiare nei momenti appropriati: il nostro quadrupede simulato, conclude de Garis, potrebbe 24 addirittura mostrare segno di intelligenza. Era quindi necessario trovare un modo per far funzionare in maniera integrata i diversi moduli. Nel 1992 de Garis scoprì i field programmable gate arrays (dispositivi FPGA) le cui funzionalità possono essere programmate totalmente dal programmatore umano grazie ad un software. Utilizzando alcuni processori particolari 25 di questa famiglia, de Garis scoprì che era possibile programmarli certamente bit per bit, ma che accettavano una configurazione di tipo random. In quello strumento costruito da de Garis chiamato cellular-automata-machine brain-machine (CBM o anche CAM-BRAIN, CAM-B), vi sono 72 di quei processori che, grazie alla configurazione random, creano i circuiti di una rete neurale in pochi secondi. In questo senso, il Cam-Brain esegue un algoritmo genetico nei circuiti neurali e, attraverso migliaia di generazioni, crea decine di migliaia di circuiti. Quando un circuito evolve in modo appropriato, viene scaricato nella RAM del Cam-Brain. Una volta sviluppatosi a dovere, il Cam-Brain può controllare una rete neurale con qualcosa come 1152 elementi: è estremamente parallelo e può lavorare più velocemente. Negli esperimenti di de Garis, il Cam-Brain controlla i comportamenti di un robot-gatto chiamato Robot Kitty. Questo ha 23 motori, riceve e invia segnali radio al Cam-Brain via antenna.

Il Cam Brain prevede due tipi di funzionalità:

  • evolution, grazie a cui il gatto imparerà i comportamenti (ad esem- pio il muoversi in un certo modo, evitando ostacoli ecc) a seconda dell‟ambiente in cui si trova, tutto questo grazie alle reti neurali che fanno evolvere degli algoritmi genetici i quali, una volta giunti a una generazione con bassissimo margine di miglioramento, si fer- meranno e scaricheranno la generazione corrente nella RAM
  • run mode, in cui riceve inputs ed emette outputs 26

Questo progetto di Robot Kitty non può essere paragonato al modo complesso tramite cui lavora il cervello umano. Senza analizzare le differenze qualitative tra le risposte di Robot Kitty all'ambiente, e quelle di un essere umano, si può sperare in ogni caso che questo tipo di progetti possano solo migliorare, nel momento in cui si creano processori più veloci, sempre più piccoli, e più facilmente integrabili.

Bibliografia

  • Copeland, J. (1993). Artificial Intelligence - A Philosophical Introduction. London, Blackwell Publishers Ltd.
  • De Garis, H. (2007). Artificial Brains. Artificial General Intelligence, B. Goertzel. Berlin, Heidelberg, Springer-Verlag.
  • Fausett, L. (1994). Fundamentals of Neural Networks: Algorithms, and Applications. Englewood Cliffs, Prentice Hall.
  • Kurzweil, R. (2008). La Singolarità è vicina. Milano, Apogeo.
  • Marocco, D. (2006). Intelligenza artificiale - Introduzione ai nuovi modelli. Roma, Bonanno Editore.
  • Red'ko, V. (2007). The natural way to Artificial Intelligence. Artificial-General Intelligence. B. Goertzel. Berlin, Heidelberg, Springer-Verlag.
  • Storrs, H. (2007). Beyond AI – Creating the conscience of the machine. New York, Prometheus Books.

Note

  • 1 E, si noti, un tale modello, dal punto di vista umano e delle sue possibilità, è impossibile!
  • 2 In realtà resta molto più valido il lavoro di un rene rispetto a quello di una macchina per la dialisi.
  • 3 «Natural human intelligence emerged through biological evolution».
  • 4 Anche se non è mai molto chiaro il significato di questa parola.
  • 5 Secondo le idee di Dawkins, il linguaggio e la cultura sono dei "replicanti" al pari dei geni. Questo livello di "replicante" viene chiamato "meme" (da mimema). Come è noto, la cultura e il linguaggio (e più in generale le idee) si propagano da un cervello all'altro, e in questi molteplici passaggi subisce moltissime mutazioni, in ogni caso sopravvivendo dopo la morte dell'"ospite".
  • 6 «Take two strings of the same lenght, then pick some point along them. Take all the bits to the left of that point from one string, and all the bits to the right from the other, then link them to make new string».
  • 7 Esiste anche una variante ai GA che è la programmazione genetica, inventata da John Koza.
  • 8 Il che, personalmente, non ritengo sia un'operazione molto sensata.
  • 9 Fondamentale introduzione rimane (Fausett: 1994).
  • 10 Nel caso qui esposto, riferimento esclusivo alla teoria della computazione.
  • 11 McCulloch W.S. and Pitts W.H., A Logical Caculus of the Ideas Immanent in Nervous Activity, in Bulletin of Mathematical Biophysics 5 (1943): 115-133. Consultato Un calcolo delle idee immanenti nell‟attività nervosa, in (a cura di) Rossi Paolo Aldo, Cibernetica e teoria dell‟informazione, pp 135-150, Editrice La Scuola, Brescia, 1978.
  • 12 «arranged into a net to produce any output that can be rappresented as a combination of logic functions».
  • 13 Disponibile in Copeland Jack (edited by), Essential Turing, pp 410-432, Oxford University Press, Oxford, 2004.
  • 14 «(a) system that has certain performance characteristics in common with biological neural networks».
  • 15 «is accomplished by presenting a sequence of training vectors, or patterns, each with an associated target output vector. The weights are then adjusted».
  • 16 Il modello più celebre è quello delle reti di Kohonen.
  • 17 Il primo uso storico delle reti neurali è stato sopprimere il rumore di fondo delle linee telefoniche.
  • 18 http://www.hartmann-music.com/home/
  • 19 Ovviamente tutto molto più semplificato rispetto al cervello.
  • 20 «allowing electronic circuits to be evolved at electronic speeds and at complexity levels that are beyond the intellectual design limits of human electronics engineers».
  • 21 Cioè di valore costante.
  • 22 I particolari ingegneristici non sono noti, e non rivestono grande importanza in questa sede di carattere divulgativo.
  • 23 «if one can evolve one behavior, one can evolve many, so it became conceivable to imagine a whole library of evolved behaviors, for example, to get a software simulated quadruped to walk straight, to turn left, to turn right, to peck at food (...) with oneseaprately evolved neural net circuite or module per behavior».
  • 24 In effetti de Garis qui sembra troppo ottimista.
  • 25 La serie XC6200 (in seguito la serie XC6264) della Xilinx.
  • 26 Ovviamente non sono così separabili come funzioni, ma lavorano in modo integrato.

Contatto progettista

Puoi contattare la progettista del sito compilando questo modulo (tutti i campi sono necessari)