Attenzione: nel tuo browser javascript è disattivato!
I contenuti di questo sito restano disponibili, ma con javascript la tua esperienza sarà molto migliore.
Segui le istruzioni per attivare javascript nei browser desktop e mobile e poi ricarica questa pagina.

Divenire

Rassegna di studi interdisciplinari sulla tecnica e sul postumano

LA RIVISTA

Presentazione

Divenire è il titolo di una serie di volumi incentrati sull'interazione tra lo sviluppo vertiginoso della tecnica e l'evoluzione biologica dell'uomo e delle altre specie, ovvero votati allo studio dei rapporti tra la tecnosfera e la biosfera. Gli autori, provenienti da diverse aree disciplinari e orientamenti ideologici, sviluppano la propria analisi con occhio attento al probabile esito finale di queste mutazioni casuali o pianificate: il postumano. Sono dunque studi che sul piano temporale spaziano nel presente, nel passato e nel futuro, mentre sul piano della prospettiva disciplinare sono aperti a idee e metodi provenienti da diverse aree di ricerca, che vanno dalle scienze sociali alle scienze naturali, dalla filosofia all'ingegneria, dal diritto alla critica letteraria.

Ogni volume ha quattro sezioni. In Attualità compaiono studi attinenti a problematiche metatecniche del presente. Genealogia è dedicata a studi storici sui precursori delle attuali tendenze transumanistiche, futuristiche, prometeiche — dunque al passato della metatecnica. In Futurologia trovano spazio esplorazioni ipotetiche del futuro, da parte di futurologi e scrittori di fantascienza. Libreria è dedicata ad analisi critiche di libri su tecnoscienza, postumano, transumanesimo.
I volumi pubblicati finora (ora tutti leggibili in questo sito):

  1. D1. Bioetica e tecnica
  2. D2. Transumanismo e società
  3. D3. Speciale futurismo
  4. D4. Il superamento dell'umanismo
  5. D5. Intelligenza artificiale e robotica

Divenire 5 (2012) è interamente dedicato all'Intelligenza Artificiale (IA).

Intelligenze artificiose (Stefano Vaj) sostiene che il tema dell'automa (esecuzione di programmi antropomorfi o zoomorfi su piattaforma diversa da un cervello biologico) resta tuttora circondato da un vasto alone di misticismo: quando non viene negata in linea di principio la fattibilità dell'IA, ne viene esagerata escatologicamente la portata. (english version)

La maschera dell'intelligenza artificiale (Salvatore Rampone) indaga gli equivoci concettuali sottostanti alla domanda se una macchina abbia intelligenza o possa pensare e spiega perché l'IA debba nascondersi sotto la maschera del Soft computing.

Il problema filosofico dell'IA forte e le prospettive future (Domenico Dodaro) Analizza il tema della coscienza  semantica mettendo in luce i suoi  aspetti corporei e considera la possibilità di implementarli in sistemi artificiali. Sono valutati sia i limiti tecnologici e computazionali della riproduzione artificiale della coscienza (intesa come una facoltà del vivente) sia i programmi di ricerca più fecondi al fine di arginarli.

Cervelli artificiali? (Emanuele Ratti) espone il progetto di ricerca forse più ardito nel campo dell'IA che emula funzioni e organi biologici: il cervello artificiale di Hugo de Garis, introducendo concetti chiave di questo settore disciplinare come rete neurale e algoritmo genetico.

>

Presentazione

Automi e lavoratori. Per una sociologia dell'intelligenza artificiale (Riccardo Campa) sposta l'attenzione sull'impatto economico e sociale della computerizzazione e della robotizzazione. Quali effetti sull'occupazione e quali correttivi per massimizzare i benefici e minimizzare gli effetti indesiderati? Proiettando il tema nel futuro, vengono analizzati i possibili scenari, in dipendenza di diverse politiche (o non-politiche) dello sviluppo tecnologico.

Il nostro cervello cinese (Danilo Campanella) riporta l'origine dei calcolatori moderni all'antica Cina. Utilizzando matematica, teologia e misticismo, i cinesi elaborarono i primi rudimenti del linguaggio binario, poi rubato dagli occidentali.

Alan Turing: uno spirito transumanista (Domenico Dodaro) Sono esposte le ragioni per cui Turing può essere definito un pensatore transumanista. Il matematico inglese è in genere descritto solo come padre dell'IA tradizionalmente intesa. L'analisi dell'autore dimostra invece la sua vicinanza ai temi delle "nuove scienze cognitive" e della computazione complessa (o ipercomputazione).

Passato, presente e futuro dell'Intelligenza Artificiale (Bruno Lenzi). L'articolo mostra, su un arco temporale molto ampio, fallimenti, riuscite, pericoli e scoperte delle scienze cognitive, sottolineando che l'IA non è questione solo tecnico-scientifica, racchiude germogli e frutti maturi in ogni area del sapere, e potrebbe essere molto diversa dall'intelligenza umana.

Post-embodied AI (Ben Goertzel). L'autore, uno dei principali sostenitori dell'AI forte, analizza la questione filosofica dell'embodiment: una intelligenza artificiale forte (capace di risolvere problemi in domini nuovi, di comunicare spontaneamente, di elaborare strategie nuove) deve necessariamente avere un body?

Nanotecnologia: dalla materia alle macchine pensanti (Ugo Spezza) spiega questo ramo della scienza applicata che progetta nanomacchine e nanomateriali in molteplici settori di ricerca: biologia molecolare, chimica, meccanica, elettronica ed informatica. L'articolo presenta le applicazioni già esistenti e le fantastiche potenzialità progettuali, dai nanobot per il settore medico ai neuroni artificiali.

Verso l'Intelligenza artificiale generale (Gabriele Rossi) introduce la Matematica dei Modelli di Riferimento degli iLabs ed esplora i potenziali vantaggi di questa prospettiva alla luce di alcune questioni teoriche di fondo che pervadono tutta la storia della disciplina.

Ich bin ein Singularitarian (Giuseppe Vatinno) è una recensione di La singolarità è vicina di Ray Kurzweil.

NUMERI DELLA RIVISTA

Divenire 1. Bioetica e tecnica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 2. Transumanismo e società

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 3. Speciale futurismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 4. Il superamento dell'umanismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 5. Intelligenza artificiale e robotica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

RICERCHE

1

2

3

4

CHI SIAMO

Comitato scientifico

Riccardo Campa
Docente di metodologia delle scienze sociali all'Università Jagiellonica di Cracovia
Patrizia Cioffi
Docente di neurochirurgia all'Università di Firenze
Amara Graps
Ricercatrice di astronomia all'Istituto di Fisica dello Spazio Interplanetario
James Hughes
Docente di sociologia medica al Trinity College del Connecticut
Giuseppe Lucchini
Docente di statistica medica all'Università di Brescia
Alberto Masala
Ricercatore di filosofia all'Università La Sorbonne (Paris IV)
Giulio Prisco
Vice-presidente della World Transhumanist Association
Salvatore Rampone
Docente di Sistemi di elaborazione delle informazioni all'Università degli studi del Sannio
Stefan Lorenz Sorgner
Docente di filosofia all'Università di Erfurt
Stefano Sutti
Docente di diritto delle nuove tecnologie all'Università di Padova
Natasha Vita-More
Fondatrice e direttrice del Transhumanist Arts & Culture H+ Labs

Ait

L'AIT (Associazione Italiana Transumanisti) è un'organizzazione senza scopo di lucro con la missione di promuovere, in ambito culturale, sociale e politico, le tecnologie di potenziamento dell'essere umano.

Fondata nel 2004, è stata formalizzata mediante atto pubblico nel 2006 ed ha avviato le pratiche per ottenere il riconoscimento.

Sede legale AIT: via Montenapoleone 8, 20121 Milano

Sito internet AIT: www.transumanisti.it (>)

Pubblica questa rivista: Divenire. Rassegna di studi interdisciplinari sulla tecnica e il postumano

Curatore: Riccardo Campa

Segretaria di redazione: Nicoletta Barbaglia

Art director: Emmanuele Pilia (>)

Gruppo di Divenire su Facebook: (>)

Contatti

Puoi contattare la Redazione di Divenire compilando questo modulo (tutti i campi sono necessari)

Intelligenze artificiose

Autore: Stefano Vaj

da: Divenire 5, Introduzione () | inglese | pdf | stampa

L'intelligenza è sopravvalutata.

Beninteso, resta epistemologicamente plausibile e, cosa più importante, operativamente utile la visione che tende a riassumere tutte le variabili indipendenti dell'equazione contemporanea, economico-politica come cosmologica, nei due "fondamentali" rappresentati dall'energia e dall'informazione. E come l'energia che conta non è quella che resta costante in accordo con il primo principio della termodinamica, ma quella che si rende disponibile malgrado il secondo, così l'informazione ha significato e valore nella misura della nostra capacità di estrarla, trasformarla, elaborarla.

In questo senso, l'intelligenza umana è forse sempre stata artificiale – che altro sono simboli, linguaggi, tradizioni, scrittura, algoritmi, arti, strategie, se non supporti “artificiali” alla nostra gestione dell'informazione? – e sicuramente l'intelligenza gioca un ruolo centrale in qualsiasi ipotesi di trasformazione postumana. Un'intelligenza che oggi possiamo riconoscere in via generale come iterativa, frattale, artificiosa.

Ma, dopo Wolfram 1 , sappiamo due cose: la prima, che – al contrario di quanto implicito nella mentalità "creazionista" che malgrado la rivoluzione darwiniana ancora permea la nostra cultura – gradi arbitrari di complessità possono essere generati da meccanismi molto semplici; la seconda, che superati certi requisiti minimi di complessità molto bassi, tutti i "sistemi" sono in sostanza computazionalmente equivalenti, salvo per l'aspetto, pur praticamente cruciale, della differenza della performance nell'esecuzione di un particolare programma.

Se Newton poteva immaginare l'universo come una macchina, è sicuramente più conforme al nostro Zeitgeist la considerazione da parte di Seth Lloyd e di altri dell'universo come di un sistema informatico 2 ; ma nondimeno il Principio di Equivalenza Computazionale è decisivo nell'indicarci che la ragione per cui un Macintosh negli anni novanta poteva tramite un apposito programma emulare un PC riflette una realtà più generale: e precisamente il fatto che qualsiasi sistema che esibisca capacità di computazione universale, ivi compreso un automaton cellulare o una macchina di Turing o in effetti il PC IBM originale del 1980, può – se non poniamo limiti alla memoria utilizzata ed al tempo che siamo disposti ad aspettare – emulare qualsiasi altro sistema, universo (con tutto il suo contenuto) compreso.

Certo, un'altra realtà constatata da Wolfram è che, sempre al contrario del pregiudizio della matematica illuminista, nello spazio dei problemi possibili la irriducibilità computazionale è la regola: così che le soluzioni algoritmiche che ci consentono di conoscere lo stato di un sistema dopo un certo numero di passi senza dover semplicemente compiere tutti i passi necessari, rappresentano l'eccezione, e non la normalità delle cose. E la differenza fondamentale tra i sistemi è appunto rappresentata dal numero di passi necessari per arrivare ad una soluzione data.

Ma, in ultima analisi, tale differenza consiste unicamente di una questione di prestazioni, non di capacità. L'"intelligenza artificiale" nel mito dell'automa si basa invariabilmente su qualche "trucco" strutturale, su qualche accorgimento qualitativo di tipo magico o meccanico o metodologico, che consentirebbe un salto quantico, un cambio di fase, nella idoneità a svolgere azioni flessibili e complesse; ma nulla di ciò sembra né esistere, né essere peraltro necessario. In verità, la trama stessa della realtà fisica, spazio-temporale, viene sempre più spesso considerata non come continua, qualitativa ed "analogica", ma come intrinsecamente digitale, atomica, granulare, binaria, per cui la cosa non dovrebbe sorprendere. Ma, sia quel che sia, oggi come minimo sappiamo, anche da un punto di vista squisitamente empirico, che dato un tempo sufficiente un qualunque elaboratore digitale può fare qualsiasi cosa possa fare un elaboratore analogico, così come può fare qualsiasi cosa possa fare una rete neurale, così come può essere suddiviso e moltiplicato indefinitamente in unità che processino l'informazione parallelamente. Sappiamo insomma che l'"intelligenza" ha qualcosa a che fare con l'architettura solo e soltanto nel senso che alcune architetture sono in grado di svolgere alcuni tipi di elaborazioni in modo molto più efficiente e rapido di altre; non nel senso che alcune architetture potrebbero fare cose che ad altre sarebbero strutturalmente precluse.

Ora, in termini di "potenza", anche un sistema semplice quanto un abaco è in grado ad esempio di eseguire le operazioni dell'aritmetica elementare in modo più efficiente di un sistema complesso quanto un cervello umano. E viene in conto a tale proposito una peculiarità della nostra considerazione dell'intelligenza umana stessa, che tende storicamente a privilegiare e sopravvalutare le capacità in ciascuna epoca non ancora facilmente riproducibili attraverso l'intervento di sistemi artificiali: dalla memorizzazione, con l'aiuto delle convenzioni metriche, di lunghi testi letterari, alla capacità di compiere operazioni aritmetiche a mente su numeri elevati (considerazione che anche dopo l'invenzione del sistema posizionale a base dieci si è conservata nell'ammirazione popolare per gli idiots savants), a quella di risolvere problemi matematici complessi o di organizzare basi di dati non strutturati, per arrivare ad esempio ai risultati ottenibili nel gioco degli scacchi o nei mercati finanziari, piuttosto che all'agevole apprendimento di metodi di decifrazione del parlato o dei simboli alfanumerici o ideografici o dei codici crittografici.

Così, il concetto empirico di "intelligenza" o "capacità mentali" applicato ai nostri cospecifici evolve costantemente avuto riguardo a ciò per cui la differenza di capacità individuali continua a contare (e in questo Google oggi sta cambiando profondamente nel mondo dei risultati scolastici e professionali il set delle abilità cruciali per il successo individuale). Ed è ben noto, di converso, il paradosso secondo cui "intelligenza artificiale", almeno in senso debole, sarebbe semplicemente un'espressione non rigorosa (o per un altro verso un orizzonte e un bersaglio mobile...), utile ad identificare ciò che "i sistemi artificiali non sanno (ancora) fare, o almeno radicalmente semplificare".

Sotto questo profilo, sarebbe forse interessante far notare ai medesimi apostoli della political correctness umanista che aborrono l'idea di ogni trasformazione postumana legata ai progressi nel campo dell'intelligenza artificiale almeno quanto aborrono il fatto che esista una componente genetica fondamentale nei risultati dei test volti a misurare il QI del soggetto esaminato 3 come sia proprio la natura logico-formale dei test in questione a far sì che anche sistemi molto deboli in confronto ad un idiota autenticamente umano, in un test di Turing sono potenzialmente suscettibili di superare di gran lunga un cervello biologico nelle relative operazioni. Anche qui, ovviamente, è l'intelligenza empirica che conta, non l'Intelligenza come minimo comune denominatore suppostamente condiviso da tutti o quasi gli esseri umani, senza distinzione tra di loro...

Intanto, i sistemi artificiali che inventiamo continuano a superarci in campi via via più estesi. Anzi, nella valutazione di un tipico sistema complesso definibile come fyborg 4 , o "functional cyborg", rappresentato da un uomo la cui materia biologica è addizionata più spesso che direttamente sostituita, la bilancia tende sistematicamente a pendere a favore dell'estensione della componente "cyber" rispetto alla componente strettamente biologica: dell'uomo con un computer rispetto all'uomo con un regolo calcolatore, dell'uomo che delega una parte crescente della definizione e risoluzione del problema alla macchina rispetto a chi la programmi in assembler. Cosa non sorprendente, dato che in fondo si tratta esattamente della funzione dei sistemi artificiali, della ragione per cui vengono sviluppati, adottati e migliorati. Da questo punto di vista, si potrebbe anche dire che l'intelligenza artificiale ha, in campi via via più ampi, superato l'intelligenza strettamente "umana" da quando esiste; se non però per il fatto che questo è solo un modo di vedere le cose, un altro più plausibile essendo quello secondo cui si è semplicemente integrata a quest'ultima, estendendone le capacità.

Naturalmente, in passato teorici e ricercatori nel campo dell'intelligenza artificiale si sono ben macchiati, in probabile conseguenza anche dell'eredità di una visione antropologica (e prima ancora biologica) dominata dal meccanicismo e dal riduzionismo, di una notevole faciloneria. Vari annunciatori delle imminenti sorti "magnifiche e progressive" del paradigma meccanicista, così come profeti di sventura ossessionati dal mito di Frankenstein, tuttora restano probabilmente molto, troppo pronti a sottovalutare le capacità dei cervelli biologici, che è darwinisticamente ragionevole supporre siano, pur con tutte le limitazioni energetiche, dimensionali ed architetturali che li affliggono, già discretamente ottimizzati per fare ciò che in fondo sono stati sviluppati e affinati per fare. Così, non pare particolarmente strana la loro capacità di superare drasticamente sistemi con immense capacità di calcolo in attività come il pattern matching o il coordinamento motorio o la fuzzy logic, e non è perciò scontato che architetture diverse, per esempio quelle tipiche di un elaboratore elettronico, possano facilmente rendersi competitive – non parliamo poi a parità di consumo energetico o di volume occupato.

D'altronde, un cervello biologico è un sistema finito, con un numero finito (per quanto astronomico) di stati. Le risposte comportamentali e l'intelligenza che esso produce – i cervelli hanno ovviamente anche altre funzioni nella fisiologia umana e animale – sono perciò riproducibili per definizione da qualsiasi altro sistema che attinga al livello dell'universalità computazionale.

Si noti che tale conclusione non ci dice nulla di per sé sul tema fondamentale della "IA classica" che riguarda il fatto se esistano strategie, e quali siano, che consentano di riprodurre in termini pratici, a breve termine, con prestazioni accettabili e con un grado sufficiente di accuratezza, risposte comportamentali tipiche di esseri umani o comunque viventi attraverso procedure di reverse engineering di tipo “clean room” e “top-down” – cioè del tutto a prescindere dai meccanismi strutturali con cui i cervelli organici possano produrre tali risposte e da una riproduzione a livello più o meno basso di tali meccanismi.

La stessa conclusione riguarda però una questione più fondamentale, che attiene la natura stessa dei processi coinvolti e la loro riproducibilità in linea di principio.

I dubbi avanzati contro di essa prendono a pretesto i risultati assolutamente primitivi sin qui raggiunti (o magari le strategie completamente diverse che vengono adottate per raggiungere risultati simili: cfr. i programmi che giocano a scacchi) per sostenere la teoria – che può essere facilmente decostruita come una riproposizione del concetto giudeocristiano di "anima" sotto una sottile, quand'anche vi sia, riverniciatura "secolare" – secondo cui il cervello e/o la mente umani avrebbero un quid irriducibile, un ingrediente misterioso, destinato ad eludere per sempre qualsiasi sforzo in questo senso. Un fondamentale campionario, tuttora attuale, delle posizioni che si riassumono in tale obiezione è il breve libro-dibattito Are We Spiritual Machines? Ray Kurzweil vs. the Critics of Strong AI 5 , promosso da uno think-tank umanista e creazionista noto come Discovery Institute, che vede i successivi interventi di George Gilder and Jay Richards, di William Dembski ("How", si chiede Dembski, "can a machine be aware of God‟s presence?"), del solito John Searle 6 , e di Michael Denton, con una replica finale di Kurzweil stesso.

La cosa ha naturalmente a che vedere anche con il dibattito sul concetto di "coscienza" o "identità" che si riaffaccia periodicamente pure nei circoli transumanisti, in relazione in particolare a Gedankenexperimente, o talora a più concrete ipotesi tecnologiche, che riguardano ad esempio la continuità e la "sopravvivenza" di un soggetto rispetto ad alcuni scenari come il mind uploading. 7

Ma, naturalmente, per chi aderisce ad una visione postkantiana della realtà le diatribe essenzialiste in materia di qualia e di zombie filosofici sono unicamente il prodotto di un pensiero ancora afflitto dal dualismo metafisico, cui si oppone, prima ancora che l'igiene mentale nietzschana e quella metodologica della scuola di Vienna, il senso comune. Lo stesso senso comune che riconosce che se qualcosa cammina come un'anatra, nuota come un'anatra, starnazza come un'anatra, è ragionevole considerare tale uccello un'anatra; o, per dirla in termini più paludati, che "coscienza", "identità" (per l'identità personale identicamente a ciò che è pacifico per le identità collettive), "personalità" sono concetti definibili in termini unicamente sociologici, non ontologici. Così che le considerazioni che prescindono dal dato fenomenico, e dai propositi che abbiamo in mente nell'esaminarlo, sono da questo punto di vista, come si dice, "not even wrong".

In fondo, in materia di intelligenza, il criterio rappresentato dal test di Turing rappresenta così solo una riduzione empirica di un concetto di portata più ampia, che è tra l'altro quello comunemente applicato nelle nostre interazioni quotidiane con gli altri esseri umani o con gli animali superiori, quando attribuiamo ai medesimi intenzionalità, agency, motivazioni, etc., attraverso quella che in programmazione neurolinguistica viene definita l'allucinazione di nostri stati interiori su altri enti più o meno simili 8 – la cui esperienza soggettiva anche nel caso di un gemello monovulare ci è in realtà per definizione altrettanto preclusa quanto quella di un PC, di un temporale o di un sasso – , semplicemente perché tale allucinazione può (anche se non necessariamente deve) esserci utile per comprendere, e non solo capire, il mondo che ci circonda. 9

Il tema dell'intelligenza degli esseri umani in rapporto all'intelligenza animale è d'altronde cruciale con riguardo alla discussione relativa alla possibile reimplementazione di funzioni analoghe su supporti diversi, perché se gli esseri umani sono attualmente l'unica specie a noi nota ad esibire talune caratteristiche in tale area 10 , l'essenziale delle pretese "irriducibili peculiarità" del nostro cervello sono in realtà generalizzabili in vario grado ad altri cervelli e sistemi nervosi organici. Al riguardo, esiste infatti una evidente continuità morfologica, strutturale, funzionale, etc. del nostro sistema nervoso con il cervello degli altri primati, con quello degli altri mammiferi, con quello degli altri vertebrati, e così via; così che tale ipotetica differenza "qualitativa" del cervello umano dovrebbe essere logicamente estesa per cerchi concentrici ai sistemi che con esso presentano vari gradi di analogia. Senonché, la tesi che il sistema nervoso di un polipo non potrebbe mai essere emulato da un computer perché il polipo sarebbe "fatto ad immagine e somiglianza" di un qualche ente trascendente appare immediatamente molto più difficile da sostenere anche nel quadro del più rigoroso anti-riduzionismo. E riuscire a trovare qualcosa di davvero "speciale" ed "elusivo" nelle ancora più modeste prestazioni cognitive di un'ameba risulta davvero improbo.

La portata di queste considerazioni non è del resto solo filosofica, perché sono in corso progetti di ricerca che mirano alla realizzazione entro una decina d'anni – ma il progresso della tecnologia nel campo della scansione computerizzata potrebbe riservare qualche sorpresa... – di un modello che descriva esplicitamente a livello di neuroni e sinapsi il cervello di quello che è uno degli organismi preferiti anche dai genetisti, il moscerino della frutta, noto anche come Drosophila melanogaster. Se un cervello umano ha in media un centinaio di miliardi di neuroni, ciascuno collegato ad un migliaio di sinapsi, l'insetto in questione ne ha circa 100.000 (di cui ne sono già stati mappati circa sedicimila 11 ) organizzati in due emisferi, 41 unità locali di elaborazione, 58 connessioni che uniscono tali unità ad altre parti del cervello, e 6 snodi, rendendo ovviamente il problema di una emulazione a tale livello di risoluzione, pur comunque gigantesco, più trattabile per numerosi ordini di grandezza.

Da qui, il passaggio ad un'emulazione del cervello umano appare in linea di principio una questione essenzialmente quantitativa. Né lo scenario cambia molto quando si nota, probabilmente a ragione, che l'intelligenza umana non è soltanto una questione di "cervello", e che la "mente" in realtà sarebbe tale solo in quanto "situata" in un corpo e nel relativo contesto propriocettivo e sensoriale – idea che può essere riassunta nell'assunto secondo cui l'intelligenza artificiale nel senso antropomorfo è una questione robotica, non una questione informatica, o che altri descrivono parlando della differenza tra una intelligenza puramente inferenziale ed una anche referenziale (e come tale in grado di accedere ad un livello "semantico" che sarebbe in un certo senso precluso alla prima). Infatti il cervello e il sistema nervoso negli esseri umani rappresentano e costituiscono già una frazione molto rilevante della complessità globale del sistema; così che emulare un corpo intero e i suoi input sensoriali e propriocettivi rappresenta un problema solo marginalmente più complesso dell'emulazione a basso livello del solo cervello; e non vi sono elementi che inducono a ritenere che risolto il primo problema qualche difficoltà particolare si opponga alla soluzione del secondo.

Resta però la tesi di Penrose ed altri, dichiaratamente anti-AI ma rientrante in una prospettiva che resta "fisicalista" e non fa intervenire qualità ineffabili, secondo cui le prestazioni dei cervelli umani – ma la pretesa andrebbe necessariamente estesa e a tutti i cervelli organici – eccederebbero l'ordinario o spazio algoritmico e dipenderebbero da effetti quantistici utilizzati dai cervelli stessi, che non sarebbero perciò emulabili 12 (o meglio, a rigore, sarebbero emulabili solo "al limite", in un tempo tendente a infinito).

Ora, come è ovvio, noi viviamo in una realtà integralmente quantistica, che è condivisa non solo dai cervelli organici, ma dai motori a scoppio, dai computer tradizionali stessi, dalle pietre e dalle stelle. Recenti ricerche tendono ad accreditare inoltre l'importanza di effetti propriamente quantistici per la stessa realtà macrofisica, anche con riguardo a processi non direttamente riconnessi all'intelligenza, come la fotosintesi clorofilliana 13 . Ma l'evidente preoccupazione di "salvare" qualcosa di speciale nella mente/anima umana (foss'anche una specialità condivisa da quella del moscerino della frutta) rende automaticamente sospetta l'ipotesi in questione, che molti considerano del resto inattendibile a mente di considerazioni relative alla scala completamente diversa degli effetti considerati 14 .

Prima ancora, comunque, è il rasoio di Occam a venire in gioco. Noi abbiamo oggi un'idea abbastanza precisa del tipo di operazioni rispetto a cui un elaboratore quantistico – che non sappiamo ancora costruire, ma le cui caratteristiche possiamo descrivere in modo abbastanza preciso – rappresenterebbe una differenza essenziale (l'esempio classico in questo campo sono problemi computazionalmente intrattabili come la scomposizione di numeri interi molto grandi in fattori primi). Ebbene, i cervelli umani hanno in tutte tali attività prestazioni addirittura inferiori a quelle degli elaboratori digitali tradizionali. Di converso, i cervelli organici non rendono evidente nessuna delle funzionalità che si è soliti riconnettere teoricamente all'elaborazione quantistica. Lo sfruttamento di effetti quantistici rappresenta perciò al tempo stesso tanto un deus ex machina non richiesto che un homunculus che non spiega nulla quanto alle caratteristiche concretamente esibite dai cervelli organici stessi.

Ma v'è di più. Sempre in linea di principio, se l'ordinario funzionamento dei cervelli animali fosse davvero intrinsecamente basato su effetti quantistici, la cosa proverebbe esattamente la esistenza possibile (e allo stato tutt'altro che dimostrata) di elaboratori quantistici di notevole complessità, che anzi risulterebbe essere in natura del tutto banale. Il che sarebbe certo una buona notizia; ma smentirebbe automaticamente l'idea che lo sfruttamento di effetti quantistici comporti l'impossibilità di emulare funzionalmente un cervello organico su un supporto "artificiale". Semplicemente, il software del primo sarebbe destinato a girare su un elaboratore quantistico anziché su un elaboratore tradizionale, foss'anche ad elevatissimo parallelismo.

Certo, future conferme in tal senso, o scoperte analoghe su altre peculiarità dei cervelli animali, potrebbero comportare la conclusione che una loro emulazione di efficienza appena passabile richieda scelte architetutturali non solo molto lontane dalla Chinese Room di Searle, o dalle implementazioni su sistemi a valvole termoioniche fantasticate dalle discussioni sull'intelligenza artificiale degli anni cinquanta, ma anche, almeno in componenti cruciali della relativa piattaforma, molto più simili a... un cervello, o persino ad un intero organismo umano, che ad un computer contemporaneo. Esattamente nei termini in cui ho ipotizzato nel mio saggio Biopolitica. Il nuovo paradigma 15 che il sistema più efficiente per calcolare l'embrione di un mammifero a partire dal suo codice genetico alla fine potrebbe benissimo rivelarsi composto dal relativo DNA e da un utero.

Ma al momento conclusioni in tal senso restano tutt'altro che scontate; in nulla riguardano la questione dell'emulabilità in linea di principio dei sistemi organici relativamente a qualsiasi concepibile angolo funzionale e a livelli arbitrariamente bassi, giù giù sino al livello molecolare; e del resto non farebbero che iscriversi in trend diffusi che in un certo senso possiamo facilmente generalizzare all'insieme della ricerca e dell‟ingegneria informatica di frontiera.

Sotto quest'ultimo profilo, dell'interesse di carattere molto più ampio che presenterebbe il possibile sviluppo di elaboratori quantistici si è già accennato. Non abbisogna parimenti di illustrazioni o citazioni l'orientamento attuale verso sistemi dotati di parallelismo crescente, dal supercomputing all'architettura interna dei processori per PC e smartphone. Oggi, il "computer" più potente del mondo in termini di teraflops, anzi di petaflops, è rappresentato dal progetto della Stanford University in materia di proteomica 16 , che ha coinvolto nella sua storia oltre sei miloni di unità di elaborazione, di cui circa mezzo milione sono attive quotidianamente. Unità rappresentate in particolare da quelle contenute nelle CPU, nelle schede grafiche e nelle Playstation dei partecipanti che attraverso Internet conferiscono gratuitamente le risorse di calcolo inutilizzate dei propri dispositivi in una configurazione caratterizzata, proprio come un cervello, da una latenza elevata, da una banda ristretta, ma da un parallelismo e da una ridondanza esorbitanti. E ancora, superata da un secolo l'idea di sferraglianti robot di lamiera, non contribuisce certo a rendere più plausibile l'idea di un'umanità destinata a passare "dal carbonio al silicio", o ad essere soppiantata dal "silicone", il fatto che è semmai proprio sul carbonio che si appunta oggi l'attenzione generale, che si tratti di future tecnologie di calcolo e memorizzazione o di scienza dei materiali.

Viceversa, sia il progresso tecnologico e la sua "convergenza" con caratteristiche dei sistemi organici da un lato, sia il superamento dell'antropocentrismo naïf dall'altro, rendono sempre più evidente il fatto che l'intelligenza, intesa in senso rigoroso, di un computer o di un sistema di qualsiasi tipo può essere espansa indefinitamente senza mai produrre qualcosa di neppure vagamente similare all'identità di un individuo umano, o se per questo animale, tanto meno interpretata sulla base della psicologia parrocchiale e rudimentale che spesso fa capolino nelle discussioni in tema o nella cattiva fantascienza, per lo più apocalittica, che la traspone narrativamente. E meno ancora di simile alle proiezioni più o meno contraddittorie dell'etologia umana in immaginari enti di natura metafisica propri alle varie tradizioni religiose di matrice biblica.

Coloro che già all'inizio del novecento si emancipano maggiormente dal paradigma culturale umanista sono concordi nell'abbandono dell'idea che lo "specificamente umano" sarebbe da ricercarsi nell'intelligenza, o peggio in un "grado" quantitativo della medesima che ci porrebbe all'apice di una qualche scala di valore universale, andando a ricercarne altrove le origini e l'essenza, a partire ad esempio dalla comparsa del binomio mano-utensile e dalla coniugazione delle caratteristiche peculiari dei primati con un'etologia da predatori su cui si accentra l'attenzione di Oswald Spengler 17 o di Konrad Lorenz. 18 Così, con riguardo al fondatore dell'antropologia filosofica, scrive Maria Pansera: «Per Gehlen, viceversa, l'uomo conosce attraverso la sua azione, con un processo di reciproca interconnessione tra attività percettiva ed attività motoria. In altre parole, è possibile per Gehlen comprendere l'attività conoscitiva e l'intelligenza, specificamente umane, sulla base del concetto di azione: è radicalmente sbagliato voler additare la differenza essenziale tra uomo e animale nell'intelligenza"». 19

Al di là dei termini specifici della questione, sono comunque Daniel C. Dennett 20 e Roberto Marchesini 21 che meglio illustrano come, qualsiasi cosa l'uomo sia, il tipo di "intelligenza" che lo caratterizza non è altro che il prodotto del rifrangersi frattale della ontogenesi individuale di ciascuno di noi e della filogenesi (darwiniana) che ci sta alle spalle. Così che cose come "mente" o "coscienza" non sono altro che espressioni utili a designare particolari artefatti evolutivi che infatti trovano la loro progressiva, e via via più limitata, generalizzazione, nelle specie, nelle famiglie e negli ordini animali a noi più vicini, e per null'affatto in sistemi naturali o artificiali foss'anche di "intelligenza" pari o superiore ma che rappresentino il prodotto di processi del tutto diversi.

Una "mente" che sia per noi riconoscibile in senso antropomorfico, o almeno teriomorfico, non rappresenta cioè affatto un'emergenza inevitabile di un qualsiasi sistema che raggiunga un certo livello di intelligenza 22 – che del resto abbiamo visto essere rilevante solo ai fini della rapidità e efficienza dell'elaborazione richiesta, mai della sua natura – ma al contrario solo il prodotto del percorso specifico di alcuni replicatori soggetti a variazioni modulate da pressioni selettive, quale componente della strategia implicita dei replicatori stessi in funzione del loro successo riproduttivo. Prodotto del resto niente affatto obbligato: cfr. il notevole successo evolutivo e capacità di gestione dell'informazione manifestato da sistemi già sufficientemente "lontani" in termini di agevole allucinazione di nostri stati soggettivi, come ad esempio un termitaio.

Al di là e al di fuori di questo, esistono solo proiezioni “animistiche” che sono perfettamente innocenti, magari filosoficamente altrettanto legittime di quelle che concernono altri esseri umani, e persino utili nella vita quotidiana (l'automobile che "si vendica" o che "è depressa" perché non riceve la manutenzione opportuna), ma la cui effettiva capacità predittiva con riguardo alla “etologia” del sistema o del fenomeno considerato non è affatto scontata, e anzi resta caso per caso da dimostrare avuto riguardo agli aspetti nel contesto rilevanti.

Se una mente, o più semplicemente uno zimbo 23 , non devono essere identificati in qualcosa che i sistemi intelligenti sono, ma in qualcosa che (alcuni) sistemi intelligenti fanno, e fanno in ragione non della loro "potenza" o architettura ma in ragione della loro storia, l'unica possibilità di di vederli emergere, salvo emulare un numero tendenzialmente infinito di pseudo-filogenesi aspettando che spontaneamente emergano prodotti sufficientemente simili, è perciò riprodurne deliberatamente e arbitrariamente i comportamenti, gli output, a partire dal modello biologico che ci interessa emulare e in vista del grado di accuratezza perseguito.

Questo modello, concepibilmente, può ben essere un uomo, e in questo senso un modo plausibile di descrivere un'AGI possibile, che si avvicini al concetto antropomorfo di intelligenza proprio alla maggiorparte delle narrative in materia di "intelligenza artificiale" che abitano la nostra epoca, potrebbe essere proprio quello di un mind uploading di un individuo specifico. La realizzazione di una intelligenza artificiale di questo tipo verrebbe perciò a coincidere con la creazione di un sistema che sarebbe in grado di rendersi progressivamente competitivo con gli esseri umani in un test di Turing generico (che misura la capacità del sistema di non farsi identificare come un'emulazione in un numero finito di interazioni con una casalinga di Voghera) solo come riflesso secondario della sua capacità di rendersi competitivo in un test di Turing "specifico" (cioè quello ipotetico che misuri la capacità del sistema di farsi passare per il marito della medesima casalinga).

Questa prospettiva, tra l'altro, rappresenta uno degli aspetti più interessanti dell'ipotesi tecnologica in questione, perché abbiamo visto che per il resto la presenza di emulazioni convincenti di processi "mentali" antropomorfi o teriomorfi non ha assolutamente alcuna rilevanza per l'elaborazione di informazioni ad altri fini, e per la potenza dei sistemi che la svolgono, ivi compreso per quanto attinente alla capacità, mediante periferiche adeguate, di comunicare, riprodursi, ripararsi, programmarsi, apprendere dall'esperienza, etc.; e ancora abbiamo visto che è perfettamente possibile che, specie in assenza di "scorciatoie" eccezionali offerte da strategie alternative (quali quelle applicabili al gioco degli scacchi) e/o di una riproduzione a livello abbastanza basso dei meccanismi utilizzati dai cervelli biologici, anche buttando risorse addosso al problema l'emulazione realizzata resti di ordini di grandezza meno performante del sistema emulato. Ovvero, in altri termini, funzionante ad un ritmo molto più lento del suo originale biologico. 24

Che non si tratti qui solo di un problema di risorse dipende dal fatto che regolarmente le tecnologie si scontrano con limitazioni intrinseche di ordine pratico se non addirittura fisico, le stesse che fanno sì ad esempio che il computer che abbiamo sulla scrivania non utilizzi i processori da venti o trenta gigaherz che estrapolazioni passate avevano indotto ad aspettarsi per gli anni dieci del nuovo secolo.

Certo, la risposta corretta, e transumanista, a tale constatazione è che l'ingegneria esiste esattamente per ovviare, abolire, aggirare, eludere progressivamente tali limitazioni, come è successo ad esempio con la cosiddetta Legge di Moore, che ha continuato a descrivere l'evoluzione esponenziale della potenza dei nostri elaboratori malgrado la predizione di vari "tetti" capaci di limitare la continuazione di tale trend. Ma il modo in cui l'ingegneria raggiunge tali risultati è esattamente l'introduzione di cambiamenti architetturali (per esempio, il passaggio da sistemi seriali di velocità crescente a sistemi di velocità sostanzialmente stazionaria a parallelismo crescente). Così che nella ricerca di progressivi miglioramenti prestazionali, per quello che ne sappiamo, l'ingegneria delle AGI potrebbe anche finire per restituirci un sistema molto simile a... un essere umano più o meno convenzionale cresciuto in un utero artificiale, nello stile del modello Nexus-6 prodotto dalla Tyrell Corporation nel film Blade Runner.

In ogni modo, però, l'emulazione di un essere umano specifico sotto il profilo delle sue comunicazioni verbali e non, ad un grado sufficiente di accuratezza, è tale da integrare per molti, e probabilmente per la stragrande maggioranza dei membri delle società future, una metafora di sopravvivenza e continuità relativamente all'identità dell'essere umano interessato, il cambiamento del substrato materiale del medesimo restando tanto irrilevante per il profilo considerato quanto la progressiva (e, in circa sette anni, totale) sostituzione degli atomi che compongono il nostro corpo nel corso della nostra ordinaria vita biologica. E la portata potenziale di risultati significativi in questa direzione, per l'interessato così come per gli altri consociati non ha bisogno davvero di essere sottolineata.

Nulla impedisce certo, sulla falsariga di un'emulazione umana di questo genere, di fare un passo ulteriore nel senso della artificialità emulando una persona mai esistita; ma sembra legittimo considerare una possibile AGI "Turing-qualified" di questo genere come null'altro che un inevitabile patchwork di tratti umani appartenenti a membri esistenti o esistiti della specie, o almeno plausibilmente attribuibili a ipotetici membri di essa, per definizione.

La reazione a tale rilievo da parte di chi, in positivo o in negativo, ha una visione più "mistica" di possibili "menti artificiali" richiama per lo più il fatto che non esistono a priori ragioni per cui la piattaforma su cui gira un sottosistema "psicomorfo" debba conoscere limitazioni analoghe ai sistemi biologici o non essere destinata a (auto?)modificarsi in direzioni imprevedibili al di fuori delle caratteristiche di partenza. Ma tale risposta è viziata da una considerazione superata ed astratta dei sistemi biologici stessi, che come ha mostrato Dawkins non sono davvero integralmente descrivibili, e comprensibili sotto il profilo evolutivo se non in chiave di "fenotipo esteso" 25 , ovvero in quanto considerati come insieme degli effetti complessivi che il gene sortisce sul suo ambiente dentro e fuori da un "corpo" i cui rigidi confini di un tempo tendono oggi comunque ad attenuarsi non solo sotto il profilo tecnologico, ma anche epistemologico.

Sotto tale aspetto, perciò, proprio nulla di ciò che è potenzialmente accessibile ad un'emulazione "psicomorfa" che giri su un sistema senza alcun componente propriamente biologico - ammesso e anche qui non concesso che si possano operare distinzioni rigorose di questo tipo... - non lo è anche ad un sistema che non presenti affatto questa caratteristica di "abiologicità integrale". E non solo perché almeno entri certi limiti la stessa biologia strettissimamente intesa presenta una sua plasticità offerta alla trasformazione, deliberata o meno, come insiste il transumanismo "wet" (ovvero più concentrato sulla manipolazione del vivente); ma soprattutto perché alle medesime caratteristiche del nostro sistema in ipotesi interamente "artificiale" può per definizione ugualmente accedere un sistema che presenti risorse di calcolo equivalenti o superiori ma integri uno o più cervelli (o corpi) umani di tipo tradizionale e "fisico" – dato anche che di converso una visione più penetrante del computer stesso finisce per identificarlo con null'altro che la somma delle sue periferiche.

In effetti, l'unico argomento a sostegno di una differenza fondamentale tra i due scenari riguarda la inevitabile limitazione di banda che affligge l'integrazione tra il cervello umano e componenti funzionali "intelligenti" posti fuori dal cranio. Anche qui, l'ipotesi che tale collo di bottiglia sarà attenuato in futuro da interfacce neuronali, secondo quanto promettono varie ricerche in corso 26 , è plausibile, ma non sembra né decisiva (dopotutto i cinque o sei apparati sensoriali a nostra disposizione sono già stati perfezionati come canali di input per milioni di anni, e continuano in tal senso a rappresentare un canale d'accesso privilegiato ai cervelli organici) né richiesta. Perché proprio l'esperienza del supercomputing, e dei computer in generale, ci mostra che a fronte della crescita delle risorse di elaborazione la limitazione di banda può essere ovviata semplicemente spostando a livelli sempre più alti linguaggio della comunicazione che interviene tra i sottosistemi coinvolti 27 , così che appare naturale che il fyborg rappre- sentato dal computer più il suo utente sia destinato a continuare a spostarsi sempre di più dalla diretta programmazione degli stati fisici di circuiti elettronici verso macroistruzioni sempre più generali ed astratte, ma che non rimettono in discussione né trasferiscono minimamente l'allocazione delle funzionalità psicomorfe (ad esempio, le "motivazioni" o l'"intenzionalità"), che in tale sistema restano in ipotesi confinate alla periferica "utente".

In altri termini, e ricapitolando: nulla ci autorizza a considerare un'ipotetica AGI futura come qualcosa di radicalmente diverso, dal punto di vista pratico, da un uomo alla tastiera di un computer di potenza equivalente e dalla programmazione sufficientemente complessa e flessibile; ciò che rileva e che è destinato a rilevare anche in futuro è la disponibilità di potenza di calcolo, e non l'emulazione di per sé di processi "mentali"; l'interesse di un'emulazione di questo tipo, che pure è per definizione possibile, sta essenzialmente in una migliore comprensione delle caratteristiche che definiscono una data identità, e in una promessa di immortalità per quest'ultima, soprattutto dal punto di vista del contesto sociale in cui tale identità si è dispiegata attraverso le interazioni che hanno coinvolto il suo corpo biologico.

Tale conclusione liquida certo le accezioni escatologiche di una possibile singolarità tecnologica nel nostro futuro che sia interpretabile come parusia, come rapture provocata dall'Avvento di Esseri Superiori infini- tamente Buoni, Saggi e Razionali dediti a riscattarci da questa Valle di Lacrime; riducendo piuttosto il concetto stesso di singolarità storica al senso originale della metafora; che come per le singolarità cosmologiche non predice in realtà quantità infinite, probabilità superiori ad uno, e altri risultati insensati da interpretare in un qualche senso misticheggiante, ma fa semplicemente riferimento a mutamenti di natura sufficientemente radicali da superare le capacità dei nostri strumenti predittivi e teorici attuali ("umani"). E naturalmente, nel caso della singolarità tecnologica, fa riferimento alla volontà, transumanista in senso proprio, di volere che una tale frattura, un tale Zeit-Umbruch, effettivamente si produca. In questo, non è difficile al contrario individuare nella visione della Singolarità propria ad esempio a Ray Kurzweil, 28 e nel paragone costante tra la capacità di elaborazione di un computer o dell'insieme dei computer connessi dalla Rete e la mente umana o la capacità aggregata delle menti umane, un'ipoteca antropomorfica e antropocentrica che rappresenta il pendant futurologico del residuo umanismo, provvidenzialismo e universalismo a livello valoriale dell'autore.

Tale conclusione, d'altronde, liquida però anche il mito della "rivolta delle macchine", che continua a rispuntare, magari paludato sotto le vesti più aggiornate del Principio di Precauzione, anche negli ambienti più impensabili. 29 La struttura basilare del mito suddetto è semplice: l'incremento progressivo delle capacità di elaborazione dei sistemi di cui ci valiamo porterà automaticamente alla nascita di AGI non solo Turing-qualified ma etologicamente antropomorfe e darwiniane in ogni senso, e tale "bootstrap" tecnologico unito ad una indefinita flessibilità architetturale comporterà un'accelerazione progressiva nel succedersi di iterazioni successive sempre più progredite (macchine che progettano macchine che progettano macchine sempre più evolute, sempre più velocemente), con il risultato che le stesse compiranno una "rivoluzione", prendendo il "controllo", ed eventualmente soppiantando il "genere umano" con modalità più o meno violente.

La variante pseudo-transumanista di questo discorso tende a considerare lo sviluppo descritto più o meno altrettanto ineluttabile di quanto lo ritengono i profeti dell'estinzione della "razza umana"; ma crede che sia possibile "guidare" il decollo delle AGI in questione, magari cablando in qualche forma sentimenti di friendliness ed empatia/servilismo verso l'Umanità nel loro firmware, grosso modo sulla linea delle Tre Leggi della Robotica di Isaac Asimov 30 ; così tra l'altro da prevenire ipoteticamente l'insorgere nelle AGI suddette (per definizione capaci di autoprogrammarsi) della motivazione a riprogrammare tale caratteristica eliminandola dai parametri del loro funzionamento. 31 Nell'attesa di capire come fare, e nella migliore delle ipotesi in attesa dei risultati di azioni volte a sensibilizzare ricercatori e governi, molti "singolaritariani" di questa confessione non hanno esitazioni a sostenere l'idea di moratorie o regolamentazioni internazionali di stampo proibizionista nel campo delle ricerche sull'intelligenza artificiale, sulla falsariga di quanto abbiamo già conosciuto in tema di tecnologie inerenti alla rivoluzione biologica. 32

In ogni modo, è facile decostruire quest'ordine di idee, che ha conosciuto una certa diffusione soprattutto in ambito anglosassone, come l'ennesimo avatar del mito del Golem, ripresentato in salsa tecnologica e millenaristica, in un contesto che dà per scontato un sistema di valori connotato dall'utilitarismo etico, dall'universalismo giusnaturalista e dal tipico specismo umanista, oltre che da una visione provinciale, manichea e largamente acritica di concetti quale "umanità", "estinzione", "friendliness", etc.

Ma anche restando grosso modo nell'orizzonte valoriale di coloro che si preoccupano dell'insorgere di possibili "Big, Bad AIs" e di una Singolarità denotata da un cosiddetto "hard takeoff" esponenziale, la pretesa di tale orientamento di essere l'unica posizione "responsabile", coerente e razionale, quella che sarebbe meritevole di generale approvazione, non regge all'analisi. Se ad esempio per "umanità" intendiamo l'insieme degli appartenenti alla nostra specie oggi viventi, la prospettiva paventata è quella di vedere la nascita di un insieme di nuove entità dapprima avide di risorse e di attenzioni, bisognose in particolare di una programmazione complessa, e che nel giro di pochi anni sarebbero destinate prima a infiltrarsi in ogni settore della nostra vita, certo collaborando con noi, ma rendendosi progressivamente indispensabili e gradualmente indipendenti dalla programmazione iniziale ricevuta, per poi assumere progressivamente il potere, escluderci dalla maggiorparte dei processi decisionali ed infine, a seconda dei casi, accudirci per il puro rispetto nascente dalla memoria della loro creazione, abbandonarci alla nostra sorte, o concentrarci ed emarginarci in strutture, ruoli ed ambiti sociali in cui sarebbe destinata a restringersi sempre più anche la nostra medesima autonomia personale, in attesa della nostra definitiva estinzione.

Ora, è stato facilmente notato che lo scenario ipotizzato corrisponde esattamente... a quello che descrive da sempre il succedersi delle generazioni biologiche della nostra specie, del tutto a prescindere dalla creazione di AGI che siano antropomorfe solo etologicamente. Di più, per quello che riguarda le narrative millenaristiche imperniate sul rischio rappresentato dalla ricerca e dai progressi in campo informatico in relazione alla possibilità che possano finire per generare "AGI ostili" suscettibili di sterminarci, la verità è che la totalità della popolazione umana del pianeta si trova oggi minacciata da un incombente pericolo di morte, che salvo trasformazioni davvero radicali la vedrà nel giro di pochi decenni comunque totalmente estinta. Precisamente perché uccisa, in modo raramente compatibile con ideali eudaimonistici, da altri uomini, macchine stupide, predatori, malattie, incidenti, o semplicemente dall'invecchiamento.

Di fronte a questa virtuale certezza, non si vede come la prospettiva invero vaga, marginale ed in sostanza incomprensibile, di essere improbabilmente cacciati strada per strada ed assassinati da un Terminator controllato, secondo il cliché popolarizzato dal neoluddita regista di Avatar 33 , da intelligenze artificiali ostili – che tra l'altro si troverebbero inevitabilmente su una catena alimentare ben più aliena di un altro essere umano con analoga potenza di fuoco – possa davvero risultare deterrente rispetto a qualsiasi cambiamento che offra la benché minima prospettiva di evitare o posticipare le molto più concrete ed incombenti minacce sopra citate.

La verità è invece che, come parrebbe dover essere ovvio per chiunque ci pensi solo un attimo:

  • un fenomeno o una macchina non hanno bisogno di essere sistemi né intelligenti (nel senso di esibire particolari capacità di elaborare informazioni) né di natura darwiniana (nel senso di "denotato da una tendenza selettivamente determinata a comportamenti funzionali ad una autoperpetuazione e crescita competitiva") per essere pericolosi;
  • un sistema darwiniano per essere illimitatamente pericoloso non ha bisogno di essere particolarmente intelligente (il virus dell'AIDS o le ipotetiche nanomacchine fuori controllo di Bill Joy 34 rappresentando due dei tanti esempi possibili)
  • un elaboratore di informazioni può essere illimitatamente intelligente e illimitatamente pericoloso, senza essere affatto darwiniano, e perciò senza esibire alcun processo "mentale" o motivazione propria, del tipo attribuito in questo contesto alle ipotetiche "AGI ostili", e ciò a seguito di un funzionamento per qualsiasi ragione indesiderabile del sistema stesso (ad esempio in dipendenza delle motivazioni fornitegli dalle sue "periferiche umane", o di sviluppi semplicemente "deterministici", ma imprevisti, dettati dalla sua programmazione, per non parlare dei bachi che questa possa contenere)

Non esistono in effetti elementi che consentono di dimostrare ad esempio che a priori un cavallo sia un sistema intrinsecamente più pericoloso di un motociclista di una banda di teppisti stile Road Warrior solo per la maggiore autonomia "psicomorfa" del primo rispetto ad una motocicletta.

Resta poi naturalmente da vedere pericoloso per chi. Al di fuori delle astrazioni universaliste o delle favole del secolo scorso, uomini, animali domestici, dèi e macchine non lottano in quanto tali tra di loro, non più di quanto facciano l'insieme delle femmine del regno animale contro il genere maschile, o ipotetiche classi sociali che attraversino "oggettivamente" l'intero spettro delle società umane. 35 Lavorano piuttosto insieme nel combattere avversari collettivi di composizione essenzialmente analoga e nel mantenersi simbioticamente o parassitariamente in essere. Non a caso, con buona pace di Hume, Bentham o Stuart Mill, molti di noi nutrono un gatto, o accudiscono piante da giardino, o celebrano riti, o dipingono quadri, o adornano avatar in Second Life, con risorse che potrebbero facilmente salvare la vita di qualche cospecifico all'altro capo del mondo, e non si sentono particolarmente a disagio nel farlo.

Certo, recentemente alcuni esseri umani hanno avuto il discutibile pri- vilegio di essere tra le prime vittime di armi con una discreta componente robotica, a cominciare dai droni che iniziano gradualmente a rimpiazzare gli aerei tradizionali nella funzione di attacco al suolo. Ma, guarda caso, si tratta di attacchi la cui componente "motivazionale" resta del tutto estranea alle armi stesse 36 , e in cui l'intelligenza crescente dell'arma gioca un ruolo unicamente in rapporto alla sua efficacia, secondo parametri non differenti ad esempio dalla potenza esplosiva in chilotoni o megatoni che una delle parti in un (potenziale) conflitto possa recapitare sugli obbiettivi nemici. Il che ripropone il tema della sostanziale equivalenza, agli effetti pratici, tra il sistema rappresentato l'uomo alla tastiera di un componente che incorpori certe potenzialità ed autonomie attraverso dispositivi digitali, con una delega elaborativa e creativa in ipotesi crescente, e del sistema che invece implementi la componente "umana" su un altro supporto. Potenzialmente "pericoloso" anch'esso, non c'è dubbio, in particolare per chi si trova dall'altra parte del mirino, ma né più né meno della sua più prosaica ed attuale alternativa.

Resta poi naturalmente il disagio, spesso espresso in un linguaggio vagamente "evoluzionista" e come si diceva recentemente agitato anche da personaggi come Bostrom 37 , rispetto all'attesa crescita progressiva del ruolo dell'intelligenza non-biologica all'interno delle nostre società – con l‟irrisolvibile paradosso di scelte etiche che considerano come obbiettivo insuperabile la difesa ad oltranza di paradigmi, più ancora che biomorfi, strettamente antropomorfi (come il suprematismo a favore di enti dalla caratterizzazione quanto meno "eudaimonica" 38 ) anche in tale ambito, e al tempo stesso l'idea di che sia possibile, o almeno doveroso, tentare di "cablare" all'interno dell'intelligenza non-biologica un'etologia vagamente "amichevole" 39 . Crescita che si suppone possa appunto condurre alla progressiva sottomissione, marginalizzazione ed infine estinzione della nostra "specie".

Naturalmente, il riferimento alla specie rappresenta null'altro che il tentativo di ridenotare in senso biologico, secolarizzato e pretesamente "oggettivo" un insieme inclusivo ed astratto del tipo della "Cristianità", destinato in chiave etica ad opporsi al perseguimento degli interessi, potenzialmente contrastanti o indifferenti ma invariabilmente condannati, della singola persona concreta, dei suoi geni, della sua famiglia, della sua comunità, del suo gruppo etno-linguistico, della sua razza, della sua cultura, etc., o di qualsiasi cosa possa rappresentare l'affermazione di una identità o diversità o particolarità all'interno di quello che in una prospettiva di utilitarismo etico deve perciò diventare l'unica possibile categoria universale al di fuori della quale sia impossibile ragionare in termini valoriali. Ora, questa prospettiva appare oggi già in crisi a fronte di tendenze come l'animalismo, o ancora di più l'"ecologia del profondo", che riducendone ad absurdum i presupposti finisconono in realtà per riaprire inevitabilmente la porta al relativismo intrinseco alla visione del mondo europea originaria ed alla inevitabile scelta di valori che questo comporta. 40

Ma è il concetto stesso di "fedeltà alla specie" che comporta aporie difficilmente superabili, alla luce della stessa tradizionale categoria tassonomica in questione (che tra gli esseri viventi sessuati è notoriamente definita come l'insieme di tutti gli organismi naturalmente e concretamente suscettibili di incrociarsi producendo prole feconda). E ciò non solo per il relativizzarsi teorico e pratico della categoria nel mondo della biologia contemporanea, persino dal punto di vista sincronico. Ma perché in senso diacronico il concetto perde comunque molto del suo significato operativo, nel momento in cui ogni specie, retrospettivamente, non rappresenta altro che il prodotto di una trasformazione e diversificazione graduale delle caratteristiche dei suoi progenitori, ben al di là di ogni concepibile interfecondità (anche a prescindere dalla impossibilità dovuta alla distanza temporale); e che in prospettiva resta perfettamente possibile che – mentre alcune specie dimostrano una eccezionale stabilità temporale delle loro caratteristiche morfologiche – dato un lasso di generazioni sufficienti le spinte evolutive rendano a tal punto irriconoscibili i loro successori, pure per definizione direttamente imparentati, da rendere assurdo il considerarli parte dello stesso potenziale "pool riproduttivo potenziale".

Sotto tale profilo pare ugualmente arbitrario sia considerare uomini e australopitechi (o tanto più uomini e mammiferi ancestrali) come parte di una stessa specie; sia immaginare che gli australopitechi vadano considerati "estinti" a seguito della loro trasformazione evolutiva di loro discendenti nelle successive, e/o parallele, specie della famiglia Homo. In questo senso, è tipico del transumanismo ragionare implicitamente in termini di clade piuttosto che di specie, ed identificarsi semmai in una linea evolutiva, in cui la nostalgia dell'avvenire invera il detto nietzschano secondo cui «la specie, vista da lontano, è qualcosa di altrettanto inconsistente che l'individuo. La "conservazione della specie" è soltanto una conseguenza della crescita della specie, il che equivale ad una vittoria sulla specie, nel cammino verso una specie più forte. [...] E' precisamente con riguardo ad ogni essere vivente che si può mostrare meglio che esso fa tutto ciò che può non per conservare se stesso, ma per diventare più di ciò che non sia» 41 .

Ponendosi nella prospettiva contraria, in mancanza di una componente "provvidenzialista" che proscrive invece un'azione deliberata sulla propria natura, un "umanismo" conseguente in senso specista avrebbe paradossalmente dettato agli australopitechi un'"eugenetica" antievolutiva tale da imporre l'immediata eliminazione dei neonati e delle linee germinali che presentassero caratteristiche proto-umane, e perciò tali con il tempo da provocare la scomparsa dell'"austrolopiteticità" come referente etico assoluto. E certamente potrebbe imporre oggi misure volte velleitariamente a perpetuare immutato il pool genico e le relative frequenze proprie alla "Umanità, versione 2011" per tutti i secoli dei secoli 42 . Ora, una minaccia in questo senso ben più ineluttabile per la sopravvivenza del "genere umano come noi oggi lo conosciamo" proviene senza dubbio dalla sua semplice trasformazione nel corso del tempo piuttosto che dall'improvviso emergere di angeli o demoni o alieni in veste di intelligenze artificiali siliconiche. Il repertorio dell'immaginario fantascientifico mostra anche come non vi sia nulla che fa sì che tale possibile trasformazione debba necessariamente ed impercettibilmente distendersi attraverso insondabili eoni, dato che, specie al livello attuale di panmissia, il panorama genetico della nostra specie appare in linea di principio suscettibile di essere profondamente alterato, da potenziamenti ed alterazioni deliberate così come da mutazioni casuali capaci di conferire un deciso vantaggio riproduttivo, in tempi del tutto umani e nel giro di generazioni.

Ma cosa rappresenterebbe del resto per la nostra stirpe un "Avvento delle AGI" secondo lo stesso immaginario qui criticato? La specie, da un punto di vista darwiniano, come abbiamo visto rappresenta essenzialmente uno spazio concorrenziale, tanto che appunto l'Umanità è un costrutto ideologico che non è servito negli uomini, più di quanto non lo sia tra gli animali, da alcun "sussurro dei geni", del tipo che programma invece gli organismi viventi all'investimento parentale, foss'anche indiretto come nel caso delle formiche operaie sterili, a scapito degli stessi "interessi" e sopravvivenza individuale dell'organismo coinvolto 43 . Se la psicologia evolutiva dimostra le buone ragioni anche darwiniane per l'esistenza in vari gradi di un'empatia spontanea nei confronti anche di soggetti non geneticamente correlati, proprio la non-necessità di una correlazione genica fa sì che le reazioni empatiche discendano più dalla facilità di autoidentificazione e proiezione di chi le prova con il loro oggetto – che può benissimo essere appartenente ad un altra specie, ad un altro genere, o non essere neppure "vivente" bensì minerale, immaginario, virtuale – che da un grado di prossimità biologica di per sé. Così, al di fuori del paradigma umanista, non esiste alcun particolare elemento descrittivo o costitutivo del nostro bagaglio etologico che giustifichi la promozione in campo etico di un radicale "us vs. them", di una loyalty fondamentale, di natura specista.

Viceversa, l‟esperienza umana dimostra come la "discendenza", il cui significato etologico e sociobiologico pure ha radici intrinsecamente genetiche, assuma già oggi invariabilmente un significato estensivo e metaforico che porta ad identificare continuità di gruppo, o successioni tra individui, rispetto a cui rapporti di filiazione letterale entrano in modo soltanto parziale ed eventuale, o si dilungano nel tempo al punto da diluire a livelli infinitesimali il contributo genetico dei capistipite. Anzi: nella nostra specie il significato di un'appartenenza definita su tali basi si rivela frequentemente più forte, nell'autoidentificazione individuale con un set di interessi, radici e prospettive (per esempio "nazionali" e "popolari"), rispetto a legami dettati da rapporti di diretta, o almeno più plausibile, discendenza biologica.

Di conseguenza, quand'anche possibili intelligenze artificiali con una componente psicomorfa intrinseca non vengano semplicemente ad essere a livello sociale (e perciò ad ogni effetto pratico) identificate con le personalità che le stesse eventualmente emulino, è solo un pregiudizio personale in tal senso 44 che impedisce di considerare ad ogni effetto tali AGI come "children of the mind", secondo la celebre di formula di Hans Moravec 45 , o figli tout court, come Gazurmah per il marinettiano Mafarka 46 , e perciò come legittimi successori, personali e/o evolutivi, dell'interessato, alla stregua se non altro di un qualsiasi cospecifico futuro che non faccia parte della sua prole immediata.

Come in campo "bio" e "nano", anche in campo "info", "cogno" e "robo" il divieto morale di giocare alla divinità 47 , in questo caso sotto il particolare profilo dello spauracchio rappresentato dalla creazione di entità psicomorfe di cui si paventa l'ostilità o semplicemente la "superiorità", si traduce d'altronde nelle minacce concrete generalmente rappresentate dal neoluddismo che oggi invoca, rafforza e giustifica un rallentamento nel campo della ricerca e della tecnologia che a molti appare già fin troppo in essere – benché proprio il settore dell'elaborazione e trasmissione delle informazioni sia tra quelli che maggiori cambiamenti hanno continuato a produrre anche dalla fine del secolo passato, ivi compreso in termini di influenza indiretta su altri campi e settori.

Il richiamo naturalmente è alle minacce strutturali che inevitabilmente si appuntano sulla sopravvivenza personale di ciascuno di noi, sulla sopravvivenza concorrenziale delle rispettive appartenenze, e sulla sopravvivenza stessa – a breve, medio e lungo termine – del clade cui tutti i gruppi umani esistenti partecipano; rispetto a cui l'"intelligenza" che si rende o non si rende concretamente disponibile è destinata a giocare comunque un ruolo tanto ovvio da non abbisognare illustrazioni. Ma, ancora di più, vogliamo riferirci alla minaccia ed alla maledizione che ciò rappresenta rispetto alla volontà di conoscenza, potenza, grandezza che ad avviso di chi scrive sola può dare significato etico ed esistenziale, da un punto di vista postumanista, alla sopravvivenza medesima. Dopotutto, se l'intelligenza è sopravvalutata, una vita stupida non merita davvero di essere vissuta.

Note

  • 1 Stephen Wolfram, A New Kind of Science, Wolfram Media 2002. L'opera in questione, che è oggi integralmente accessibile in rete all'indirizzo www.wolframscience.com, è stata significativamente contestata per quello che dice, e contemporaneamente per il fatto di "non dire niente di nuovo". Il che sembra un buon indice della sua capacità di riflettere la maturazione di un cambio di paradigma...
  • 2 Seth Lloyd, Programming the Universe: A Quantum Computer Scientist Takes on the Cosmos, Vintage 2007. Questa idea, che spesso nella nostra epoca finisce per essere assunta implicitamente ed esplicitamente nel nostro rapportarci in generale alla realtà, rappresenta anche, in un certo senso trasfigurato, una vendetta postuma del panpsichismo "primitivo" cui si è opposto per duemila anni il "disincanto" di matrice monoteista che vede il mondo solo come un bruto riflesso di una Mente trascendentale posta al di fuori di esso.
  • 3 Vedi le recentissime conferme, per la prima volta basate su una profilazione direttamente genetica dei soggetti esaminati, contenute nello studio di G. Davies et al., “Genome-wide association studies establish that human intelligence is highly heritable and polygenic”, in Molecular Psychiatry, 9 Agosto 2011, doi:10.1038/mp.2011.85, delle conclusioni dei vari Hans Jürgen Eysenck, Arthur Jensen, Richard J. Herrnstein, Jean-Pierre Hébert, per cui è stato messo all'indice anche James D. Watson, il Nobel scopritore con Francis Crick del DNA. Sulla questione, vedi anche l'intervista che l'autore ha rilasciato ad Adriano Scianca nel volume Dove va la biopolitica?, Settimo Sigillo 2008.
  • 4 L‟espressione è utilizzata tra l'altro da Gregory Stock, in Riprogettare gli esseri umani. L'impatto dell'ingegneria genetica sul destino biologico della nostra specie, Orme Editori 2005 (ed. orig. Redesigning Humans: Choosing Our Genes, Changing Our Future, Mariner Books 2003), per suggerire che l'impianto di gambe bioniche non rappresenta davvero, nel bene o nel male un cambio radicale o anche solo probabile di prospettiva nella misura in cui una motocicletta consente di ottenere comunque prestazioni analoghe.
  • 5 Are We Spiritual Machines? Ray Kurzweil vs. the Critics of Strong AI, a cura di Jay Richards, Discovery Institute 2001. Il libro rappresenta dichiaratamente una risposta "scettica" al più noto The Age of Spiritual Machines: When Computers Exceed Human Intelligence di Ray Kurzweil (prima editione Viking 1999), ma è significativo come in questi circoli il "non si può" resti solo un argomento ancillare ad un molto più fondamentale "non si deve". L'impossibilità morale resta così sempre sullo sfondo anche nella discussione della impossibilità pratica, o addirittura della impossibilità filosofica, dell'ipotesi in contestazione. Vedi al riguardo anche l'approccio di un autore di fantascienza come Charles Stross che pure ha dichiaratamente parassitato le tematiche e le riflessioni transumaniste di ambienti come l'Extropic Institute per la propria produzione commerciale (cfr. Three arguments against the singularity, www.antipope.org).
  • 6 In realtà, cosa raramente notata, il famoso esperimento mentale della Chinese Room (per un campionario già sufficientemente esaustivo delle critiche al riguardo, cfr. Wikipedia - Chinese room) comporta conseguenze ambigue in tema di AI. Searle è infatti costretto ad accettare ed anzi postulare che l'output, il comportamento, della Chinese Room di cui parla sia identico a quello di un cinese, posto che se così non fosse l'esempio sarebbe automaticamente inutile a sostenere la tesi secondo cui nessuna "stanza cinese" può davvero "pensare". D'altronde, l'ammissione stessa del fatto che un sistema come la stanza cinese teoricamente possa esibire, sia pure in qualche multiplo dell'età dell'universo, un comportamento di questo tipo, già risponde positivamente alla questione dell'"AI forte", almeno da un punto di vista funzionale e per chi non si pone problemi di natura noumenica.
  • 7 Ne ho trattato informalmente nell'articolo Uploading, cyborgisation, teletrasporto, rianimazione postcrio: possibilità ed identità accessibile tra l'altro su: Blog Transumanisti
  • 8 Vedi ad esempio Richard Bandler, John Grinder, La struttura della magia, Astrolabio Ubaldini 1981.
  • 9 La capacità di farlo, se dobbiamo basarci sulle difficoltà che incontrano al riguardo coloro che sono affetti da autismo, sembra anzi svolgere un certo ruolo nella nostra capacità di funzionare socialmente e linguisticamente in modo normale.
  • 10 A quanto pare i Neanderthal, cui sono accreditati indici di "intelligenza" un tempo considerati esclusivi della nostra specie come l'uso del fuoco, il culto funerario, la probabile presenza di un linguaggio, etc., sarebbero appartenuti ad una specie diversa, non normalmente interfeconda con i Sapiens, e con un numero addirittura diverso di cromosomi. D'altronde, gli studi dell'ultimo secolo hanno dimostrato come lo iato nelle prestazioni cognitive nostre e delle scimmie superiori sia stato grandemente sopravvalutato sulla base tanto di ovvie differenze etologiche quanto di un pregiudizio ideologico antropocentrico le cui radici sono ben note.
  • 11 Vedi ad esempio Nicholas Wade, "Decoding the Human Brain, With Help From a Fly", in The New York Times 13/12/2010.
  • 12 Roger Penrose, Ombre della mente. Alla ricerca della coscienza, Rizzoli 1996. Vedi anche, dello stesso autore, La mente nuova dell'imperatore, ult. ed. Rizzoli 2000.
  • 13 Vedi ad esempio Roseanne J. Sension, “Biophysics: Quantum path to photosynthesis”, in Nature n. 446, 2007.
  • 14 Max Tegmark ("Importance of quantum decoherence in brain processes" in Physical Review n. 4, 2000) rileva ad esempio che la scala temporale coinvolta nell'"accendersi" dei neuroni e nell'eccitazione dei microtubuli, è più lento di dieci ordini di grandezza rispetto ai tempi coinvolti nella decoerenza invocata da Robert Penrose e da Stuart Hameroff nella loro teoria della coscienza.
  • 15 Stefano Vaj, "Il secolo biotech", in Biopolitica. Il nuovo paradigma, SEB 2005 (accessibile in versione full-text all'indirizzo www.biopolitica.it)
  • 16 Il sito ufficiale dell'iniziativa, con relative statistiche, progetti in corso, risultati pubblicati, etc., è accessibile all'indirizzo folding.stanford.edu.
  • 17 Cfr. Oswald Spengler, L'uomo e la macchina, ult. ed. italiana Settimo Sigillo 1989 (versione orig.: Der Mensch und die Technik. Beitrag zu einer Philosophie des Lebens, C.H. Beck Verlag, 1991).
  • 18 Cfr. Konrad Lorenz, L'altra faccia dello specchio. Per una storia naturale della conoscenza, Adelphi 1991.
  • 19 Maria Teresa Pansera, L'uomo e i sentieri della tecnica, Armando Editore 1998.
  • 20 Daniel C. Dennett, La mente e le menti, Rizzoli 2000; ma vedi anche, più indirettamente, L'idea pericolosa di Darwin. L'evoluzione e i significati della vita, Bollati Boringhieri 2004.
  • 21 Roberto Marchesini, Post-Human. Verso nuovi modelli di esistenza, Bollati Boringhieri 2002.
  • 22 Un esempio estremizzato di quest'idea, diffusa soprattutto nell'epoca della prima adozione degli elaboratori elettronici, è rappresentato in un classico del genere steampunk, precisamente La macchina della realtà (Mondadori 1999) di William Gibson e Bruce Sterling, dalla nascita di una "coscienza", il cui primo pensiero è sulla falsariga del cogito ergo sum cartesiano, in un sistema meccanografico a schede perforate in cui viene programmata la dimostrazione del Secondo Teorema di Gödel.
  • 23 Gli zimboes sono "zombies di secondo grado" inventati da Dennett come reductio ad absurdum dell'argomento che l'esistenza concepibile di zombies filosofici, che consistono in automi incoscienti che però si comportano in modo del tutto indistinguibile da esseri umani, dimostrerebbe che la coscienza soggettiva comporta qualcosa di più del suo substrato materiale-comportamentale. Sulla base del fatto che i pensieri stessi sono "comportamenti" in senso lato, che si manifestano tra l'altro nei processi elettrochimici del cervello, gli zimboes oltre ad essere indistinguibili da esseri coscienti pensano loro stessi, per definizione a torto, di appartenere alla categoria. Con il che ovviamente si evidenzia la contraddizione logica insita nell'ipotesi che la coscienza possa essere distinta dai comportamenti cui dà luogo, dato che noi tutti potremmo rientrare nella definizione senza che vi sia modo di falsificare l'ipotesi. Vedi dell'autore "The Unimagined Preposterousness of Zombies", in Journal of Consciousness Studies, vol. 2, no. 4.
  • 24 In quest'ipotesi, un eventuale test non sarebbe certo descrivibile attraverso lo scenario ipotizzato da Turing di un operatore umano che siede ad una telescrivente chattando in tempo reale attraverso la stessa con un interlocutore posto nella stanza a fianco, ma piuttosto attraverso uno scambio epistolare o magari una comunicazione interstellare con un'entità distante un appropriato numero di anni luce, così da rispettare il grado di latenza richiesto dal sistema.
  • 25 Richard Dawkins, Il fenotipo esteso. Il gene come unità di selezione, Zanichelli 1986. La cosa è conforme alla tradizionale intuizione transumanista che considera inscindibili dalla natura del soggetto umano potenziato i potenziamenti dello stesso.
  • 26 Vedi ad esempio il progetto Braingate di cui al sito www.braingate2.org, o studi del tipo di quelli discussi in “Writing Memories with Light-Addressable Reinforcement Circuitry” di Adam Claridge-Chang et al. in Cell, Volume 139, Issue 2, 405-415, 16 Ottobre 2009.
  • 27 Si pensi ad esempio alla quantità di informazioni che è necessario trasferire ad un veicolo per guidarlo nel traffico urbano ad una certa destinazione rispetto alla "compressione" consentita dalla mera richiesta di essere condotti ad un dato indirizzo rivolta ad un sistema in grado di non solo di decidere come un navigatore il percorso, ma di negoziare come un tassista tutte le imprevedibili transazioni necessarie, che pure non comportano nulla nel senso comunemente considerato provincia esclusiva di una "AI forte".
  • 28 Ray Kurzweil, La singolarità è vicina, Apogeo 2008.
  • 29 Cfr. per esempio Global Catastrophic Risks (Oxford University Press 2008), a cura di Milan M. Cirkovic e di Nick Bostrom, pure a suo tempo tra i fondatori della World Transhumanist Association, nell'intervento in particolare di Eliezer Yudkowsky, esponente del Singularity Institute for (o forse, oggi, "against") Artificial Intelligence, il cui sito Web è accessibile all'indirizzo Singinst.org . Il tema degli existential risks, o "x-risks", rischia d'altronde intrinsecamente di assumere toni reazionari, perché dato il rischio di un danno infinito, o almeno infinitamente inaccettabile, quantunque bassa sia la probabilità del suo verificarsi, non esiste limite ai costi che sarebbe "economicamente" razionale affrontare per evitarlo, ivi compreso in vite umane – salvo eventualmente la distribuzione proporzionale delle risorse disponibili sulla base delle rispettive probabilità qualora i rischi di tale tipo siano più di uno; ma in ogni caso senza lasciare alcuna risorsa disponibile per investire, attraverso un rischio, sia pure ovviamente calcolato, in qualcosa di diverso dalla mera sopravvivenza. Prospettiva che richiama direttamente quella del Mondo nuovo di Julian Huxley (Mondadori 2007), ovvero di una stagnazione quanto più perfetta possibile in cambio della migliore speranza di stabilità che ci sia concessa. La cosa è naturalmente aggravata poi dal pregiudizio superstizioso a favore dell'inazione, che anche per i rischi di natura non antropica indica nel dubbio una superiorità morale della scelta che meno incida sullo svolgersi indipendente dei fenomeni, in ossequio ad una visione provvidenzialista più o meno secolarizzata secondo cui a parità di chances l'essenziale è che il danno che abbia comunque a verificarsi non sia di responsabilità umana, non dipenda dal tentativo di prendere in mano il proprio destino. Cfr. per contro il Proactionary Principle su cui sta da tempo scrivendo un libro Max More, il fondatore dell'Extropy Institute, come descritto all'indirizzo www.maxmore.com.
  • 30 Cfr. Isaac Asimov, Io Robot, Mondadori 2003, e le opere successive dello stesso ciclo. La migliore confutazione della stessa coerenza "umanista" del sistema asimoviano è contenuta nel ciclo degli Umanoidi di Jack Williamson, centrato sulla resistenza e progressiva sconfitta degli esseri umani nel resistere al dilagare di androidi che li perseguitano ovunque per applicare appunto "letteralmente", e loro malgrado, le Tre Leggi nella loro interpretazione più ortodossamente asimoviana. Ma persino Asimov stesso ha dimostrato di essere ben consapevole delle contraddizioni del suo sistema nel racconto Che tu te ne prenda cura ("That Thou Art Mindful of Him"). Che tale filone di fiction rifletta ipotesi incoerenti nel comportamento, nell'autonomia e nell'antropomorfismo di quelli che sono a tutti gli effetti zombies, non nel senso filosofico ma... caraibico, è reso più vistoso a contrario dal ciclo dei Berserker di Fred Saberhagen, che specula su una possibile lotta cosmica contro AGI la cui finalità costitutiva è la disinfestazione dell'universo dalla vita biologica, o quanto meno da quella umana, mediante la sua ricerca e distruzione sistematiche. Una versione molto più assurdamente naïf di "androidi cattivi" sono invece gli umani, troppo umani Cylon del mondo di Battlestar Galactica, che si riducono a poco più di una metafora dello "straniero" e dell'"infedele" che minaccia perversamente l'American way of life e la sua egemonia cosmica.
  • 31 Secondo l'esempio piuttosto ridicolo di Nick Bostrom, "Gandhi non avrebbe mai deliberatamente preso una pillola che lo rendesse capace di uccidere altri esseri umani". Ma vedi già ad esempio le facili obiezioni di Hugo de Garis in Hplusmagazine 15/04/2011 a hplusmagazine.com, che pure non si muove in una prospettiva molto diversa.
  • 32 Vedi al riguardo quanto ricordato nel capitolo “OGM e altri mostri” nel mio Biopolitica. Il nuovo paradigma, op. cit.
  • 33 Cfr. Francesco Boco, "La tentazione a-storica", in Divenire. Rassegna di studi interdisciplinari sulla tecnica e il postumano n. 4, Sestante Editore Divenire.org.
  • 34 Vedi il famoso manifesto neoluddita di Bill Joy, “Why the Future Doesn't Need Us”, in Wired, 8.04, Aprile 2000. Oppure, a livello di fiction di larga e larghissima diffusione, Michael Crichton, Preda, Garzanti 2003.
  • 35 Del resto, anche in termini evoluzionistici, al contrario di quanto implicano divulgazioni darwiniane di stampo umanista e "progressista" tuttora diffuse, la selezione non opera essenzialmente tra le specie, se non nel senso che alcune si estinguono ed altre sopravvivono, ma all'interno del pool genetico della singola specie, e perciò con riguardo agli individui, ed eventualmente ai gruppi capaci di agire in modo coordinato, che siano portatori di certi tratti.
  • 36 La "motivazione" resta in particolare relegata alle loro periferiche umane, o in senso più indiretto a "meccanismi", come il Mercato, che rappresentano semplicemente sovrastrutture umane volte ad escludere la decisione politica in senso forte.
  • 37 Per dettagli sulla recente produzione teorica sua, e del Future of Humanity Institute che dirige ad Oxford, vedi il sito www.nickbostrom.com.
  • 38 Ma vedi l'ironico rilievo di Nietzsche in tema di utilitarismo etico citata da Max More in "Il sovrumano nel transumano" in Divenire. Rassegna di studi interdisciplinari sulla tecnica e il postumano n.4, op.cit., secondo cui "La ricerca del piacere non è lo scopo dell'uomo. È lo scopo dell'uomo inglese".
  • 39 Operazione questa che in sé ne negherebbe automaticamente per definizione lo status di enti autonomi e quindi "morali", e perciò la stessa "intelligenza" in senso umano, come ben illustra la stessa filosofia morale cattolica relativamente alle utopie, o distopie, che prevedono una ipotetica riduzione degli stessi individui biologici ad automi programmati per fare soltanto il "bene".
  • 40 Naturalmente, il superamento in questo del paradigma umanista, il cui dispiegarsi storico e logico in campo etico-giuridico ho affrontato in Indagine sui diritti dell'uomo. Genealogia di una morale, LEdE 1985 (oggi online a www.dirittidelluomo.org ) liquida anche la questione su cui alcuni si affaticano anche in ambienti transumanisti, dei "diritti dei robot". Al di fuori di un contesto ideologico giusnaturalista, infatti, la possibile imputazione di posizioni giuridiche non dipende affatto da analisi "essenzialiste" sul relativo titolare, ma dichiaratamente da una pura convenzione, quali quelle che definiscono lo status di cittadino o meno all'interno di un singolo ordinamento statale, o – come nota J. Storrs Hall in Beyond AI: Creating the Conscience of the Machine, Prometheus Books 2007 –, quelle già applicabili a cose assolutamente quotidiane come le società di capitali, per non parlare della capacità giuridica diversamente attribuita dai vari sistemi giuridici agli embrioni, agli schiavi, alle fondazioni, agli enti pubblici o persino ai nascituri non ancora concepiti (cfr. art. 462 del codice civile italiano), e domani in Spagna, ove abbia successo il progetto di legge di Zapatero basato sul Progetto Grandi Scimmie Antropomorfe (www.greatapeproject.org), a scimpanzé, bonobo, gorilla e oranghi, sul modello applicato in altri paesi ai minori ed agli altri esseri umani affetti da incapacità naturale. Altre questioni, per il momento teoriche, inerenti l'emulazione di personalità umane su sistemi diversi, e che parimenti nulla richiede siano risolte in termini "essenzialisti" e universali di valenza molto dubbia, sono quelle che riguardano l'estinzione e la successione dei soggetti giuridici tradizionalmente definiti "persone fisiche".
  • 41 Friedrich Nietzsche, La volontà di potenza, aforismi 280 e 302.
  • 42 Cosa d'altronde che rischia in effetti di prodursi, salvo una progressiva perdita della gamma di diversità intraspecifiche, come conseguenza della possibile evoluzione del nostro mondo nella direzione appunto delineata dalla globalizzazione di un Brave New World sclerotizzato che mettendo tutte le uova in un unico paniere è destinato comunque a trovarsi più esposto all'usura del tempo di un panorama umano, o postumano, maggiormente articolato e plurale.
  • 43 Vedi ad esempio David Barash, Geni in famiglia, Bompiani 1980, o Yves Christen, L'ora della sociobiologia, Armando Editore 1980.
  • 44 Come quello manifestato nell'ultima parte di Accelerando di Charles Stross, Armenia 2007, un confuso zibaldone narrativo di tematiche transumaniste al cui termine gli esseri umani restanti, pur "potenziati" e non restii a farsi uploadare in... stormi d'uccelli, combattono e fuggono la Vile Progenie, termine dispregiativo per indicare le intelligenze "debolmente divine", che dominano ormai la parte interna del sistema solare in via di progressiva ristrutturazione, e che per raggiungere l'efficienza necessaria a competere nell'Economia 2.0 si sarebbero "ridotte" a "puri meccanismi" – ovvero in realtà hanno acceduto ad un livello postumano inattingibile e incomprensibile per chi non sia disposto a seguirle sulla medesima strada quanto le culture umane ad un australopiteco.
  • 45 Hans Moravec, Mind Children: The Future of Robot and Human Intelligence, Harvard University Press 1990.
  • 46 Filippo Tommaso Marinetti, Mafarka il futurista, ult. ed. Mondadori 2003. Anzi, nella parabola futurista messa in scena dal romanzo Mafarka raggiunge definitivamente lo stadio del superuomo solo attraverso la sua decisione di creare Gazurmah come frutto "puro" della sua volontà, e attraverso il gesto finale con cui gli infonde la vita.
  • 47 Vedi ad esempio Jeremy Rifkin e Ted Howard, Giocare alla divinità, Feltrinelli 1980, oppure Bill McKibben, Enough: Staying Human in an Engineered Age, Owl Books 2004.

Contatto progettista

Puoi contattare la progettista del sito compilando questo modulo (tutti i campi sono necessari)