Attenzione: nel tuo browser javascript è disattivato!
I contenuti di questo sito restano disponibili, ma con javascript la tua esperienza sarà molto migliore.
Segui le istruzioni per attivare javascript nei browser desktop e mobile e poi ricarica questa pagina.

Divenire

Rassegna di studi interdisciplinari sulla tecnica e sul postumano

LA RIVISTA

Presentazione

Divenire è il titolo di una serie di volumi incentrati sull'interazione tra lo sviluppo vertiginoso della tecnica e l'evoluzione biologica dell'uomo e delle altre specie, ovvero votati allo studio dei rapporti tra la tecnosfera e la biosfera. Gli autori, provenienti da diverse aree disciplinari e orientamenti ideologici, sviluppano la propria analisi con occhio attento al probabile esito finale di queste mutazioni casuali o pianificate: il postumano. Sono dunque studi che sul piano temporale spaziano nel presente, nel passato e nel futuro, mentre sul piano della prospettiva disciplinare sono aperti a idee e metodi provenienti da diverse aree di ricerca, che vanno dalle scienze sociali alle scienze naturali, dalla filosofia all'ingegneria, dal diritto alla critica letteraria.

Ogni volume ha quattro sezioni. In Attualità compaiono studi attinenti a problematiche metatecniche del presente. Genealogia è dedicata a studi storici sui precursori delle attuali tendenze transumanistiche, futuristiche, prometeiche — dunque al passato della metatecnica. In Futurologia trovano spazio esplorazioni ipotetiche del futuro, da parte di futurologi e scrittori di fantascienza. Libreria è dedicata ad analisi critiche di libri su tecnoscienza, postumano, transumanesimo.
I volumi pubblicati finora (ora tutti leggibili in questo sito):

  1. D1. Bioetica e tecnica
  2. D2. Transumanismo e società
  3. D3. Speciale futurismo
  4. D4. Il superamento dell'umanismo
  5. D5. Intelligenza artificiale e robotica

Divenire 5 (2012) è interamente dedicato all'Intelligenza Artificiale (IA).

Intelligenze artificiose (Stefano Vaj) sostiene che il tema dell'automa (esecuzione di programmi antropomorfi o zoomorfi su piattaforma diversa da un cervello biologico) resta tuttora circondato da un vasto alone di misticismo: quando non viene negata in linea di principio la fattibilità dell'IA, ne viene esagerata escatologicamente la portata. (english version)

La maschera dell'intelligenza artificiale (Salvatore Rampone) indaga gli equivoci concettuali sottostanti alla domanda se una macchina abbia intelligenza o possa pensare e spiega perché l'IA debba nascondersi sotto la maschera del Soft computing.

Il problema filosofico dell'IA forte e le prospettive future (Domenico Dodaro) Analizza il tema della coscienza  semantica mettendo in luce i suoi  aspetti corporei e considera la possibilità di implementarli in sistemi artificiali. Sono valutati sia i limiti tecnologici e computazionali della riproduzione artificiale della coscienza (intesa come una facoltà del vivente) sia i programmi di ricerca più fecondi al fine di arginarli.

Cervelli artificiali? (Emanuele Ratti) espone il progetto di ricerca forse più ardito nel campo dell'IA che emula funzioni e organi biologici: il cervello artificiale di Hugo de Garis, introducendo concetti chiave di questo settore disciplinare come rete neurale e algoritmo genetico.

>

Presentazione

Automi e lavoratori. Per una sociologia dell'intelligenza artificiale (Riccardo Campa) sposta l'attenzione sull'impatto economico e sociale della computerizzazione e della robotizzazione. Quali effetti sull'occupazione e quali correttivi per massimizzare i benefici e minimizzare gli effetti indesiderati? Proiettando il tema nel futuro, vengono analizzati i possibili scenari, in dipendenza di diverse politiche (o non-politiche) dello sviluppo tecnologico.

Il nostro cervello cinese (Danilo Campanella) riporta l'origine dei calcolatori moderni all'antica Cina. Utilizzando matematica, teologia e misticismo, i cinesi elaborarono i primi rudimenti del linguaggio binario, poi rubato dagli occidentali.

Alan Turing: uno spirito transumanista (Domenico Dodaro) Sono esposte le ragioni per cui Turing può essere definito un pensatore transumanista. Il matematico inglese è in genere descritto solo come padre dell'IA tradizionalmente intesa. L'analisi dell'autore dimostra invece la sua vicinanza ai temi delle "nuove scienze cognitive" e della computazione complessa (o ipercomputazione).

Passato, presente e futuro dell'Intelligenza Artificiale (Bruno Lenzi). L'articolo mostra, su un arco temporale molto ampio, fallimenti, riuscite, pericoli e scoperte delle scienze cognitive, sottolineando che l'IA non è questione solo tecnico-scientifica, racchiude germogli e frutti maturi in ogni area del sapere, e potrebbe essere molto diversa dall'intelligenza umana.

Post-embodied AI (Ben Goertzel). L'autore, uno dei principali sostenitori dell'AI forte, analizza la questione filosofica dell'embodiment: una intelligenza artificiale forte (capace di risolvere problemi in domini nuovi, di comunicare spontaneamente, di elaborare strategie nuove) deve necessariamente avere un body?

Nanotecnologia: dalla materia alle macchine pensanti (Ugo Spezza) spiega questo ramo della scienza applicata che progetta nanomacchine e nanomateriali in molteplici settori di ricerca: biologia molecolare, chimica, meccanica, elettronica ed informatica. L'articolo presenta le applicazioni già esistenti e le fantastiche potenzialità progettuali, dai nanobot per il settore medico ai neuroni artificiali.

Verso l'Intelligenza artificiale generale (Gabriele Rossi) introduce la Matematica dei Modelli di Riferimento degli iLabs ed esplora i potenziali vantaggi di questa prospettiva alla luce di alcune questioni teoriche di fondo che pervadono tutta la storia della disciplina.

Ich bin ein Singularitarian (Giuseppe Vatinno) è una recensione di La singolarità è vicina di Ray Kurzweil.

NUMERI DELLA RIVISTA

Divenire 1. Bioetica e tecnica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 2. Transumanismo e società

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 3. Speciale futurismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 4. Il superamento dell'umanismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 5. Intelligenza artificiale e robotica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

RICERCHE

1

2

3

4

CHI SIAMO

Comitato scientifico

Riccardo Campa
Docente di metodologia delle scienze sociali all'Università Jagiellonica di Cracovia
Patrizia Cioffi
Docente di neurochirurgia all'Università di Firenze
Amara Graps
Ricercatrice di astronomia all'Istituto di Fisica dello Spazio Interplanetario
James Hughes
Docente di sociologia medica al Trinity College del Connecticut
Giuseppe Lucchini
Docente di statistica medica all'Università di Brescia
Alberto Masala
Ricercatore di filosofia all'Università La Sorbonne (Paris IV)
Giulio Prisco
Vice-presidente della World Transhumanist Association
Salvatore Rampone
Docente di Sistemi di elaborazione delle informazioni all'Università degli studi del Sannio
Stefan Lorenz Sorgner
Docente di filosofia all'Università di Erfurt
Stefano Sutti
Docente di diritto delle nuove tecnologie all'Università di Padova
Natasha Vita-More
Fondatrice e direttrice del Transhumanist Arts & Culture H+ Labs

Ait

L'AIT (Associazione Italiana Transumanisti) è un'organizzazione senza scopo di lucro con la missione di promuovere, in ambito culturale, sociale e politico, le tecnologie di potenziamento dell'essere umano.

Fondata nel 2004, è stata formalizzata mediante atto pubblico nel 2006 ed ha avviato le pratiche per ottenere il riconoscimento.

Sede legale AIT: via Montenapoleone 8, 20121 Milano

Sito internet AIT: www.transumanisti.it (>)

Pubblica questa rivista: Divenire. Rassegna di studi interdisciplinari sulla tecnica e il postumano

Curatore: Riccardo Campa

Segretaria di redazione: Nicoletta Barbaglia

Art director: Emmanuele Pilia (>)

Gruppo di Divenire su Facebook: (>)

Contatti

Puoi contattare la Redazione di Divenire compilando questo modulo (tutti i campi sono necessari)

Nanotecnologia: dalla materia alle macchine pensanti

Autore: Ugo Spezza

da: Divenire 5, Futurologia () | pdf | stampa

Anno 1979. Esce nei cinema Star Trek: The motion Picture, costato 35 milioni di dollari, il triplo di Guerre Stellari. Il capitano James Kirk (William Shatner) si trova stavolta di fronte una immensa astronave-macchina con la quale non si riesce a comunicare. La sua astronave Enterprise muove verso l'invasore il quale, nella sua rotta verso la terra, fa a brandelli ogni avamposto e stazione spaziale che trova sulla sua strada. Nessuna arma è efficace a fermarla. La bellissima tenente Ilia viene catturata dalla astronave-macchina per essere studiata e viene poi rimandata indietro sulla Enterprise. Quella che torna indietro è però in realtà solo un magnifico androide, identico in tutto e per tutto il corpo umano della donna. Il dottor McCoy sottopone a una bio-scansione il simulacro e con meraviglia pronuncia queste parole: «Idraulica in microminatura, sensori, scaglie multi-processate formato molecola, micropompe osmotiche... Ogni funzione del corpo umano è perfettamente riprodotta, persino l'umidità dell'occhio».

Questo è il primo esempio di come la fantascienza consideri la realizzabilità di un corpo umano totalmente ricostruito con la Nanotecnologia. La consulenza del grande scienziato/scrittore Isaac Asimov nella realizzazione della sceneggiatura produce uno dei film di fantascienza più belli dell'epoca. Una trama che fa del mistero il suo cardine, corredata da una computer-grafica che a tutt'oggi è da ritenere strabiliante. Ma cos'è in realtà la Nanotecnologia? C'è la effettiva possibilità che si realizzi in futuro? A dare una risposta ai prodromi anticipatori degli autori di fantascienza ci pensò sette anni più tardi Kim Eric Drexler col suo libro Motori di Creazione, uscito nel 1986, nel quale lo scienziato, ricercatore presso l'Institure for Molecular Manufacturing, spiega che entro alcuni decenni l'uomo sarà in grado di manipolare la materia a livello molecolare e atomico. Questo testo generò uno dei più vasti dibattiti nella comunità scientifica internazionale per le opportunità e per i pericoli che questa nuova branca della scienza andava a delineare. Ma che cosa sarebbe possibile realizzare attraverso la nanotecnologia? Ce lo dice lo stesso autore del libro: 1

Per prima cosa, potremmo fabbricare macchine assemblatrici persino molto più piccole delle cellule viventi, e fabbricare materiali più forti e più leggeri di qualsiasi altro materiale attualmente disponibile. Quindi, migliori navette spaziali. Quindi, minuscoli dispositivi che possano viaggiare lungo i capillari per entrare nelle cellule viventi e ripararle. Quindi, la capacità di curare le malattie, invertire le devastazioni dell'età e rendere i nostri corpi più veloci o più forti di prima. E potremmo anche fabbricare macchine tanto piccole da avere la dimensione di un virus, macchine che lavorerebbero a velocità che nessuno di noi può ancora pienamente apprezzare. E a quel punto, una volta che avremmo imparato come fare tutto questo, potremmo avere la possibilità di assemblare questa miriade di minuscole parti in macchine intelligenti (computer) basate, forse, sull'impiego di migliaia di miliardi di nanoscopici dispositivi che elaborino in parallelo e che producano descrizioni, le confrontino con degli schemi precedentemente memorizzati, ed utilizzino le memorie di tutti i loro precedenti esperimenti. Per cui queste nuove tecnologie potrebbero cambiare non soltanto i materiali che usiamo per modellare il nostro ambiente fisico, ma anche le attività che potremmo essere in grado di perseguire all'interno di qualsiasi tipo di mondo che costruiremo.

In altre parole, con un simile strumento nelle mani, l'uomo potrebbe adire a diventare un essere semi-divino. Pensate a nanobot che penetrano nel corpo di un malato di cancro attraverso il sangue e vanno a distruggere selettivamente le cellule cancerose lasciando intatte le altre. Oppure alla possibilità di ricostruire un cuore del tutto simile a quello biologico, ma assemblato in stampa 3D in "microminiatura" (per usare le parole del dott. McCoy), che vada a sostituire l'organo malato ridonando diversi decenni di vita a un post-infartuato. Ma andando oltre le nanosonde potrebbero creare un nuovo sistema ricostruttivo che potrebbe rigenerare tutti gli organi, liberandoci da quello spaventoso morbo denominato "invecchiamento cellulare" che funesta gli ultimi venti anni della nostra breve vita. Non solo; i nano-assemblatori potrebbero produrre cibo da materiale inorganico spazzando via per sempre il problema della fame nel mondo.

L'uomo, elevatosi prometeicamente a "Creatore", attraverso la Nanotecnologia, applicata in particolare alla produzione di microprocessori assemblati a livello molecolare, potrebbe creare macchine intelligenti in grado di emulare l'intelligenza umana in un primo tempo e di superarla poi, quando esse entreranno in una fase diacronica di auto-evoluzione. Stiamo qui parlando di Intelligenza Artificiale Avanzata (altrimenti detta "forte" o "generale") ovvero di macchine intelligenti e dotate di coscienza di sé; in grado di percepire il proprio "io", la propria esistenza distinta da quella dell'ambiente circostante e dalle altre intelligenze. Esseri artificiali in grado, in definitiva, di "interagire" col mondo. Qualcosa che è lontano anni luce dalle attuali I.A. basate su intelligenza artificiale "debole" (o "ristretta") le quali possono giocare a scacchi o manovrare macchinari complessi ma non possono fare altro che non sia scritto nel codice, pur ricorsivo, inserito nei loro simil-cervelli da un programmatore umano.

Una corretta definizione del termine "Nanotecnologia"

Effettivamente, se ci si pensa, siamo già oggi in grado di miniaturizzare tecnologicamente molti prodotti e ridurli a dimensioni microscopiche. Si pensi ad esempio ai microchip degli attuali computer. Un piccolo microchip odierno, che possiamo tenere sulla punta del nostro dito indice, contiene più transistor di un supercomputer degli anni 50, che occupava lo spazio di una vasta stanza. E non solo, il microchip odierno consuma solo pochi watt mentre il suo predecessore (l'Eniac ad esempio) necessitava di una mini-centrale elettrica per poter essere alimentato. Siamo quindi di fronte ad un fattore di miniaturizzazione elevatissimo. Eppure Eric Drexler ci dice che questa non è Nanotecnologia:

La nostra tecnologia moderna è fondata su una tradizione antica. Trentamila anni fa, scheggiare la selce era l'alta tecnologia dell'epoca. I nostri antenati, per costruire le loro teste d'ascia, afferravano pietre contenenti milioni di miliardi di miliardi di atomi e ne rimuovevano schegge contenenti migliaia di miliardi di miliardi di atomi; sapevano svolgere un lavoro raffinato con abilità che oggi sono difficili da imitare. Essi disegnarono anche degli schizzi, spruzzando tinture sulle pareti di caverne della Francia ed usando le loro mani come stampini. In seguito fabbricarono vasi cuocendo argilla e poi bronzo cuocendo le rocce. Modellarono il bronzo martellandolo. Produssero ferro e poi acciaio, e scaldandolo, battendolo e rimuovendone le schegge, modellarono anch'esso. Oggi possiamo cuocere ceramiche purissime e acciai più forti, ma ancora li modelliamo martellandoli, scheggiandoli, ecc.... Cuociamo del silicio puro, lo tagliamo in fette e tracciamo degli schemi sulla sua superficie utilizzando minuscoli stampi e sprazzi di luce. Chiamiamo questi prodotti "chips" e li consideriamo squisitamente piccoli, almeno al confronto delle teste d'ascia. La nostra tecnologia microelettronica ha manipolato la materia fino a comprimere, su pochi chip di silicio e all'interno di computer di dimensioni tascabili, macchine altrettanto potenti di quei computer dei primi anni cinquanta che occupavano una intera stanza. Gli ingegneri stanno oramai realizzando dispositivi persino più piccoli, fissando gruppi di atomi ad una superficie cristallina per formare cablaggi e componenti di spessore dieci volte più sottili di quelli di un fine capello. Questi microcircuiti potranno anche essere piccoli a confronto con la selce scheggiata, ma ogni transistor consiste ancora di migliaia di miliardi di atomi ed i cosiddetti "microcomputer" sono ancora visibili ad occhio nudo. Giudicati secondo gli standard di una tecnologia più moderna e potente, in futuro ci sembreranno giganteschi. L'antico stile della tecnologia che ci ha condotto dalla selce scheggiata ai chip di silicio manipola atomi e molecole in massa; chiamiamola "tecnologia di mole". La nuova tecnologia manipolerà atomi e molecole individualmente, con un controllo e una precisione posizionali; chiamiamola "tecnologia molecolare". Essa cambierà il nostro intero mondo in più modi di quanti ne possiamo immaginare. I microcircuiti sono formati da parti costituenti che sono misurabili in micrometri ossia in milionesimi di metro; ma le molecole si misurano in nanometri (mille volte più piccole). Per descrivere il nuovo stile di tecnologia possiamo usare i termini “Nanotecnologia” o “Tecnologia molecolare” in modo intercambiabile. Gli ingegneri della nuova tecnologia costruiranno nanocircuiti, e anche nanomacchine. 2

Dunque sembra esserci ancora un fattore 1.000 che distanzia la nostra attuale tecnologia costruttiva dalla Nanotecnologia. Drexler ci dice che in effetti la "Tecnologia di Mole" che usiamo ancora oggi non si differenzia (almeno nei principi) da quella dei nostri antenati che scheggiavano selci. Possiamo quindi definire le nanotecnologie come quel ramo della scienza applicata e della tecnologia e si occupano del controllo della materia su scala dimensionale inferiore al micrometro (un milionesimo di metro), normalmente tra 1 e 100 nanometri, e della progettazione e realizzazione di dispositivi in tale scala.

Nanomacchine autoassemblanti e Vita artificiale

Alla fine degli anni '60 del secolo scorso la maggior parte dei genetisti, seguendo le teorie del biologo Garred Hardin, dichiararono l'impossibilità realizzativa della ingegneria genetica. Oggi invece, come tutti sappiamo, l'ingegneria genetica è un'industria che fattura miliardi di dollari all'anno. Micromacchine autoreplicanti non sono, come si potrebbe pensare, entità del regno della fantascienza, ma esistono veramente. La natura ci rende partecipi di alcune di esse; ad esempio i Fagi. Un Fago è un particolare virus in grado di attaccare un particolare batterio. Dopo essere penetrato nel batterio il virus del Fago "ordina" al batterio di replicare il suo DNA invece di quello nativo. Ecco quindi che il batterio viene trasformato in una catena di assemblaggio che fabbrica Fagi; terminata la lisi (disgregazione) del batterio la membrana cellulare si rompe e decine di Fagi fuoriescono alla ricerca di altri batteri da infettare. Un medicinale basato su un Fago, detto Batteriofago, è in grado di eliminare “selettivamente” un particolare batterio, senza rischi per il resto dell'organismo.

Data la recente inabilitazione dei più potenti antibiotici a seguito della diffusione di batteri multiresistenti sta tornando oggi in auge la ricerca sui batteriofagi. A Tiblisi, in Georgia sono stati condotti studi su ampie fette di popolazione ed è stata dimostrata l'efficacia dei batteriofagi sui batteri più difficili da estirpare: Staffilococcus, Streptococcus, Proteus, P.Aeruginosa, Clostridi, E.Coli, Enterococcus, Klebsiella, Acinotobacter, Salmonelle, Shigella, Vibrio Colere e molti altri con effetti collaterali sull‟organismo poco rilevanti. Inoltre, attraverso l'uso di un batteriofago, si inabilità la formazione di batteri resistenti in quanto ogni batterio, per il quale il fago è predisposto, è attaccato selettivamente e vengono quindi distrutti tutti. Contrariamente a quanto accade con l'uso dell'antibiotico, che di fatto opera come una sorta di insetticida D.D.T. attaccando qualsiasi batterio e selezionando così naturalmente quelli più resistenti. Ed è proprio questo il motivo per cui più il tempo passa più i batteri divengono letali. Dimostrazione lampante, quest'ultima, della realtà della selezione naturale darwiniana.

I Fagi sono pertanto oggi ritenuti delle "nanomacchine naturali", sono efficienti e selettivi. Chi ci impedisce allora di pensare che tra qualche decennio potremo avere nanomacchine simili ai Fagi e personalizzate per la nostra specifica malattia? Nell'ottobre 2007 lo scienziato Neil Fairwether della Società di Microbiologia Generale (GB) ha isolato la sostanza che compone l'involucro proteico del batterio Clostridium-difficile il quale, come dice il nome, è uno dei batteri più difficili da eradicare e tra le prime fonti di grave infezione intestinale ospedaliera. Ebbene, tale membrana, composta da una particolare catena proteica, si auto-riassembla in provetta secondo un particolare ordine geometrico. Tale membrana è quindi oggi oggetto di studio per cercare di capire come realizzare proteine artificiali auto-assemblanti 3 .

Le proteine e gli enzimi sono infatti esempi cangianti di nanomacchine naturali: esse si auto-assemblano a partire dai loro costituenti (amminoacidi) all'interno della cellula stessa sulla base di un progetto scritto all‟interno del DNA (il genoma). Tali procedure di assemblaggio sono frutto di 3,5 miliardi di anni di evoluzione naturale e la loro replicazione in laboratorio non è semplice, pertanto un approccio intelligente è quello di cercare di emulare la Natura, prima osservandone le funzioni a livello nano-metrico, poi tentando di replicare le stesse; entriamo qui nel campo della "nano-bio-tecnologia". Essa tenta di costruire nano-dispositivi artificiali che mimano le funzioni delle proteine o usano le proteine stesse in un contesto anche non biologico; infine si mira a costruire dispositivi in parte biologici e in parte artificiali per interagire con la materia vivente. Più di recente (Giugno 2010) lo scienziato Kennett J. Shea di un gruppo di lavoro congiunto nippo-statunitense (University of California) ha presentato un un polimero sintetico di nanoparticelle in grado di funzionare come un anticorpo in un organismo vivente e di catturare e neutralizzare una tossina peptide. Shea e la sua squadra hanno precedentemente preparato polimeri sintetici in grado di riconoscere e legarsi ad un'altra molecola e di selezionare nel flusso sanguigno le molecole bersaglio distinguendole da quelle standard (proteine, peptidi, cellule, ecc.) e nello stesso tempo evitando che le nanoparticelle vengano attaccate dal sistema immunitario dell'organismo ospite. Per fabbricare i loro anticorpi di "plastica", il team ha utilizzato un approccio chiamato "imprinting molecolare", un processo che copia l'impronta di particolari molecole (effetto cemento bagnato), in questo caso il melittin (il componente attivo del veleno d'api). Da qui è stata realizzata una soluzione di monomero che ha poi iniziato una reazione chimica che lega questi blocchi in lunghe catene, e li fa solidificare. L'esperimento condotto sui topi è stato in grado di debellare una potente tossina in buona parte delle cavie, infine l'anticorpo artificiale è stato eliminato dal fegato. Queste innovazioni tra alcuni lustri potrebbero condurre alla nascita della nano-medicina, in grado di diagnosticare e curare malattie in maniera selettiva e non-invasiva. In un futuro non troppo lontano potremmo avere a disposizione nano-macchine che, iniettate nel flusso sanguigno, saranno in grado di esplorare l'organismo alla ricerca delle cellule cancerose e distruggerle senza danneggiare quelle sane come avviene con le odierne tecniche invasive (chemioterapia e radiazioni). Alcune proto- nano-macchine, esistono già, ad esempio molecole segnalatrici fluorescenti e molecole vettore in grado di portare all'interno della cellula sostanze medicinali. Certo questi studi sono ancora allo stadio larvale ma tra essi appare interessante la ricerca di un team del California Institute of Technology di Pasadena che ha utilizzato la nanotecnologia per creare piccoli robot polimerici coperti con una proteina (transferrina) che si lega ad un recettore su molti tipi di tumori. Una volta che le particelle trovano la cellula tumorale e riescono, attraverso un sensore chimico nanotecnologico, ad entrare all'interno, si spezzano, rilasciando piccoli pezzi di RNA che bloccano un gene che produce una proteina (ribonucleotide reduttasi) che causa la crescita del tumore. Tali ricerche sono seguite da grandi multinazionali quali Roche, Pfizer, Novartis e altre.

Verso la Intelligenza Artificiale Avanzata

Uno dei problemi degli attuali computer è che essi sono "stupidi" ovvero ragionano solo attraverso un programma pre-compilato da un programmatore umano che viene inserito e fatto "girare" nella loro memoria. Anche usando algoritmi ricorsivi e grandi basi di dati che il computer può integrare con nuove informazioni il gap tra i moderni elaboratori e il cervello umano resta evidente: essi sono intelligenti solo in particolari campi "ristretti" della conoscenza. Attraverso la nanotecnologia si potrebbero produrre livelli di miniaturizzazione dei transistor che compongono i microprocessori e le memorie dei computer a tal punto che sarà possibile ottenere elaboratori a prestazioni elevatissime. Attualmente il limite di 50 micrometri per la miniaturizzazione (per via litografica) dei componenti sul silicio è difficilmente valicabile. Difatti Intel, Amd e altre società che producono microprocessori sono passate a produrre processori "multi core" formati da 2, 4 o 8 cpu sullo stesso chip di silicio invece che tentare di miniaturizzare ulteriormente. Con un assemblatore nanotecnologico potrebbero invece essere prodotti microprocessori piccolissimi, che consumano una quantità irrisoria di energia elettrica rispetto agli attuali e per di più capaci di un tale parallelismo di calcolo che permetterebbe di avere 1.000 TeraFlops su un dispositivo della grandezza di un palmare.

Alcuni però obiettano che non è detto che con l'aumento della velocità di calcolo si otterrà l'intelligenza artificiale avanzata. Chi scrive sposa questo ragionamento e ritiene che quello della I.A. Avanzata (o forte) sia più un problema di "algoritmo" che di bruta forza di calcolo. Né è un esempio il recente e gigantesco elaboratore Ibm Roadrunner. Esso elargisce ben 1.105 TeraFlops. Ma con quale sistema operativo funziona? Linux! Già; lo stesso Linux che gira sui nostri notebook! E' chiaro quindi che il problema riguarda in primis il sistema operativo ed è conosciuto in ambito I.A. come il Problema del software. In altre parole il software che interfaccia la macchina all'ambiente esterno è di estrema complessità, oggi esso è programmato da un team di cervelli umani, e questo metodo non può che produrre una programmazione limitata nelle funzioni e piena di errori che vanno corretti con costanti aggiornamenti.

Allora come si potrebbe risolvere il problema? Le metodologie sono tre:

  1. produrre un simulacro perfetto del cervello umano realizzato in scala nanotecnologica
  2. realizzare un computer organico
  3. simulare via software strutture fisiche del cervello umano

Se per il primo si evidenziano enormi problemi realizzativi, ad esempio come emulare neuroni, sinapsi e miliardi di connessioni con nanochip e nanomemorie, sul secondo vi sono già sperimentazioni che potrebbero aprire la strada ai computer organici. Nella serie Star Trek Vojager l'astronave omonima era dotata di un computer organico, più potente e versatile di quelli basati su silicio. Fantascienza certo; però vi sono oggi ricerche che puntano in questa direzione come quella della equipe di informatici e biologi del Georgia Institute of Technology. Il team, guidato da Bill Ditto, cerca di realizzare una macchina che funziona con i neuroni. Le cellule nervose scelte per l'esperimento sono state prelevate dalle sanguisughe, quindi collegate in parallelo e stimolate elettricamente. La macchina organica, priva di qualunque supporto di memoria digitale, sorprendentemente è stata capace di addizionare alcuni numeri. Forse tra qualche anno il computer-sanguisuga potrebbe eguagliare la potenza di un moderno ma soprattutto essere “intelligente” dato che i neuroni delle sanguisughe, inseriti in una specie di chip, sono riusciti a costruire sinapsi, e quindi una rudimentale comunicazione tra cellule. I computer organici, rispetto a quelli completamente artificiali, potrebbero dunque realizzare macchine intelligenti data la loro capacità evolutiva e quella di formare autonomamente nuove connessioni, parcellizzando il calcolo e creando sistemi computazionali distribuiti. Lo stesso Drexler ipotizza l'uso delle proteine manipolate da assemblatori nanotecnologici per realizzare "transistor molecolari". Riguardo infine alla terza possibilità, quella della emulazione, va segnalato il grande sforzo in questo settore del gigante IBM che ha annunciato di recente (Luglio 2011) di aver prodotto due chip sperimentali in grado di simulare percezione, azione e apprendimento del cervello umano. Mediante sofisticati circuiti in silicio e relativi algoritmi, i due chip a "elaborazione neurosinaptica" riescono a riprodurre i fenomeni di interscambio di informazioni tra un neurone e l'altro rendendo possibile l'apprendimento, la percezione e l'azione. IBM pianifica quindi di realizzare veri e propri "computer cognitivi" 4 , che cioè non avranno più bisogno di essere programmati, ma apprenderanno da soli. Va menzionato però che i due chip attualmente riescono a emulare solo poche centinaia di neuroni e qualche decina di migliaia di sinapsi. Ancora troppo poco rispetto ai 100 miliardi di neuroni del nostro cervello.

Industria, Ambiente ed Energie alternative

Le nanotecnologie possono anche trovare applicazioni nel campo energie alternative. Gli attuali pannelli solari hanno una efficienza energetica di solo il 17% (meno di una parte su cinque di energia ricevuta è convertita in energia elettrica). Esistono però progetti mirati alla costruzione di pannelli ad alta efficienza che cercano di mimare il modo in cui le piante riescono a sfruttare l'energia solare. Il futurologo Ray Kurzweil afferma che è inutile oggi costruire altre centrali nucleari a fissione perché tra un paio di decenni al massimo avremo il "solare nanotecnologico". Aumentare l'efficienza dei pannelli solari e diminuirne i costi produttivi è un obbligo per le future generazioni. Una ricerca prevede l'uso del silicio policristallino, un materiale fotovoltaico nobile, senza i limiti di efficienza del silicio tradizionale. Esso si presta a una strategia multistrato, capace di catturare la maggior parte delle frequenze della luce solare, e non soltanto una frazione come avviene oggi sulle celle solari attuali.

Le ricerche puntano su nanostrutture dentro il silicio policristallino in grado di creare "punti quantici", ovvero aree di confinamento quantistico degli elettroni a diverse frequenze, capaci di dare una risposta energetica a misura delle diverse frequenze luminose. Un altro settore di ricerca sono le nanoantenne a energia solare: strutture a forma di spirale collocate all'interno di polietilene. Mentre le celle solari tradizionali utilizzano la luce solare visibile per trarre energia, le nanoantenne traggono la loro energia dalle radiazioni nel medio infrarosso. In pratica, utilizzano la radiazione riflessa o accumulata dalla Terra durante il giorno sotto forma di calore. Questa caratteristica rende operative le nanoantenne sia di giorno che nelle prime ore della notte, quando il calore permea ancora la superficie terrestre. Altre applicazioni sono nel campo della prevenzione dell'inquinamento: è possibile immaginare ad esempio filtri "intelligenti" che agiscano a livello nanometrico selezionando e magari rendendo innocue le scorie dei processi industriali o i gas di scarico delle automobili. Potrebbero essere creati nanorobot capaci di digerire immondizia e riconvertirla in materiali inerti o persino in carburanti.

Non meno importanti sono le innovazioni che la nanotecnologia sta portando nell'industria. Nel tessile ad esempio la modifica delle superfici permette gia oggi di ottenere filati e tessuti con elevate prestazioni meccaniche e maggiore leggerezza. Il materiale NanoTex è ad esempio traspirante, idrorepellente, anti-fungino, anti-macchia, anti-piega, e con resistenza e durata superiore a un normale tessuto di cotone/sintetico.

Nell'edilizia si stanno realizzando materiali cementizi autopulenti e resistenti alla ruggine senza bisogno di cromature. Le nanoparticelle di elementi naturali, quali ceramica, vetro, diamante ed argento, contenute in alcuni nuovi prodotti, fanno sì che le superfici trattate diventino più durature e inattaccabili da acqua, oli, sporco e germi. Un'impresa britannica sta introducendo nanoparticelle nelle vernici. Questi prodotti sono autopulenti e permettono di rimuovere le particelle inquinanti dall'atmosfera. La "ecopittura" è volta a ridurre i livelli di ossidi di azoto, che provocano problemi respiratori e smog. La base della vernice è il polisilossano, un polimero a base di silicio e al suo interno sono contenute nanoparticelle sferiche di biossido di titanio.

Pericoli: i Motori di distruzione

Il futurologo Ian Pearson prevede la fine della civiltà umana tra il 2085 e il 2095 5 . Causa? La Nanotecnologia! Il ricercatore della Sun Microsystem Bill Joy prevede che un microbo artificiale prodotto da assemblatori nanotecnologici possa sfuggire al nostro controllo replicandosi indefinitamente sul pianeta: stiamo parlando del cosidetto Grey-Goo (poltiglia grigia). Lo stesso Eric Drexler ci spiega come ciò possa avvenire:

I primi computer transistorizzati vinsero ben presto la sfida contro i più avanzati fra i computer a valvole, perché erano basati su dispositivi tecnicamente superiori. Per la stessa ragione anche i più rozzi fra i primi replicatori basati sugli assemblatori nanotecnologici potranno vincere sui più avanzati organismi moderni. "Piante" [nanotecnologiche] con "foglie" non più efficienti delle odierne celle solari potranno adeguatamente competere con le piante reali, affollando la biosfera di un immangiabile fogliame. "Batteri" [nanotecnologici] resistenti ed onnivori potrebbero competere nell'ambiente contro batteri reali: essi potrebbero diffondersi come soffi di polline, replicarsi rapidamente, e ridurre la biosfera in polvere nell'arco di pochi giorni. Replicatori pericolosi potrebbero facilmente essere troppo resistenti, troppo piccoli, e di diffusione troppo rapida perché li si possa arrestare, per lo meno se non ci prepareremo in alcun modo... 6

E quindi Drexler, in questo inquietante richiamo alle responsabilità di una ricerca mirata e controllata afferma altresì che non possiamo permetterci incidenti con assemblatori nanotecnologici capaci di autoreplicazione. Oltretutto Bill Joy sottolinea che i nanoreplicatori potrebbero essere disponibili come arma di distruzione di massa a basso costo. Contrariamente alle attuali armi nucleari, che richiedono masse di congegni complessi e isotopi rari, pochi chili di un organismo nanotech autoreplicante potrebbero devastare pervasivamente la vita sul pianeta. Un altro pericolo deriva, secondo il ricercatore, dalle macchine ad Intelligenza Artificiale Avanzata che la nanotecnologia potrebbe produrre:

Sistemi di I.A. [avanzata] che lavorino assieme, come la gente fa, saranno in grado di capacità di pensiero superiori non solo a quelle degli individui ma anche a quelle di intere società. Ancora una volta, l'evoluzione dei geni ha vincolato la vita a determinati limiti. Ancora una volta, l'evoluzione a cui i memi vengono sottoposti dagli esseri umani, ed eventualmente dalle macchine, farà progredire il nostro hardware ben oltre i limiti della vita. E di nuovo, da un punto di vista evolutivo, tutto questo pone una ovvia minaccia. La conoscenza accresce il potere ed il potere accresce ulteriormente la conoscenza. A seconda della loro natura e dei loro obiettivi, i sistemi avanzati di I.A. potrebbero raccogliere abbastanza conoscenza e potere da sostituirsi a noi, se non ci saremo preparati adeguatamente. E come accadrà per i replicatori, la semplice "superiorità" evolutiva non renderà necessariamente i vincitori migliori degli sconfitti, secondo qualsiasi parametro di giudizio che non sia la bruta abilità di competizione. Questa minaccia mette perfettamente in chiaro una cosa: abbiamo bisogno di trovare modi di vita che siano compatibili con l'esistenza della macchine pensanti, affinché queste possano divenire dei cittadini osservanti delle leggi. 7

Sulla scia di questo allarme si sta muovendo il SIAI (Singularity Institute for Artificial Intelligence - singinst.org) il quale mira alla progettazione della prima intelligenza artificiale in un ambito controllato. Gli obiettivi del SIAI sono:

  1. Assicurare lo sviluppo una Intelligenza Artificiale amichevole, a beneficio di tutta l'umanità;
  2. Evitare pericolose ingerenze nella società umana di una Intelligenza Artificiale incontrollata, capace di provocare danni;
  3. Incoraggiare lo sviluppo del pensiero razionale per il nostro futuro come specie.

Sembrano obiettivi assolutamente condivisibili e relativi a un problema enormemente sottovalutato dagli Stati. L'augurio è che il SIAI riesca nel suo intento prima delle organizzazioni militari asservite agli nazioni o delle organizzazioni che fanno capo all'estremismo religioso.

Possibilità realizzative e critiche di concetto

Il premio Nobel per la chimica Richard E. Smalley tra il 2001 e il 2004 in varie conferenze contestò le idee alla base della nanotecnologia affermando: I nanorobot meccanici autoreplicanti sono semplicemente impossibili in questo mondo. I due problemi indicati da Smalley 8 fanno riferimento a descrizioni curiose, note come (A): Il problema delle dita grasse e (B): Il problema delle dita appiccicose. Il problema (A) afferma che: "Non c'è spazio sufficiente, nella regione reattiva al livello del nanometro, per tutte le dita di tutti i manipolatori necessari per avere il completo controllo chimico". Mentre il problema (B) dichiara che: "Gli atomi delle mani dei manipolatori aderiranno agli atomi che stanno spostando. Quindi, sarà spesso impossibile rilasciare questi minuscoli mattoni in un posto preciso." In altre parole il concetto è che in una reazione chimica, oltre agli atomi, nelle tre dimensioni si muove anche la struttura chimica del sito reattivo.

Questo discorso si sviluppa sulla base della definizione di assemblatore nanotecnologico data da Drexler: «Dispositivi teorici in grado di utilizzare reazioni chimiche per il posizionamento di molecole reattive con precisione atomica». I problemi esposti da Smalley minano la ricerca nanotecnologica avanzata alla radice rendendo impossibile lo sviluppo di assemblatori avanzati e riconducono tale ricerca solo alla produzione di materiali e molecole con funzione di utility. Alle critiche di Smalley Drexler replicò stizzito pochi mesi dopo affermando che così come fanno gli enzimi e i ribosomi, gli assemblatori da lui proposti non posseggono "dita di Smalley" (si noti il sarcasmo) e non ne hanno bisogno. Tali "dita", afferma Drexler, non sarebbero affatto necessarie per il posizionamento di molecole reattive. Drexler infine precisa: «La mia proposta è, ed è sempre stata, di guidare la sintesi chimica di strutture complesse tramite il posizionamento meccanico di molecole reattive, non di maneggiare singoli atomi. Questa proposta è stata ripetutamente difesa, con successo, in articoli pubblicati su riviste scientifiche».

Tuttavia, nonostante la difesa di Eric Drexler, va detto che le ricerche effettuate presso la sua società di ricerca Zyvex (zyvex.com), da lui fondata assieme a Ralph Merckle, hanno mostrato quanto sia difficile passare da macchine molecolari create al computer a nanoassemblatori reali. L'obiettivo della Zyvex si è quindi spostato allo sviluppo dei MEMS, ovvero sistemi microelettromeccanici: semplici macchine con parti in movimento, come oscillatori e micromotori. Le funzioni che svolgono queste nanomacchine sono però ancora elementari e ben lontane da riprodurre un movimento e un'autonomia simile a congegni e meccanismi macroscopici.

Note

  • 1 Engines Of Creation: The Coming Era of Nanotechnology – Oxford University Press – 1990. Autore: K. Eric Drexler (www.e-drexler.com). La nuova revisione (2.0) è su www.wowio.com. La traduzione italiana, di Vincenzo Battista, è pubblicata su www.estropico.org. La frase citata è nella prefazione al volume redatta da Marvin Minsky. Qui Minsky paragona la nanotecnologia a una rivoluzione che potrebbe avere lo stesso impatto sullo sviluppo tecnologico dell'umanità di quello che ebbero il linguaggio e la scrittura.
  • 2 Engines Of Creation (Motori di Creazione) - Capitolo 1.
  • 3 Ulteriori dettagli sono disponibili al sito molecularlab.it .
  • 4 Si veda al proposito la IBM press room che riporta un esteso articolo sui computer neurosinaptici.
  • 5 Cfr. I. Pearson, "Il potenziale della vita futura", . Autore del libro You Tomorrow, Pearson è uno dei più ricercati e intervistati futurologi a livello mondiale e ha una vasta biblioteca di studi di futurologia.
  • 6 E. K. Drexler, Engine of Creation, op. cit., Cap. 11. Sempre in questo capitolo è molto significativa la frase: «Replicatori e sistemi di IA possono anche servire come grandi motori di potere, se adoperati senza freni da stati sovrani. Lungo l'intera storia umana, gli stati hanno sviluppato tecnologie per estendere il loro potere militare, ed essi senza dubbio giocheranno un ruolo dominante nello sviluppo di replicatori e di sistemi di IA. Gli stati potrebbero sfruttare i replicatori per costruire, rapidamente, facilmente ed in quantità, interi arsenali di armi avanzate». Questa eventualità, è descritta su www.futurology.it come lo "scenario archeofuturista".
  • 7 Ibid.
  • 8 Si veda la disputa dettagliata tra Drexler e Smalley su Wikipedia

Contatto progettista

Puoi contattare la progettista del sito compilando questo modulo (tutti i campi sono necessari)