Attenzione: nel tuo browser javascript è disattivato!
I contenuti di questo sito restano disponibili, ma con javascript la tua esperienza sarà molto migliore.
Segui le istruzioni per attivare javascript nei browser desktop e mobile e poi ricarica questa pagina.

Divenire

Rassegna di studi interdisciplinari sulla tecnica e sul postumano

LA RIVISTA

Presentazione

Divenire è il titolo di una serie di volumi incentrati sull'interazione tra lo sviluppo vertiginoso della tecnica e l'evoluzione biologica dell'uomo e delle altre specie, ovvero votati allo studio dei rapporti tra la tecnosfera e la biosfera. Gli autori, provenienti da diverse aree disciplinari e orientamenti ideologici, sviluppano la propria analisi con occhio attento al probabile esito finale di queste mutazioni casuali o pianificate: il postumano. Sono dunque studi che sul piano temporale spaziano nel presente, nel passato e nel futuro, mentre sul piano della prospettiva disciplinare sono aperti a idee e metodi provenienti da diverse aree di ricerca, che vanno dalle scienze sociali alle scienze naturali, dalla filosofia all'ingegneria, dal diritto alla critica letteraria.

Ogni volume ha quattro sezioni. In Attualità compaiono studi attinenti a problematiche metatecniche del presente. Genealogia è dedicata a studi storici sui precursori delle attuali tendenze transumanistiche, futuristiche, prometeiche — dunque al passato della metatecnica. In Futurologia trovano spazio esplorazioni ipotetiche del futuro, da parte di futurologi e scrittori di fantascienza. Libreria è dedicata ad analisi critiche di libri su tecnoscienza, postumano, transumanesimo.
I volumi pubblicati finora (ora tutti leggibili in questo sito):

  1. D1. Bioetica e tecnica
  2. D2. Transumanismo e società
  3. D3. Speciale futurismo
  4. D4. Il superamento dell'umanismo
  5. D5. Intelligenza artificiale e robotica

Divenire 5 (2012) è interamente dedicato all'Intelligenza Artificiale (IA).

Intelligenze artificiose (Stefano Vaj) sostiene che il tema dell'automa (esecuzione di programmi antropomorfi o zoomorfi su piattaforma diversa da un cervello biologico) resta tuttora circondato da un vasto alone di misticismo: quando non viene negata in linea di principio la fattibilità dell'IA, ne viene esagerata escatologicamente la portata. (english version)

La maschera dell'intelligenza artificiale (Salvatore Rampone) indaga gli equivoci concettuali sottostanti alla domanda se una macchina abbia intelligenza o possa pensare e spiega perché l'IA debba nascondersi sotto la maschera del Soft computing.

Il problema filosofico dell'IA forte e le prospettive future (Domenico Dodaro) Analizza il tema della coscienza  semantica mettendo in luce i suoi  aspetti corporei e considera la possibilità di implementarli in sistemi artificiali. Sono valutati sia i limiti tecnologici e computazionali della riproduzione artificiale della coscienza (intesa come una facoltà del vivente) sia i programmi di ricerca più fecondi al fine di arginarli.

Cervelli artificiali? (Emanuele Ratti) espone il progetto di ricerca forse più ardito nel campo dell'IA che emula funzioni e organi biologici: il cervello artificiale di Hugo de Garis, introducendo concetti chiave di questo settore disciplinare come rete neurale e algoritmo genetico.

>

Presentazione

Automi e lavoratori. Per una sociologia dell'intelligenza artificiale (Riccardo Campa) sposta l'attenzione sull'impatto economico e sociale della computerizzazione e della robotizzazione. Quali effetti sull'occupazione e quali correttivi per massimizzare i benefici e minimizzare gli effetti indesiderati? Proiettando il tema nel futuro, vengono analizzati i possibili scenari, in dipendenza di diverse politiche (o non-politiche) dello sviluppo tecnologico.

Il nostro cervello cinese (Danilo Campanella) riporta l'origine dei calcolatori moderni all'antica Cina. Utilizzando matematica, teologia e misticismo, i cinesi elaborarono i primi rudimenti del linguaggio binario, poi rubato dagli occidentali.

Alan Turing: uno spirito transumanista (Domenico Dodaro) Sono esposte le ragioni per cui Turing può essere definito un pensatore transumanista. Il matematico inglese è in genere descritto solo come padre dell'IA tradizionalmente intesa. L'analisi dell'autore dimostra invece la sua vicinanza ai temi delle "nuove scienze cognitive" e della computazione complessa (o ipercomputazione).

Passato, presente e futuro dell'Intelligenza Artificiale (Bruno Lenzi). L'articolo mostra, su un arco temporale molto ampio, fallimenti, riuscite, pericoli e scoperte delle scienze cognitive, sottolineando che l'IA non è questione solo tecnico-scientifica, racchiude germogli e frutti maturi in ogni area del sapere, e potrebbe essere molto diversa dall'intelligenza umana.

Post-embodied AI (Ben Goertzel). L'autore, uno dei principali sostenitori dell'AI forte, analizza la questione filosofica dell'embodiment: una intelligenza artificiale forte (capace di risolvere problemi in domini nuovi, di comunicare spontaneamente, di elaborare strategie nuove) deve necessariamente avere un body?

Nanotecnologia: dalla materia alle macchine pensanti (Ugo Spezza) spiega questo ramo della scienza applicata che progetta nanomacchine e nanomateriali in molteplici settori di ricerca: biologia molecolare, chimica, meccanica, elettronica ed informatica. L'articolo presenta le applicazioni già esistenti e le fantastiche potenzialità progettuali, dai nanobot per il settore medico ai neuroni artificiali.

Verso l'Intelligenza artificiale generale (Gabriele Rossi) introduce la Matematica dei Modelli di Riferimento degli iLabs ed esplora i potenziali vantaggi di questa prospettiva alla luce di alcune questioni teoriche di fondo che pervadono tutta la storia della disciplina.

Ich bin ein Singularitarian (Giuseppe Vatinno) è una recensione di La singolarità è vicina di Ray Kurzweil.

NUMERI DELLA RIVISTA

Divenire 1. Bioetica e tecnica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 2. Transumanismo e società

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 3. Speciale futurismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 4. Il superamento dell'umanismo

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

Divenire 5. Intelligenza artificiale e robotica

INTRODUZIONE

ATTUALITÀ

GENEALOGIA

FUTUROLOGIA

LIBRERIA

RICERCHE

1

2

3

4

CHI SIAMO

Comitato scientifico

Riccardo Campa
Docente di metodologia delle scienze sociali all'Università Jagiellonica di Cracovia
Patrizia Cioffi
Docente di neurochirurgia all'Università di Firenze
Amara Graps
Ricercatrice di astronomia all'Istituto di Fisica dello Spazio Interplanetario
James Hughes
Docente di sociologia medica al Trinity College del Connecticut
Giuseppe Lucchini
Docente di statistica medica all'Università di Brescia
Alberto Masala
Ricercatore di filosofia all'Università La Sorbonne (Paris IV)
Giulio Prisco
Vice-presidente della World Transhumanist Association
Salvatore Rampone
Docente di Sistemi di elaborazione delle informazioni all'Università degli studi del Sannio
Stefan Lorenz Sorgner
Docente di filosofia all'Università di Erfurt
Stefano Sutti
Docente di diritto delle nuove tecnologie all'Università di Padova
Natasha Vita-More
Fondatrice e direttrice del Transhumanist Arts & Culture H+ Labs

Ait

L'AIT (Associazione Italiana Transumanisti) è un'organizzazione senza scopo di lucro con la missione di promuovere, in ambito culturale, sociale e politico, le tecnologie di potenziamento dell'essere umano.

Fondata nel 2004, è stata formalizzata mediante atto pubblico nel 2006 ed ha avviato le pratiche per ottenere il riconoscimento.

Sede legale AIT: via Montenapoleone 8, 20121 Milano

Sito internet AIT: www.transumanisti.it (>)

Pubblica questa rivista: Divenire. Rassegna di studi interdisciplinari sulla tecnica e il postumano

Curatore: Riccardo Campa

Segretaria di redazione: Nicoletta Barbaglia

Art director: Emmanuele Pilia (>)

Gruppo di Divenire su Facebook: (>)

Contatti

Puoi contattare la Redazione di Divenire compilando questo modulo (tutti i campi sono necessari)

L'evoluzione della Net-Sfera

Autore: Ugo Spezza

da: Divenire 4, Futurologia () | pdf | stampa

Oggi il vostro videofonino ha una potenza di elaborazione pari a quella di un supercomputer della NASA degli anni settanta e capacità multimediali (fotografia, registrazione-riproduzione audio, ripresa e trasmissione video...) che solo trent’anni fa richiedevano un intero studio di regia e un sistema di broadcast televisivo professionale per essere esercitate. Oltre a ciò esso dispone di una banda di comunicazione di ampiezza duecento volte maggiore alle reti militari dedicate degli anni settanta. La sofisticazione che hanno raggiunto questi dispositivi palmari è tale che la quasi totalità delle persone usa al massimo il 5% delle numerosissime funzionalità di cui sono dotati. L’interfaccia utente dei recenti dispositivi si è arricchita man mano di nuove funzionalità. Un cellulare del 1994 presentava solo pochi menù e poche funzioni, diciamo una ventina, un apparecchio di seconda generazione del 2002, dotato di alcune funzioni multimediali, arrivava ad averne 200. Un recente videofonino UMTS ne conta finanche 4000, considerando anche le funzioni di elaborazione audio-video e la navigazione GPS.

Oltre a questo, in soli quindici anni, dal cellulare prima generazione a quello di terza, abbiamo assistito a un aumento della banda di trasmissione dati dai 38 Kbyte/secondo del GSM ai 7.2 Mbyte/secondo del HDSPA, quindi parliamo di un incremento di 187 volte (!). Tutto ciò è reso possibile dalla evoluzione dei microprocessori, evoluzione che segue la cosiddetta “Legge di Moore” la quale afferma che ogni 18-24 mesi la potenza di elaborazione di questi piccoli “cervelli digitali” raddoppia.

Il fenomeno è ancora più evidente nella evoluzione del personal computer, il cui processore è passato dai 29.000 transistor del primo PC IBM del 1980 (Intel 8086) agli 810.000.000 del più recente processore della Intel (Intel i7), con un aumento della complessità circuitale pari a 28.000 volte e un incremento di potenza di calcolo di 30.000 volte (!). Le memorie dei primi computer erano di circa 64 Kbyte contro gli 8.000.000 di Kbyte dei modelli desktop più recenti. In questo caso, la complessità circuitale è salita ancora di più: parliamo di 125.000 volte.

L’aumento della complessità di questi apparecchi è però solo parzialmente giustificato dalle loro “prestazioni”, in quanto una moderna azienda, ove necessiti di automatizzare le solite pratiche di gestione, contabilità e trasmissione elettronica dei documenti, potrebbe operare anche usando dei PC di dieci anni fa, con un decremento della produttività poco significativo 1 . Ciò accade perché all’aumento della velocità dei microprocessori si è accompagnata una sempre maggior “pesantezza” dei sistemi operativi che si sono realizzati nel tempo. La prova sta nel fatto che se si va ad accendere un PC del 1998 e applicativi “office” dell’epoca ci si accorge che pur avendo esso una dotazione hardware obsoleta (Pentium III e 256 Mb Ram) rispetto ad un hardware attuale (Core i7 e 8000 Mb di Ram) esso avvierà il sistema operativo e i programmi con velocità simile a quella di un computer recentissimo. Ciò accade perché il vecchio PC operava probabilmente con Windows 98, mentre il nuovo PC adotta invece Windows 7 e quest’ultimo sistema operativo ha richieste hardware ingenti rispetto al predecessore. Per quale motivo? Perché nel frattempo sono cresciuti abnormemente il numero e la complessità delle funzioni che il computer deve svolgere.

A che cosa servono i computer?

Ma a che cosa servono i computer? Quando entriamo in un moderno ufficio vediamo persone "immerse" nei loro monitor, tanto che spesso ci accorgiamo che è anche difficile destarne l’attenzione con un richiamo. La risposta alla nostra domanda la può dare uno slogan pubblicitario di Microsoft: «Risparmia tempo prezioso con la nuova versione di Windows. Fai di più in meno tempo». Certo, fare di più in un tempo minimo; ma il cervello umano è capace di adattarsi a questo? La vendita degli psicofarmaci nel mondo negli ultimi trent’anni ha subito uno sbalzo verso l’alto che non trova paragoni nei decenni precedenti, nemmeno durante la guerra fredda. Negli USA, paese tecnologicamente molto avanzato, dal 1996 al 2005 è raddoppiato il consumo degli psicofarmaci, nel 2008 vi sono state 164 milioni di prescrizioni di antidepressivi 2 per una spesa totale di 9.6 miliardi di dollari (ci si po-teva costruire una stazione spaziale sulla Luna!). I microchip che hanno invaso il pianeta Terra e i milioni di chilometri di cavi e ponti wireless che li interconnettono ci costringono a ragionare in modo più rapido. Un banale esempio sono gli sms: “cmq 6 la+ 6 sxme, nn tv xdere, ris.”. Traduzione: «comunque sei la migliore, sei speciale per me, non ti voglio perdere, rispondimi subito».

Ma torniamo allora alla nostra domanda: a che cosa servono i computer? Una parziale risposta la può dare un banale foglio di calcolo (es. Microsoft Excel), con una decina di righe e sei-sette colonne, adibito a un computo finanziario. Modificando un valore numerico in una cella una serie di formule di contabilità va ad aggiornare una moltitudine di altre celle per mezzo di formule ricorsive. Per eseguire tutta questa mole di calcoli “a mano”, ossia con carta e matita ci vorrebbero una decina di persone, ognuna delle quali si occupa di aggiornare un dato, e il totale dei calcoli, per ogni variazione di un numero nella tabella, necessiterebbe di circa un ora per essere portato a termine. Oltre a ciò va considerata la possibilità (o la quasi certezza) che tra le dieci persone ce se sarà una, o più di una, che commetterà errori nel calcolo e, di conseguenza, quell’ora potrebbe divenire un’ora e mezza per le correzioni.

Ma non è finita; c’è anche da considerare l’approssimazione del calcolo di ciascun essere umano che al massimo potrà raggiungere la terza cifra decimale dopo la virgola. Da qui si va a produrre un totale che, a causa delle successive iterazioni, pur eseguendo correttamente i singoli calcoli, viene ad essere affetto da un errore di approssimazione significativo. Ma ecco che invece arriva il computer e risolve di colpo tutti questi problemi:

  • assenza di errori nei calcoli
  • ogni calcolo è eseguito in un decimo di secondo anziché in un’ora
  • approssimazione alla ventitreesima cifra decimale

E si badi bene che per effettuare i calcoli di una tabella simile non è strettamente necessario un computer recente, anche un arcaico PC IBM del 1980, trentamila volte più lento di un elaboratore attuale, potrebbe eseguire tali conteggi con una velocità migliaia di volte maggiore rispetto a un gruppo di matematici umani.

Se invece della semplice tabella Excel consideriamo un programma contabile di un’azienda che necessita di un database e di decine di fitte tabelle con svariati input/output di dati, il calcolo umano sarebbe di certo impossibile. Difatti, prima dell’avvento del computer, le aziende erano per lo più gestite tramite il cosiddetto “giornalmastro”, un librone di carta su cui si riportavano a penna calcoli relativi a entrate, uscite e movimenti di magazzino. Ogni movimentazione poteva richiedere ore per essere messa in atto. Oggi un data warehouse di una grande banca può gestire miliardi di transazioni di dati al secondo e spostare immense quantità di denaro, fondi e titoli per mezzo pianeta nel giro di pochi secondi.

I microprocessori dei computer gestiscono ormai ogni nostra attività: conti bancari, viabilità stradale e aerea, grande distribuzione di alimenti e materie prime e in genere tutte quelle attività che sostengono la vita. Le nostre case contengono migliaia di microchip: nei computer, nei videofonini, nella TV, nello stereo, nei lettori ottici da salotto e persino nel nostro orologio. Ne segue che oggi un blocco dei computer a livello mondiale avrebbe ripercussioni disastrose sulla vita dell’uomo sulla terra. In altre parole la nostra dipendenza dai computer, ogni anno che passa, diventa sempre più stringente e alla fine diverrà imprescindibile.

Il "Fattore Intelligenza"

Ma perché abbiamo demandato ai computer attività “vitali” come quelle della gestione del denaro e della distribuzione di risorse primarie per la vita? Per trovare la risposta occorre fare un salto indietro nel tempo: l’evoluzione darwiniana ha favorito nel corso degli ultimi 4 milioni di anni quelle forme ominidi che sono state in grado di gestire al meglio il Fattore Intelligenza. Le altre forme sono andate irrimediabilmente estinte. È ben noto che a partire dall’Homo habilis (2.2 milioni di anni fa), passando per l’Homo erectus (1 milione di anni fa) per arrivare all’Homo sapiens (200.000 anni fa) la dimensione e la complessità del cervello è cresciuta in modo significativo passando dai modesti 450 grammi dei primi ominidi ai 1500 grammi del nostro attuale cervello. Questo perché la natura ha concesso maggiori possibilità di sopravvivenza e di progenie a quegli ominidi che si sono rivelati in grado di eseguire una “manipolazione dell’ambiente”.

I ritrovamenti fossili dei primi utensili in pietra risalgono all’epoca dell’Homo habilis, ma l’evoluzione ha favorito in modo particolare l’Homo sapiens il quale, grazie al “fattore intelligenza”, negli ultimi duecentomila anni è riuscito a scoprire il modo di lavorare i metalli passando dall’età del rame a quella del bronzo e poi a quella del ferro, per realizzare e utilizzare strumenti tecnologici sempre più sofisticati. In seguito, quando la capacità del cervello umano ha raggiunto un punto critico, i primi ominidi riuscirono a trovare un nuovo modo per comunicare tra loro, diverso da tutto quello che prima era esistito: il linguaggio fonetico.

Si badi bene che anche un branco di lupi a caccia di una preda è capace di attivare una intensa comunicazione tra i vari membri del gruppo al fine di portare a termine al meglio l’operazione. Quello che avviene però in un gruppo di ominidi che cacciano usando il linguaggio fonetico, rispetto al gruppo di lupi, è che la quantità e la qualità della informazione trasmessa tra i vari membri è notevolmente maggiore. Ovvio che per poter gestire una maggiore quantità e complessità dei segnali (o dati) in arrivo e in partenza (input/output) si ha bisogno di un elaboratore del pensiero (il cervello) avente maggiori prestazioni.

Quello dei lupi è troppo “grezzo” e quindi può gestire solo segnali estremamente semplici. Possiamo così definire un “essere superiore”, da un punto di vista evolutivo darwiniano, quello che è in grado di elaborare, tramite il “fattore intelligenza”, una più grande quantità di informazione nell’unità di tempo. In altre parole dispone di una maggiore potenza cognitiva. Potenza che garantisce il dominio sulla natura.

Una accelerazione nel processo evolutivo

Quando la quantità di informazioni accumulate era divenuta insostenibile per un passaggio “orale” dei dati appresi durante una vita da una generazione all’altra l’uomo ha ideato la scrittura. I primi esempi concreti di scrittura cuneiforme possono essere fatti risalire a 5500 anni fa. Con l’ideazione della scrittura siamo passati in quella fase evolutiva che il grande scienziato Stephen Hawking descrive come la “trasmissione esterna della informazione” [riferimento]3[/riferimento] . Esterna perché un libro scritto che rappresenta le memorie di un uomo può essere letto anche in assenza dello stesso o anche se lo stesso è defunto. Ne segue che, se un eccellente agricoltore ha messo per iscritto delle nuove tecniche di coltivazione dei terreni, le stesse possono passare alla generazione successiva che ne potrà beneficiare anche in sua assenza. Non solo, tale libro potrà in seguito essere integrato con nuove informazioni che verranno trasmesse migliorando ulteriormente la qualità della vita e quindi le possibilità riproduttive della progenie.

Si tratta quindi di una “indipendenza funzionale dell’informazione” in quanto essa, dopo l’avvento della scrittura, può essere trasportata non solo nello spazio (copie multiple del libro possono raggiungere regioni lontane ove l’agricoltore non si sarebbe mai recato) ma anche avanti nel tempo (il libro rimane dopo la morte di chi lo ha scritto per un tempo indefinito). Inoltre il libro è sempre disponibile per successive riletture, cosa che risolve il problema della dimenticanza di parte delle informazioni apprese.

Se vogliamo pensarla in questi termini la scrittura costituisce dunque un potenziamento cognitivo delle capacità naturali del cervello umano, in quanto consente di estendere l’informazione derivante da conoscenze ed esperienze del singolo individuo e di distribuirle meglio tra la moltitudine degli altri esseri umani. Quindi abbiamo due funzioni: la prima consta nel fissare l’informazione nel tempo, rendendola disponibile indipendentemente dal cervello che l’aveva elaborata. La seconda consta nella distribuzione dell’informazione, possibile realizzando copie multiple dello stesso libro, ad una moltitudine di individui.

Ciò ha consentito la nascita della tecnologia e rispetto ai millenni precedenti un ipotetico grafico avrebbe presentato un picco in salita in corrispondenza di 5500 anni fa. Si può dunque affermare, al di là di ogni ragionevole dubbio, che vi è stata una accelerazione repentina del progresso umano a seguito della ideazione della scrittura. Un secondo picco di accelerazione del grafico è avvenuto dopo l’invenzione della stampa nel 1455 d.c. ad opera di Gutenberg, invenzione che ha reso possibile distribuire l’informazione scritta su larga scala.

I limiti del cervello umano

Il cervello biologico è un complesso elaboratore elettrochimico in grado di interfacciare un organismo vivente con il mondo esterno basandosi sui cinque sensi: vista, udito, tatto, odorato. La sua funzione primaria è quella della esplorazione dell’ambiente per far si che l’organismo trovi ciò di cui necessita per il suo sostentamento (cibo, acqua) e consentire così la sua sopravvivenza ontogenetica (del singolo). La sua funzione secondaria, ma altrettanto importante, è anche quella di garantire la sopravvivenza filogenetica (della specie), ossia la possibilità che l’organismo riesca a trovare un partner per la riproduzione e gestire rituali e problematiche conseguenti (corteggiamento, lotta intraspecifica) per riprodurre copie geneticamente simili, ma non uguali, di se stesso.

In tempi recenti abbiamo scoperto che i computer non solo sono in grado di manipolare l’informazione ma sono in grado di farlo meglio del nostro cervello biologico. Quindi affidiamo ai computer tutte quelle attività che richiedono calcoli complessi o iterazioni ripetitive, attività per le quali la selezione naturale, nel cervello biologico, non ha prodotto risultati significativi. Dei limiti del cervello umano ha parlato di recente lo scienziato Bruce Katz, docente di Intelligenza Artificiale all’Università di Philadelphia e autore del libro Neuroengineering the Future. Katz delinea i limiti del cervello umano nell’era della Information Tecnology in sei punti (la voce numero 7 è di chi scrive):

  1. Limitazioni della memoria a breve termine: il cervello umano perde molti dei dati che elabora, ad esempio leggendo un libro al termine non si ricordano che pochi concetti chiave.
  2. Significative limitazioni di memoria a lungo termine: un laureato in Fisica, dopo 20 anni dalla laurea, se non esercita una professione attinente al campo di studi, non ricorderà che poche e vaghe nozioni di quello che ha studiato.
  3. Forti limitazioni sulla velocità di elaborazione: anche se il cervello è un sistema altamente parallelo, ogni neurone è un processore molto lento.
  4. Limiti della razionalità: il credere ai dogmi delle religioni, nelle superstizioni, negli oroscopi e nel sovrannaturale ne sono un esempio.
  5. Limiti della creatività: Katz afferma che la maggior parte delle persone passano tutta la loro vita senza un significativo contributo creativo per l’umanità.
  6. Limiti del numero di concetti che possono essere trattenuti nella coscienza in una sola volta: non riusciamo a concentrarci su più di una operazione complessa alla volta o su pochissime operazioni semplici alla volta.
  7. Limiti nell’upgrade (aggiornamento): come tutti i substrati di tipo biologico derivanti da evoluzione della specie di tipo darwiniano non vi sono varianze significative tra il cervello di un individuo e un altro. Per aggiornare in termini di potenza cognitiva un cervello umano occorrerebbe attendere i tempi “naturali” tipici del sopravvenire di una mutazione dominante, ovvero decine di migliaia di anni.

Katz parla senza peli sulla lingua di “inadeguatezza” del cervello umano, in particolare egli afferma: «In definitiva, vogliamo essere liberi dai limiti del cervello umano. Ci sono troppe difficoltà insite nella sua progettazione improvvisata...».

Il computer come potenziatore cognitivo

A partire dagli anni cinquanta del secolo scorso l’uomo ha scoperto che i computer possono aiutarci molto in queste funzioni. Non solo perché sono in grado di eseguire compiti improbi per un cervello umano, ma anche perché trattengono le informazioni in modo molto più affidabile; vediamo come:

  1. Memoria a breve termine: il computer non dimentica nemmeno un bit di dati di informazione appresa.
  2. Memoria a lungo termine: grazie a quelle che si definiscono “memorie di massa” (dischi rigidi, nastri magnetici, dischi ottici ecc.) i dati possono essere trattenuti quasi indefinitamente. La mole di dati memorizzata può essere enorme (ad esempio una enciclopedia comprendente l’intero sapere dell’umanità). Inoltre tali dati possono essere richiamati con rapidità eccezionale.
  3. Velocità di elaborazione: un moderno computer è in grado di elaborare dati numerici, matrici e file di dati con una velocità milioni di volte superiore a quella di un cervello umano.
  4. Numero di programmi elaborabili in una sola volta: i recenti computer, in particolare quelli multiprocessore, sono in grado di far funzionare numerosi programmi contemporaneamente (multitasking) ed elaborare numerose e contemporanee iterazioni avviate da ciascuno di essi (multith-reading).
  5. Ampie possibilità di upgrade: gli aggiornamenti dei computer, come abbiamo visto nel precedente paragrafo sull’evoluzione dei processori, si susseguono a ritmo incalzante a livello di architettura hardware. Meno a livello software poiché quest’ultimo deve essere sviluppato sempre dal cervello umano e quindi si evolve molto più lentamente.

Ecco quindi che in quei compiti di puro calcolo ove il cervello umano non arriva esso chiede l’assistenza ad un cervello elettronico esterno: il computer. Possiamo pertanto definire una macchina elettronica di tal guisa come un potenziatore cognitivo. Si tratta a tutti gli effetti di una versione 2.0 del primo potenziamento cognitivo rappresentato dalla scrittura. A dimostrarlo è il fatto che oggi nessuna azienda tiene più la sua contabilità con il giornal mastro (scrittura a mano e registrazione) ma lo fa con mezzi informatici (computer connessi in rete).

Detto ciò non sono tuttavia d’accordo con Bruce Katz quando afferma che il cervello umano è “inadeguato”. Il cervello umano, derivato da una evoluzione ominide di tipo biologico nel corso degli ultimi 100.000 anni è più che adeguato; anzi è il meglio che si possa trovare in natura (e forse nell’universo). Il fatto che la maggior parte di noi abbia pessime capacità di calcolo matematico e di memoria a breve/lungo termine non è dovuto a delle limitazioni del cervello organico, ma alla sua sintesi evolutiva. Vi sono esempi lampanti in tal senso come quello del genio John Von Neumann. All’età di sei anni era in grado di ricordare intere pagine di elenco telefonico che gli venivano mostrate per pochi istanti, quindi non soffriva di deficit di memoria a breve termine, era anche in grado di eseguire divisioni rapide di numeri fino ad 8 cifre, quindi non soffriva di deficit di elaborazione matematica come la media degli esseri umani. Altrettanto si può dire degli idiots savants come Kim Peek il quale è in grado di leggere un libro in solo un’ora e ricordare il 98% dei suoi contenuti invalidando così il deficit della memoria a lungo termine.

È probabile che nel corso dei centomila anni di evoluzione che ci ha riguardato vi sono stati migliaia di casi di Homo sapiens dotati di queste facoltà eppure gli stessi non hanno avuto l’opportunità di trasmetterle alla discendenza (ovvero a noi). Il motivo è da ricercare nel fatto che l’uomo del neolitico non aveva bisogno di tali facoltà, se Von Neumann fosse nato in una tribù primitiva in Centrafrica non avrebbe mai sviluppato le sue potenzialità cognitive, anzi le stesse in quella situazione gli sarebbero state d’impaccio visto lo scarso adattamento che le persone mentalmente superdotate hanno nella vita quotidiana, tendendo esse alla solitudine, alla depressione e persino alla schizofrenia.

Limitazioni dei cervelli elettronici

Eppure gli attuali computer, anche quelli più potenti, non pensano, ossia non hanno reali capacità cognitive e interpretative del mondo esterno. In altre parole non hanno una coscienza di sé, eseguono semplicemente calcoli seriali pre-determinati da un programma e quando termina il programma cessano di operare. Il programma è ovviamente una serie di istruzioni definite da un programmatore umano come una serie di linee di codice inserite nella memoria del computer. Per poter inserire tale codice di solito si usa un interprete, ossia un linguaggio codificato ad hoc, ad esempio il linguaggio C++, il Visual Basic ecc. dato che il linguaggio nativo dei computer (quello binario) sarebbe inaccessibile, data la sua complessità, al cervello umano.

Esiste una branca dell’informatica denominata Intelligenza Artificiale. Sin dal 1956 essa tenta di produrre computer “intelligenti”, ma senza successo: oggi nessun computer si può definire “intelligente”. Possono ad esempio giocare a scacchi, gestire un macchinario che esegua operazioni ripetitive o cose anche più complesse come guidare un piccolo robot facendogli evitare ostacoli (si pensi ai robot che la NASA ha inviato su Marte). Le capacità di apprendimento degli elaboratori elettronici sono pertanto limitate all’immagazzinamento di dati in un database nella memoria della macchina secondo schemi preordinati.

Questi computer, opportunamente dotati di programmi basati su reti neurali o sistemi esperti fanno parte di quelle macchine dette Intelligenza Artificiale “debole”. Non sono cioè in grado di interagire, se non in minima parte, con l’ambiente che li circonda e non sanno distinguere la loro “presenza” dagli altri oggetti dell’ambiente, ovvero sono privi di coscienza.

Uno degli esempi più recenti è il robot Nexi, costruito presso il prestigioso Massachusetts Institute of Technology. Il suo programma gli consente di muoversi in un ambiente circoscritto, rispondere ai richiami, afferrare oggetti senza schiacciarli e posizionarli su un ripiano in modo ordinato. Può persino riconoscere una pressione di una mano sui suoi arti metallici grazie a un rozzo senso del tatto. Sarebbe un ottimo inserviente elettronico per anziani o disabili non autosufficienti. Questo è il massimo che la tecnologia riesce oggi a produrre. L’utilizzo domestico sarà il primo, secondo chi scrive, ad essere implementato per queste macchine. Macchine che però non vantano una vera capacità cognitiva, non sarebbero quindi mai in grado di superare un test di Turing né di fare cose che esulano dai loro schemi di programmazione. Addentrandoci nella filosofia di Martin Heidegger diremmo che ai computer manca il fattore “esser-ci”, ossia l’essere presenti nel mondo, nel fenomeno, risultando essi privi di quella pre-comprensione contestuale che scaturisce dal contatto con la realtà. Ma, al di là dell’aspetto filosofico, vi sono compiti cognitivi essenziali preclusi ai computer, ad esempio il riconoscimento di strutture visuali complesse come i caratteri della scrittura, i volti umani, la distinzione di singole parti in una immagine tridimensionale e tutti i compiti percettivi in genere – non solo nel campo visivo, ma anche in quello auditivo e tattile.

Il “cogni-duo”

Dunque abbiamo esseri biologici limitati cognitivamente da un lato ed elaboratori elettronici limitati cognitivamente dall’altro. Allora quale è il miglior metodo per gestire la complessità del mondo che ci circonda? Il miglior metodo è sicuramente il cogni-duo, termine coniato dallo scrivente 5 per descrivere l’insieme cognitivo formato dal duo “uomo + compu-ter”.

A tal proposito il matematico e studioso di Intelligenza Artificiale Vernor Vinge afferma: «Se ponete un laureato assieme ad un computer, dotato degli opportuni programmi, anche se disconnesso da Internet, esso, alle prese con i più svariati test di cultura generale, sarà in grado di superarne la quasi totalità con risultati brillanti».

Cosa che il laureato non riuscirebbe mai a fare con l’ausilio del suo solo cervello biologico per le limitazioni cognitive che esso presenta e che abbiamo esposto appena tre paragrafi or sono. Quindi il cogni-duo vanta una potenza cognitiva senza pari. Oggi sul pianeta Terra non esiste alcun sistema (biologico o elettronico) a se stante capace di ottenere prestazioni cognitive migliori. Ed è per questo motivo che tutti tendiamo e tenderemo sempre più ad usare i computer! E non parlo solo dei desktop da tavolo e notebook ma palmari e netphone di ogni tipo. Essendo che da un punto di vista darwiniano l’evoluzione favorisce quegli esseri dotati di maggiori capacità cognitive ed essendo che il computer rappresenta un potenziamento neurale significativo del cervello umano, ecco che abbiamo cercato di sviluppare al meglio questa funzionalità creando computer non solo sempre più potenti da un punto di vista hardware ma anche dotati di interfacce verso l’uomo più semplici da usare in modo tale da poterli adoperare come strumenti per accelerare la conoscenza e l’interazione col mondo esterno, ovvero per eseguire quella “manipolazione dell’ambiente” che ci ha consentito, già nel neolitico, di emergere come specie dominante.

Le interfacce in questione sono quei particolari software chiamati “sistemi operativi”. Essi si pongono come intermediari tra il freddo silicio dei computer e quell’elaboratore elettrochimico che è il cervello umano. Si pensi solo al successo planetario del sistema operativo Windows commercializzato nella versione 1.01 nel 1985 e giunto adesso alla versione 7 nel 2010, successo che ha reso Bill Gates, il fondatore di Microsoft, l’uomo più ricco del mondo.

Dal groupware al networking globale

Inizialmente i cogni-duo erano isolati, poi abbiamo scoperto che, collegando due o più cogni-duo tra loro, lo scambio di informazioni produceva sinergicamente un ulteriore “burst” di potenza cognitiva. In particolare questo burst è tanto maggiore quanto più la rete dei cogni-duo è estesa e quanto più è ampia la banda di comunicazione tra i singoli elementi, ovvero quanto più rapidamente i dati viaggiano nella rete.

È proprio per questo che, da circa trent’anni, stiamo realizzando sul pianeta Terra reti sempre più estese di computer e, allo stesso tempo, stiamo cercando di ampliare la banda di comunicazione con cui queste reti comunicano tra loro. Da qui è scaturito il concetto di groupware, come gruppo di persone dotate di computer e collegate tra loro in rete. L’interazione e lo scambio di informazioni tra esse velocizza di molto le attività umane. Ma attenzione, spesso si sente dire: «i computer sono collegati in rete»; questa affermazione è fuorviante: non sono i computer ad essere collegati in rete, sono i cogni-duo ad esserlo! La dimostrazione sta nel fatto che si collegano mille computer in rete il trasferimento di dati tra essi si limita al livello fisico (network layer) ossia a semplici segnali di sincronizzazione, con poche decine di Megabyte senza senso logico trasmessi. Al contrario solo una ventina di cogni-duo connessi trasmetterà sulla rete, se impegnati ad esempio in un lavoro aziendale, una varietà e una quantità di dati (application layer) superiore ai mille computer di cui sopra.

Si pensi ad esempio ad una azienda che ha bisogno di diramare infor-mazioni ai vari dirigenti, da qui ai funzionari e da questi ai numerosi dipendenti. Se i computer non sono collegati in rete si finisce per usare la carta per distribuire circolari e ordini di servizio. Ciò comporta una lentezza operativa notevole, soprattutto se l’azienda dispone di sedi remote. Poi occorre attendere altra carta in risposta per vedere se le disposizioni sono state eseguite, con la lentezza che ne consegue. Se i computer sono connessi in rete invece basta inviare le circolari per posta elettronica e le stesse sono ricevute istantaneamente, quindi i dipendenti iniziano prima ad ottemperare agli ordini e comunicano i risultati in modo altrettanto rapido. Tutto ciò produce un notevole incremento di produttività (e di denaro) dell’azienda. Torniamo quindi qui allo slogan di Microsoft: «Fai di più in meno tempo».

Ma in tale ciclo può essere necessario inviare foto e scansioni ottiche di documenti le quali richiedono file di grandi dimensioni, pertanto se la rete è lenta impiegherà decine di minuti a trasmetterle, se è veloce solo pochi secondi. Da qui la sempre maggior richiesta di banda di trasmissione dati da parte delle aziende del settore produttivo che ha prodotto nel corso di soli venti anni il passaggio dai lenti modem a 14.400 bit/secondo alle veloci ADSL e HDSL da 20 milioni di bit/secondo. E si procede ancora verso il Gigabit/secondo con la installazione pervasiva di reti a fibra ottica nelle città in tutto il mondo. E dove non arriva la connessione via cavo si sono ideate reti via radio localizzate (wi-fi) o reti senza fili a largo raggio (Wimax).

E ancora: la miniaturizzazione dei processori ha reso possibile creare dispositivi portatili che vanno nel palmo di una mano con una potenza di elaborazione in grado di fornire all’utente sia un sistema operativo iconiz-zato-multimediale che un sistema di comunicazione multimodale: voce, video e web (tramite ponti radio UMTS e HDSPA). Ne consegue che un dipendente di una moderna azienda può restare “connesso” ventiquattrore su ventiquattro, sia alla sua intranet che al resto delle reti del pianeta. Si può pertanto affermare che questi sistemi di comunicazione avanzata invalidano le distanze fisiche proiettandoci in una realtà aumentata.

La legge di Metcalfe e l’espansione dei Network

Robert Metcalfe definì negli anni ottanta una legge per assegnare un valore di funzionalità alle reti locali di computer (come le reti Ethernet). Tale legge afferma che questo valore cresce con il quadrato del numero di persone collegate (N2-N ove N è il numero degli utenti connessi). Ad esempio una singola macchina telefax da sola non ha utilità (1-1=0 dato che N=1) ma ampliando il numero di macchine il valore di funzionalità si accresce velocemente, ad esempio con 4 macchine fax abbiamo 42-4=12 mentre con 16 macchine fax abbiamo 162-16=250, quindi lo stesso principio può applicarsi ai cogni-duo connessi in una rete: più è ampio il numero di connessioni, tanto più è vasta la rete e tanto più essa è “utile”. Questa legge spiega pertanto l’enorme successo e la diffusione di Internet passata dai 700.000 utenti connessi nel 1993 (anno in cui viene fondato il World Wide Web) ai 25 milioni del 1994, anno in cui sono presenti su Internet 200.000 siti. Gli utenti connessi passano a 700 milioni nel 2000 mentre oggi abbiamo superato i due miliardi di utenti e abbiamo 200 milioni di siti web online. Se ci si pensa sono numeri impressionanti...

È da citare anche un’altra legge, quella di David Reed del MIT il quale afferma che il valore di una rete, Internet in particolare, cresce in modo esponenziale se associato a gruppi con interessi comuni, che condividono idee, interessi, obiettivi e che abbiano un senso di appartenenza. Questo spiega il boom planetario dei social network quali Facebook, LinkedIn, Twitter, Netlog ecc. Ma cosa si deve intendere per “utilità” di una rete? Credo che si possa rispondere affermando che una rete amplia le possibilità cognitive, in particolare quelle di ricerca di dati e documentazione e permette a noi di inoltrare rapidamente i nostri dati e i nostri documenti ad altre persone connesse, anche molto distanti da noi, in “tempo reale”. C’è davvero da rimanere meravigliati da quello che si può trovare oggi tramite un motore di ricerca come Google o Bing. Cinque anni fa andai a cercare su Google (con scarsissime speranze di trovare qualcosa) informazioni sulla meccanica e sulla tipologia di componenti per un upgrade di un vecchio notebook di marca semisconosciuta. Ebbene in Brasile c’era un utente che aveva messo online addirittura “le foto” di quel particolare notebook e dei sistemi per aprirlo ed estrarre il processore. La interconnessione di centinaia di milioni menti umane unite alla capacità dei computer di trattenere dati e riproporli in “tempo reale” fa oggi di un motore di ricerca una sorta di Oracolo divino al quale si può chiedere tutto, persino i componenti di un farmaco raro, ottenendo una risposta istantanea non riscontrabile anche nella più vasta enciclopedia cartacea esistente.

Questo è quel tipo di fenomeno per il quale Arthur C. Clarke, compianto autore di 2001 Odissea nello spazio, affermava: «Ogni tecnologia sufficientemente avanzata è indistinguibile da quella che un tempo veniva definita “magia”».

Nuove interfacce uomo-computer

Una delle più evidenti limitazioni che ha oggi l’interazione uomo-computer – e che abbatte fortemente la velocità con cui il cervello umano comunica con il cervello elettronico – è nella immissione dei dati.

Tale immissione avviene infatti attraverso una lentissima digitazione di caratteri su una tastiera e la inefficiente selezione di file e programmi iconizzati tramite un mouse. Volendo pensare ad un sistema decisamente più efficiente per comunicare con i computer ed interagire più rapidamente con i network questi dispositivi dovrebbero essere abbandonati a favore di nuove interfacce. Quali? Ad esempio si potrebbero usare dei guanti “Force Feedback” 6 per immettere i dati su una console virtuale proiettata da un visore direttamente sulla retina dell’occhio umano. L’ambiente operativo visibile sarebbe completamente tridimensionale e risulterebbe “navigabile” così come nella realtà si esplora una città tramite una serie di strade principali (le dorsali Internet) e relativi vicoli (le sottoreti). Gli edifici sarebbero invece le relative destinazioni, equiparabili quindi agli attuali siti web. Il tutto sarebbe simulato con una grafica 3D ad alta definizione che rende più rapida e “credibile” l’esplorazione. Uno dei film di fantascienza che ha anticipato questo sistema di interazione uomo-computer è Johnny Mnemonic, interpretato dall’attore Keanu Reeves. Il film è del 1995 ed immagina la interazione uomo-computer come potrebbe essere nel 2021 tramite un terminale futuristico denominato VR3000. Tecnicamente i sistemi operativi, che manderanno in pensione gli attuali, sono denominati “Multidimensional User Interface” e sono già in progetto software specifici da parte di Apple e Google. La sostituzione completa della tastiera prevede però che il computer debba riconoscere perfettamente il parlato umano. In questo caso, invece di battere le parole lentamente tasto per tasto, le pronunceremo al computer che ce le scriverà sullo schermo 3D o eseguirà gli ordini impartiti. Attualmente, date le limitazioni cognitive dei computer, i software di riconoscimento vocale riescono a riconoscere correttamente solo parole scandite perfettamente e solo dopo un “addestramento” e comunque con il 4-5% di errori di media, un rateo poco accettabile. Dei software evoluti, basati su reti neurali, potranno azzerare questo gap ed entro una decina d’anni avremo sicuramente computer e palmari in grado di “ascoltare” correttamente la nostra dettatura.

Interfacciamento neurale: una prospettiva fantascientifica?

Una volta realizzati sistemi di interazione più efficienti tra uomo e computer, ad esempio interfacce retiniche o sistemi di interscambio dati migliorati come quelli visti nel precedente paragrafo, quali avanzamenti cognitivi ulteriori sarebbero possibili? La risposta è: quasi nessuno, il limite sarà stato raggiunto. Occorrerà a questo punto ideare nuove metodologie per un più efficiente interscambio di informazioni tra il cervello umano e i computer. Un sistema che recentemente è stato provato è quello di collegare un chip VLSI biomimetico all’ippocampo.

L’ippocampo è situato nella parte più interna del cervello e si è recen-temente scoperto il suo fondamentale ruolo nella formazione della memoria associativa. Il ruolo dell’ippocampo nella memoria associativa è quello di dare vita alla memoria di lungo termine. Ad esempio, i ricordi di fatti, persone ed esperienze della vita. Danni all’ippocampo portano alla perdita irreversibile della capacità di trasformare la memoria a breve termine in memoria a lungo termine. È esattamente questo che accade nella demenza senile. In un suo recente articolo la giornalista scientifica Daniela Ovadia ha citato alcuni studi che segnalano che la vera evoluzione dell’Homo sapiens è iniziata quando si è sviluppato l’ippocampo. Sono d’accordo con questa teoria dato che in effetti le persone dotate di maggiore intelligenza sono quelle che ricordano meglio e sanno integrare meglio ricordi provenienti da fonti diverse. Inoltre gli animali non sembrano particolarmente dotati in questa facoltà.

Ulteriori studi sono portati avanti dal neurobiologo Theodore W. Berger, direttore del centro di ingegneria neurale alla South California University. Le applicazioni cliniche di impianti biomimetici potrebbero essere quelle di ridare la facoltà di memoria ai pazienti colpiti da un trauma al cervello, da epilessia e dal morbo di Alzheimer. Un’altra e più fondamentale applicazione, della quale non si parla nel sito di Berger, è però quella della risoluzione del declino cognitivo dovuto all’invecchiamento.

E non è una soluzione da poco considerato che la maggior parte di noi perderà irrimediabilmente gran parte delle facoltà cognitive invecchiando (demenza senile). Va tenuto infatti presente che la perdita di tali facoltà equivale tout court ad una morte anticipata. Se da vecchi perderemo l’uso delle gambe ci basterà usare una carrozzella, se perderemo l’uso della parola basterà interfacciarci a un computer per comunicare, ma se perderemo l’uso delle facoltà cognitive avremo perso la nostra stessa essenza vitale, il nostro “io”, e non vi sarà più molta differenza tra questo stato e la morte reale.

Ma come Theodore W. Berger e la sua equipe progettano di reingegnerizzare il cervello umano? Per prima cosa essi hanno studiato come le varie regioni dell’ippocampo reagiscono agli stimoli di segnali in ingresso (input) e producono segnali in uscita (output) atti a produrre un ricordo permanente nella memoria a lungo termine. Di tali segnali è stato misurato il potenziale elettrico. Quindi hanno diviso logicamente queste sezioni a seconda della funzione: CA1, CA3 ecc. e creato dei modelli di funzionamento di ognuna di queste attraverso un algoritmo matematico (Volterra functional power series). In seguito tutti questi modelli sono stati programmati in un chip biomimetico in grado di riprodurli artificialmente. Infine hanno interfacciato gli elettrodi del chip a delle sezioni dell’ippocampo tramite un array “neuron-silicon”. Gli esperimenti sono stati condotti in particolare su un topo a cui è stata rimossa la sezione CA3 del suo ippocampo e sostituita con il chip biomimetico. La misurazione delle variazioni dinamiche dei segnali pre- e post-intervento hanno fatto capire che il chip eseguiva bene il suo lavoro tanto che il topo, sottoposto a comportamenti finalizzati per ricevere il cibo e acqua tramite pressioni di bottoni produceva una relativa memorizzazione di tali comportamenti e tale memoria poteva essere registrata nel chip biomimetico. Si può quindi definire questo animale come il primo brain-cyborg mai creato, ovvero il primo esemplare di essere vivente con un chip innestato nel cervello capace di integrare le funzioni mnemoniche del cervello organico. In seguito gli sperimentatori hanno caricato diverse versioni del software nel chip al fine di potenziare il meccanismo dei ricordi. Ora, con un simile tipo di protesi le capacità cognitive di un cervello organico umano verrebbero notevolmente potenziate in quando verrebbe a cadere i “limiti di Katz” n.2, il n.3 e il n.6 trattati più indietro in questo articolo, ovvero quelli che riguardano la memoria a lungo termine, la possibilità di richiamare i ricordi e rielaborarli velocemente.

Ciò pone anche un problema inverso, di tipo etico, cioè se sia possibile, tramite una protesi ippocampale, innestare ricordi in un cervello biologico che questo cervello non ha mai registrato per esperienza diretta dal mondo esterno, ovvero dei ricordi fantasma che il cervello ha ricevuto per una via “non naturale”. E pensare che Philip K. Dick, nel suo racconto Do Androids Dream of Electric Sheep? da cui venne tratto il famoso film Blade Runner, ipotizzò appunto che a degli esseri artificiali androidi, detti “Replicanti”, potessero essere innestati ricordi umani fantasma nei loro cervelli artificiali. Ciò testimonia senza dubbio l’assoluta genialità di questo autore di fantascienza, in grado di precorrere i tempi. Questo sistema, alla luce dei fatti è davvero realizzabile ed implementabile anche nel cervello umano per coloro che in futuro vorranno comunicare con i computer in modo più rapido ed efficiente rispetto alle pesanti limitazioni che hanno gli attuali sistemi di input/output su cui si basa oggi tale interazione. Potrebbe persino essere realizzato un meccanismo inverso che consenta di memorizzare su memorie artificiali i ricordi naturali di un cervello umano. Certo essi non sarebbero rielaborabili da un elaboratore elettronico ma potrebbero essere messi in salvo da un eventuale degrado dell’organo biologico.

Conclusioni

Tornando all’argomento di partenza vediamo che è in atto una sempre più pervasiva interazione tra il cervello umano e i cervelli elettronici e che per favorire questa interazione sono state prodotte centinaia di migliaia di chilometri di linee dati che abbracciano in una grande rete l’intero pianeta. Reti che, dove non arriva il media fisico vero e proprio, si estendono anche attraverso ponti radio wireless e satellitari. A ciò va aggiunta la produzione massiva di miliardi di software sempre più elaborati e in grado di rispondere alle esigenze più disparate. A questa pervasività dei network si aggiunge la sempre più stringente necessità di un migliore interfacciamento tra il cervello umano e i cervelli elettronici.

Tra i primi ad ipotizzare che in futuro una società tecnologica avrebbe potuto trasformare interi pianeti in mega-elaboratori è stato Hans Moravec. 7 In effetti, a vedere cosa è stato prodotto fino ad ora e cosa stiamo per progettare non si può che dargli ragione. La risposta al “perché” ciò debba avvenire potrebbe essere quella di ritenere che sia il naturale processo evolutivo darwiniano a condurci e guidarci verso questo obiettivo. Vi è oggi una grande sottovalutazione di questo problema, sia da parte delle istituzioni, sia da parte dei singoli individui. È probabile che in un futuro non troppo remoto saranno in molti ad avere delle interfacce avanzate con le macchine. Se questa affermazione può sembrare utopica si pensi solo a cosa avrebbe pensato un uomo medio negli anni ottanta del fatto che oggi andiamo in giro con due videofonini a testa che ci rendono reperibili ventiquattrore su ventiquattro e permanentemente connessi ad un network mondiale con il quale scambiamo continuamente informazioni sotto forma di testi, immagini e video...

Note

  • 1 È accaduto in un ufficio distaccato dell’ente presso quale lavoro che dei ladri rubassero tutta la fornitura di dieci computer nuovi, installati da un paio di mesi. Riposizionammo sulle scrivania dei computer di due generazioni precedenti, destinati alla rottamazione e prelevati da un vecchio magazzino. Dopo una settimana gli utenti riuscivano a svolgere il 95% delle loro normali operazioni.
  • 2 Con ciò non voglio affermare che un semplice personal computer o una rete di PC possa condurre alla depressione i suoi utilizzatori. Però, come vedremo nel seguito, la stringente necessità di aumento della potenza cognitiva a cui portano i network di computer estesi sull’intero pianeta porta il cervello dell’essere umano, che ad essi è permanentemente connesso, a sostenere uno sforzo cognitivo davvero elevato (fare sempre di più in meno tempo vuol dire pensare più velocemente), sforzo per cui il cervello biologico non è predisposto da un punto di vista genetico, in quanto evolutosi per far fronte a compiti completamente diversi.
  • 3 Cfr. http://www.futurology.it
  • 4 Nel 1956 viene realizzato il primo programma di Intelligenza Artificiale su un computer. Né è l’autore Herbert Simon, il quale realizza un software capace di far dimostrare teoremi di logica ad un elaboratore elettronico emulando le capacità di matematici umani.
  • 5 Sono stato costretto a coniare il termine perché sul web non ho trovato riscontri a questa figura, il termine associato HCI (Human Computer Interaction) è infatti relativo alla gestione e progettazione della interfaccia tra uomo e computer, non all’insieme di potenzialità cognitive che tale coppia produce.
  • 6 Il Force Feedback (ritorno di forza) è un sistema attuato sui joypad delle console Playstation di Sony e Xbox di Microsoft che consente di trasmettere, tramite vibrazioni più o meno intense, all’utilizzatore del videogioco 3D le sensazioni di urto, caduta, sfregamento ecc. Si pensi ad esempio ad un game di gara automobilistica nel quale l’auto salta su un cordolo (vibrazione leggera) o sbatte su un guardrail (vibrazione da contraccolpo).
  • 7 Cfr. H. Moravec, Robot: mere machine to transcendent mind, Oxford University Press, Oxford 1999. In particolare, il capitolo “The Age of Robot”.

Contatto progettista

Puoi contattare la progettista del sito compilando questo modulo (tutti i campi sono necessari)