Testo pubblicato nel libro "Ripartiamo dal netWork", abbinato alla rivista Reset, e presente all'indirizzo http://www.nwork.it/nuovo/libro_reset/Ripartiamo%20dal%20netWork.htm

Perchè il futuro non ha bisogno di noi.
Le più potenti tecnologie del XXI secolo - robotica, ingegneria genetica, e nanotecnologie - minacciano di fare dell’umanità una specie a rischio.

di Bill Joy *

Fin dal momento in cui iniziai ad occuparmi della creazione di nuove tecnologie, mi sono preoccupato della loro dimensione etica, ma soltanto nell’autunno 1998 divenni acutamente consapevole della gravità dei pericoli che dobbiamo fronteggiare nel XXI secolo. Posso datare l’inizio del mio disagio al giorno in cui incontrai Ray Kurzweil, meritatamente famoso per aver inventato la prima apparecchiatura che consente di leggere ai non vedenti e molte altre cose straordinarie.

Ray e io eravamo entrambi oratori alla conferenza della Telecosm di George Gilder, e ci incontrammo per caso al bar dell'albergo, dopo la conclusione delle nostre sessioni di lavoro.. Sedevo con John Searle, un filosofo di Berkeley che studia la coscienza. Mentre stavamo parlando, Ray ci si avvicinò e avviammo una conversazione il cui soggetto mi inquieta ancor oggi.

Non avevo potuto ascoltare la relazione di Ray e il successivo seminario cui avevano partecipato Ray e John, e loro ripresero il dialogo esattamente dove lo avevano interrotto, con Ray che sosteneva che le tecnologie stavano progredendo a un ritmo sempre più rapido, e noi eravamo destinati a divenire dei robot o a fonderci con i robot o qualche cosa del genere, e con John che gli contestava come questo non sarebbe potuto accadere, perché i robot non possono essere consapevoli.

Se è vero che avevo già sentito fare discorsi simili, avevo sempre pensato che i robot senzienti appartenessero al regno della fantascienza. Ma ora, da qualcuno che rispettavo, ascoltavo una seria argomentazione che sosteneva come si trattasse di una possibilità a breve termine. Ero stupefatto, soprattutto in considerazione della provata capacità di Ray di immaginare e creare il futuro. Sapevo già che nuove tecnologie come l’ingegneria genetica e la nanotecnologia ci stavano dando il potere di ricreare il mondo, ma uno scenario realistico e imminente che prevedesse robot intelligenti mi sorprendeva.

È facile abituarsi a rivelazioni del genere. Quasi ogni giorno veniamo a sapere dai notiziari di qualche genere di progresso tecnologico o scientifico. Ma qui non si trattava di una predizione qualsiasi. Nel bar dell’albergo, Ray mi consegnò una bozza parziale del suo libro, allora di imminente pubblicazione, The Age of Spiritual Machine, che delineava l’utopia da lui prevista – un’utopia nella quale gli uomini conquistavano la quasi immortalità diventando tutt’uno con la tecnologia robotica. Leggendolo, il mio senso di disagio non fece che intensificarsi; ero sicuro che Ray stesse sottovalutando i pericoli, sottostimando la probabilità di un esito negativo lungo questo cammino. Mi turbò particolarmente un passo che descriveva nel dettaglio uno scenario distopico:

 

LA NUOVA SFIDA LUDDISTA

Postuliamo prima che gli scienziati informatici riescano a sviluppare macchine intelligenti in grado di fare tutto meglio degli esseri umani. In tal caso, con ogni probabilità qualunque lavoro sarà svolto da enormi sistemi di macchine, altamente organizzati, senza che sia necessario alcuno sforzo umano. Si danno in tal caso due possibilità. Alle macchine si potrebbe consentire di prendere tutte le decisioni da sole, senza la supervisione dell’uomo, oppure si potrebbe mantenere il controllo umano sulle macchine.

Se si consente alle macchine di prendere da sole tutte le decisioni, non possiamo fare congetture riguardo ai risultati, perché sarebbe impossibile indovinare oggi in che modo tali macchine potrebbero comportarsi. Ci limitiamo a sottolineare che il destino della razza umana sarebbe alla mercè delle macchine. Si potrebbe ribattere che la razza umana non sarebbe mai così stupida da consegnare tutto il potere alle macchine. Ma noi non stiamo ipotizzando che la razza umana consegnerebbe volontariamente il potere alle macchine, e nemmeno che le macchine si impadronirebbero volontariamente del potere. Quel che suggeriamo è che la razza umana potrebbe facilmente permettersi di scivolare in una posizione di dipendenza tale dalle macchine, che non avrebbe altra scelta pratica che accettare tutte le decisioni delle macchine. Mentre la società e i problemi che deve affrontare diventano sempre più complessi, e le macchine diventano sempre più intelligenti, gli uomini lasceranno sempre più alle macchine il compito di prendere decisioni per loro, per il semplice motivo che le decisioni prese dalle macchine poteranno a risultati migliori di quelle prese dagli uomini. Si potrebbe alla fine raggiungere un livello nel quale le decisioni necessarie alla perpetuazione del sistema saranno talmente complesse che gli uomini saranno incapaci di prenderle in modo intelligente. A questo stadio le macchine avranno raggiunto l’effettivo potere di controllo. Gli uomini non saranno in grado di spegnere le macchine e basta, perché dipenderanno a tal punto da loro che spegnerle sarebbe un suicidio.

Dall’altra parte, è possibile che si possa preservare il controllo umano sulle macchine. In tal caso, l’uomo medio potrà controllare alcune macchine private di sua proprietà, come la sua auto o il suo personal computer, ma il controllo sui grandi sistemi sarà nelle mani di una piccolissima élite – proprio come oggi, ma con due differenze. A causa del progresso tecnico, l’élite avrà un controllo maggiore sulle masse; e poiché il lavoro umano non sarà più necessario, le masse saranno superflue, un inutile peso gravante sul sistema. Se le élite sono prive di scrupoli, possono semplicemente decidere di sterminare la gran massa dell’umanità. Se sono umane, possono usare la propaganda, o altre tecniche psicologiche o biologiche, per ridurre la crescita demografica fino all’estinzione della massa dell’umanità, che lascerebbe il mondo in mano alle élite. Oppure, se l’élite consisterà di liberali dal cuore tenero, costoro potranno decidere di giocare il ruolo dei buoni pastori nei confronti del resto della razza umana. Provvederanno a che le necessità fisiche di ciascuno siano soddisfatte, a che tutti i bambini siano cresciuti in condizioni psicologicamente idonee, che tutti abbiamo un hobby sano che li tenga occupati, e che tutti coloro che cadono nell’insoddisfazione siano sottoposti a «trattamenti» per la cura dei loro «problemi». Ovviamente, la vita sarebbe così priva di senso che le persone dovranno essere modificate biologicamente o psicologicamente per privarle dell’esigenza di partecipare al processo di potere o per «sublimare» la loro brama di potere in qualche hobby innocuo. Questi esseri umani geneticamente modificati potrebbero anche essere felici, in una società di questo tipo, ma certamente non sarebbero liberi. Dovranno essere ridotti allo status di animali domestici.

 

Nel libro non si scopre, finché non si volta pagina, che l’autore di questo passo è Theodore Kaczynski - l'Unabomber. Non intendo difendere Kaczynski. Le sue bombe uccisero tre persone in una campagna di terrore durata 17 anni, e ne ferirono molte altre. Uno dei suoi ordigni ha ferito gravemente il mio amico David Gelernter, uno degli informatici più brillanti e visionari del nostro tempo. Come molti dei miei collegi, sapevo che avrei potuto essere facilmente il prossimo obiettivo di Unabomber.

Le azioni di Kaczynski erano criminali e, a mio parere, dettate da pazzia criminale. È chiaramente un Luddista, ma dire questo non basta ad annullare il suo ragionamento. Per quanto mi costi ammetterlo, devo riconoscere dei meriti al suo ragionamento esposto in questo brano. Mi sono sentito costretto a confrontarmici.

La visione distopica di Kaczynski descrive conseguenze involontarie, un problema ben noto nella progettazione e nell’utilizzo della tecnologia, problema chiaramente legato alla legge di Murphy - «se qualcosa può andare male, lo farà». (in realtà, questa è la legge di Finagle, il che basta a dimostrare quanto Finagle avesse ragione). L’abuso di antibiotici ha condotto a quello che potrebbe essere il più grave dei problemi di questo tipo, almeno finora: la comparsa di batteri antibiotico-resistenti e molto più pericolosi. Accadde qualcosa di simile quando i tentativi di elimitare le zanzare della malaria usando il DDT le portò a sviluppare la resistenza al DDT; i parassiti della malaria acquisirono anche geni resistenti a un gran numero di farmaci.

La causa di molte sorprese simili sembra chiara: i sistemi coinvolti sono complessi, e implicano interazione e risposte reciproche da molte parti in causa. Qualunque modifica a un sistema siffatto si ripercuote a cascata in modi difficilmente prevedibili; e ciò è tanto più vero quando vi sono coinvolte azioni umane.

 

Ho incominciato a mostrare ad altri amici la citazione di Kaczynski da The Age of Spiritual Machines. Davo loro il libro di Kurzweil, facevo leggere la citazione, poi osservavo la loro reazione quando scoprivano il nome dell’autore. All’incirca nello stesso periodo scoprii il libro di Hans Moravec: Robot: Mere Machine to Transcendent Mind. Moravec è uno dei leader nella ricerca sulla robotica, e fondatore del più grande programma di ricerca di robotica a livello mondiale, alla Carnegie Mellon University. Robot mi fornì ulteriore materiale da sperimentare sui miei amici - materiale che corroborava in maniera sorprendente le argomentazioni di Kaczynski. Per esempio:

 

A breve termine (primi anni 2000)

Le specie biologiche non sopravvivono quasi mai agli incontri con concorrenti superiori. Dieci milioni di anni fa, Sud e Nord America furono separate dallo sprofondare dell’istmo di Panama. L’America meridionale, come l’Australia oggi, era popolata da mammiferi marsupiali, tra cui l’equivalente marsupiale di ratti, cervi e tigri. Quando l'istmo che collega l’America del Nord a quella del Sud emerse dalle acque, occorsero soltanto poche migliaia di anni perché le specie settentrionali, placentali, dotate di un metabolismo di poco più efficace e di migliori sistemi riproduttivi e nervosi, cacciassero ed eliminassero quasi tutti i marsupiali meridionali.

In un mercato completamente libero, i robot superiori danneggerebbero sicuramente l’esistenza degli esseri umani, esattamente come i placentali nordamericani danneggiarono i marsupiali sudamericani (e come gli esseri umani hanno danneggiato innumerevoli specie). Le industrie della robotica entrerebbero in accesa competizione tra loro per il possesso delle materie prime, dell’energia, dello spazio, portando incidentalmente il loro prezzo oltre la portata dell’uomo. Incapaci di permettersi le necessità della vita, gli esseri umani biologici sarebbero stritolati fino a cessare di esistere.

C'è probabilmente qualche via di scampo, perché noi non viviamo in un mercato completamente libero. Il governo vincola il comportamento del non-mercato, soprattutto tramite la riscossione delle tasse. Applicata con giudizio, la coercizione governativa potrebbe sostenere la popolazione umana consentendole di sfruttare il lavoro dei robot, forse per molto tempo ancora.

Moravec prosegue spiegando come il nostro impegno principale nel XXI secolo sarà quello di «garantire la protratta cooperazione da parte delle industrie dei robot» tramite l’approvazione di leggi che imporranno loro di essere «buoni», poi descrive quanto possa essere pericoloso un essere umano «una volta trasformato in un robot senza controllo e superintelligente». Nella visione di Moravec, i robot alla fine avranno la meglio su di noi – e gli esseri umani si trovano chiaramente a un passo dall’estinzione.

Decisi che era tempo di parlare con il mio amico Danny Hillis. Danny divenne famoso come cofondatore della Thinking Machines Corporation, che costruì un supercomputer parallelo e molto potente. Nonostante la mia carica attuale di Direttore della ricerca scientifica alla Sun Microsystems, sono più un architetto del computer che uno scienziato, e rispetto la competenza di Danny sulle scienze fisiche e informatiche, competenza che ritengo superiore a quella di qualunque altra persona di mia conoscenza. Danny è anche un futurologo estremamente rispettato, che pensa a lungo termine - quattro anni fa diede vita alla Long Now Foundation, che sta costruendo un orologio destinato a durare 10,000 anni, nel tentativo di attirare l’attenzione sulla capacità di pensare spaventosamente a breve termine della nostra società. (Cfr. "Test of Time," Wired 8.03, p. 78.)

Volai quindi a Los Angeles all’apposito scopo di cenare con Danny e sua moglie, Pati. Ripetei la routine ormai divenuta familiare, riesponendo ancora una volta idee e testi che trovavo tanto inquietanti. La risposta di Danny - diretta specificamente allo scenario descritto da Kurzweil, degli esseri umani che si fondano con i robot – fu prontissima e mi sorprese abbastanza. Disse semplicemente che questi cambiamenti sarebbero avvenuti in modo graduale, e ci saremmo abituati ad essi.

Ma immagino di non essere stato del tutto sorpreso. Avevo letto una citazione di Danny nel libro di Kurzweil, nel quale diceva «Amo il mio corpo come tutti, ma se posso vivere fino a 200 anni con un corpo di silicone, ne approfitterò». Mi sembrava aver accettato questo processo e i rischi ad esso connessi, mentre io non facevo altrettanto.

Mentre parlavo e pensavo a Kurzweil, Kaczynski, e Moravec, ricordai improvvisamente un romanzo che avevo letto circa 20 anni fa - The White Plague, di Frank Herbert - in cui un biologo molecolare impazzisce in seguito all’insensato massacro della sua famiglia. Per vendicarsi, costruisce e diffonda una malattia nuova e contagiosissima con una mortalità altissima ma selettiva (per nostra fortuna, Kaczynski era un matematico, non un biologo molecolare.) Mi tornarono in mente anche i Borg di Star Trek, una popolazione di creature in parte biologiche e in parte robotiche, con un fortissimo impulso distruttivo. Simili orrori sono un cavallo di battaglia della fantascienza: come mai dunque non mi ero maggiormente preoccupato, in precedenza, di queste distopie roboriche? Perché gli altri non si preoccupavano maggiormente all’idea di questi scenari da incubo?

Parte della risposta risiede certamente nel nostro atteggiamento verso il nuovo – nella nostra inclinazione verso la familiarità e l’accettazione incondizionata. Abituati a vivere tra continue scoperte scientifiche ormai diventate di routine, ancora non siamo riusciti a venire a patti con il fatto che le più importanti tecnologie del XXI secolo – robotica, ingegneria genetica e nanotecnologia – pongono una minaccia diversa da quella rappresentata dalle precedenti tecnologie. In particolare, i robot, gli organismi transgenici e i nanobot hanno in comune un pericoloso fattore amplificante: sono in grado di autoreplicarsi. Una bomba può scoppiare soltanto una volta – ma un solo bot può costruirne altri e sfuggire rapidamente a ogni controllo.

Gran parte del mio lavoro negli ultimi 25 anni ha riguardato il computer networking, dove l’invio e la ricezione dei messaggio crea la opportunità di una ripetizione incontrollata. Ma se la ripetizione in un computer o in una rete di computer può costituire una grossa seccatura, il peggio che può fare è mettere fuori uso una macchina o interrompere una rete o un servizio. L’autoriproduzione incontrollata comporta, in queste nuove tecnologie, un rischio ben più grave: il rischio di un danno sostanziale al mondo fisico.

Ognuna di queste tecnologie offre anche promesse inaudite: La visione della quasi immortalità ipotizzata da Kurzweil nei suoi sogni robotici ci spinge ad andare oltre; l’ingegneria genetica potrà presto offrire possibilità di trattamento, se non di cura definitiva, per la maggior parte delle malattie; e la nanotecnologia e nanomedicina potranno affrontare un numero di malattie ancora maggiore. Insieme, potranno estendere in modo significativo la nostra aspettativa di vita e migliorare la qualità delle nostre vite. Pure, con ciascuna di queste tecnologie, una sequenza di piccoli passi avanti a livello individuale porta all’accumularsi di grande potere e, contemporaneamente, di grande pericolo.

In che cosa il XX secolo era diverso? Certamente, le tecnologie alla base delle armi di distruzione della massa (WMD) - nucleare, biologico, e chimico (NBC) - erano potenti, e le armi rappresentavano una minaccia enorme. Ma la costruzione di armi nucleari richiese, almeno per un lungo periodo di tempo, l’accesso sia a materie prime rare – anzi, di fatto non disponibili – sia a informazioni estremamente protette e riservate; anche i programmi di armi biologiche e chimiche tendevano ad esigere attività su larga scala.

Le tecnologie del XXI secolo - genetica, nanotecnologia, e robotica (GNR) – sono così potenti che possono diffondere intere serie di nuovi incidenti e abusi. Quel che è più pericoloso, è il fatto che per la prima volta tali incidenti e abusi sono alla portata di singoli individui o di piccoli gruppi. Non richiedono grandissimi impianti o rare materie prime. Basterà la conoscenza a consentirci di usarle.

In questo modo abbiamo la possibilità non soltanto di produrre armi di distruzione di massa ma di produrre una distruzione di massa abilitata dalla conoscenza, e la distruttività di queste ultime sarà enormemente amplificata dal potere di autoriproduzione.

Non credo sia un’esagerazione dire che siamo sull’orlo del futuro perfezionamento del male estremo, un male la cui possibilità va ben oltre quella che le armi di distruzione di massa affidavano nelle mani degli stati nazionali, consentendo una straordinaria e terribile assunzione di potere da parte di singoli individui estremisti.

Nulla, nel modo in cui ho iniziato a lavorare con i computer, mi aveva fatto pensare che mi sarei trovato a dover affrontare problemi di questo genere.

La mia vita è stata guidata da un bisogno profondo di fare domande e trovare risposte. A tre anni sapevo già leggere, e mio padre mi portò alla scuola elementare, dove sedetti in braccio al direttore e gli lessi una storia. Cominciai la scuola in anticipo, più tardi saltai una classe e mi rifugiavo nei libri – ero incredibilmente motivato alla lettura. Facevo una quantità di domanda, spesso per l’esasperazione degli adulti.

Da adolescente, mi interessai moltissimo a scienza e tecnologia. Volevo diventare radioamatore, ma non avevo i soldi per comprare l’attrezzatura. Il baracchino era l’Internet dell’epoca: dava assuefazione ed era piuttosto solitario. A parte la questione monetaria, mia madre si oppose categoricamente: non sarei diventato radioamatore, ero già antisociale a sufficienza.

Forse non avevo molti amici intimi, ma ero un vulcano di idee. Al liceo avevo scoperto i grandi scrittori di fantascienza. Ricordo specialmente Have Spacesuit Will Travel di Heinlein, e I, Robot di Asimov con le sue Tre Leggi della Robotica. Mi incantavano le descrizioni dei viaggi nello spazio, e desideravo avere un telescopio per osservare le stelle: poiché non avevo i soldi per comprane o costruirne uno, consultavo in biblioteca i libri sulla costruzione dei telescopi e immaginavo di fabbricarne uno. Volavo sulle ali della mia fantasia.

Il giovedì sera i miei genitori andavano al Bowling, e noi bambini restavamo a casa da soli. Il govedì trasmettevano lo Star Trek originale, quello di Gene Roddenberry, e il programma mi fece una grande impressione. Finii per accettare l’idea che gli esseri umani avevano un futuro nello spazio in stile Western, con grandi eroi e meravigliose avventure. La visione di Roddenberry dei secoli a venire era fondata su forti valori morali, espressi in codici come quello della Prima Direttiva: non interferire nello sviluppo di civiltà meno progredite tecnologicamente. Tutto ciò esercitò su di me un fascino incredibile; esseri umani etici, non robot, dominavano tale futuro, e il sogno di Roddenberry divenne parte integrante dei miei.

Al liceo brillavo in matematica, e quando mi iscrissi all'Università del Michigan, alla facoltà di ingegneria, scelsi il piano di studio progredito della laurea in matematica. La soluzione di problemi matematici era una sfida eccitante, ma quando scoprii i computer trovai qualcosa di molto più interessante: una macchina nella quale si poteva inserire un programma che tentava di risolvere un problema, dopo di che la macchina in un batter d’occhio controllava la soluzione. Il computer aveva un chiarissimo concetto di corretto e scorretto, di vero e falso. Erano corrette le mie idee? La macchina era in grado di dirmelo. Era estremamente affascinante.

Fui abbastanza fortunato da trovare un lavoro come programmatore dei primi supercomputer, e scoprii l’immenso potere delle grandi macchine. Quando mi iscrissi all’istituto superiore di UC Berkeley, a metà degli anni settanta, cominciai a stare sveglio fino a notte fonda, spesso fino al mattino, ad inventare nuovi mondi all’interno delle macchine. A risolvere problemi. A scrivere il codice che chiedeva con tanta insistenza di essere scritto.

In The Agony and the Ecstasy, la biografia romanzata di Michelangelo scritta da Irving Stone, l’autore descrive con grande vivezza come Michelangelo liberava le statue dalla pietra, «spezzando l’incantesimo del marmo», scalpellando in base alle immagini nella sua mente. Nei miei momenti più estatici, il software del computer emergeva allo stesso modo. Una volta che lo avevo immaginato nella mia mente, sentivo che era già nella macchina, e aspettava solo di essere liberato. Stare sveglio tutta la notte mi sembrava un prezzo modesto per la sua liberazione – per dare alle idee una forma concreta.

Dopo alcuni anni a Berkeley cominciai a spedire alcuni dei software che avevo scritto - un sistema Pascal didattico, alcune utilities per Unix, e un text editor chiamato vi (che, con mia grande sorpresa, viene tuttora largamente utilizzato, oltre vent’anni dopo) ad altre persone che avevamo piccoli PDP-11 e minicomputer VAX come i miei. Queste avventure nel software sfociarono alla fine nella versione di Berkeley del sistema operativo Unix, che divenne il mio personale «disastroso successo» - erano così tante le persone che volevano vederlo finito, che non conclusi mai il mio Dottorato. Ottenni invece un lavoro alla Darpa, per immettere il Berkeley Unix su Internet, perfezionarne la affidabilità e sicurezza per metterlo in grado di gest9re al meglio anche grandi applicazioni di ricerca. Fu molto divertente e gratificante. E francamente non vedevo alcun robot in tutto questo, né nelle vicinanze.

Tuttavia, all’inizio degli anni ottanta stavo affogando. Le varie edizioni di Unix riscuotevano un notevole successo, e il mio piccolo progetto trovò presto un po’ di soldi e del personale, ma il problema a Berkeley era quello dello spazio più che dei soldi – non c’era lo spazio materiale per chi doveva lavorare al progetto, perciò quando gli altri fondatori della Sun Microsystems si fecero avanti, non esitai ad unirmi a loro. Alla Sun vivemmo l’epoca delle prime workstations e dei personal computer, e mi sono molto divertito a partecipare alla creazione delle tecnologie avanzate dei microprocessori e di Internet, come Java e Jini.

Da tutto questo, credo di aver chiarito che non sono un luddista. Al contrario, ho sempre avuto una grande fede nel valore della ricerca scientifica della verità e nella capacità dell’ingegneria di generare progresso materiale. La Rivoluzione Industriale ha incommensurabilmente migliorato la vita di tutti negli ultimi duecento anni, e ho sempre pensato che la mia attività avrebbe implicato la costruzione di soluzioni valide a problemi reali, un problema alla volta.

Non sono stato deluso. Il mio lavoro ha avuto più impatto di quello che avrei osato sperare, ed è stato più sfruttato di quanto avrei potuto ragionevolmente attendermi. Ho trascorso gli ultimi 20 anni a cercare di rendere i computer il più affidabili possibile (siamo ancora molto lontani dal risultato che vorrei) e di renderli facili da usare (un obiettivo sul quale abbiamo avuto ancor meno successo). Nonostante alcuni progressi, i problemi che restano da affrontare sembrano ancora più difficili da risolvere.

Ma pur essendo consapevole dei dilemmi morali che circondano le conseguenze della tecnologia in campi quali la ricerca sugli armamenti, non pensavo che avrei dovuto affrontare temi di questo genere nel mio personale settore di lavoro, o almeno non così presto.

Forse sempre è difficile cogliere la portata maggiore mentre ci si trova all’interno di un vortice di cambiamento. Non riuscire a comprendere le conseguenze delle nostre invenzioni sull’onda dell’entusiasmo per le nostre scoperte e innovazioni, sembra essere un difetto comune tra scienziati e tecnici: sospinti dall’inestinguibile sete di conoscenza, che è la natura della ricerca scientifica, non sappiamo fermarci per accorgerci che il progresso verso tecnologie nuove e sempre più potenti può finire per assumere una esistenza propria e indipendente.

Da tempo ho compreso che i grandi progressi nella tecnologia informatica non dipendono dall’opera di scienziati, architetti o ingegneri del settore, ma bensì da quella dei fisici. I fisici Stephen Wolfram e Brosl Hasslacher mi fecero conoscere, nei primi anni ottanta, la teoria del caos e i sistemi nonlineari. Negli anni novanta mi interessai ai sistemi complessi a partire da conversazioni con Danny Hillis, il biologo Stuart Kauffman, il premio Nobel per la fisica Murray Gell-Mann, e altri. Più recentemente, Hasslacher e l'ingegnere e fisico Mark Reed mi hanno fatto percepire alcune delle incredibili potenzialità dell’elettronica molecolare.

Nel mio lavoro, come codesigner di tre architetture di microprocessori - SPARC, picoJava, e MAJC - e come progettista di diversi sviluppi di tali progetti, ho avuto la possibilità di familiarizzare direttamente e profondamente con la legge di Moore. Per molti decenni la legge di Moore ha predetto correttamente il tasso esponenziale di miglioramento della tecnologia dei semiconduttori. Fino allo scorso anno pensavo che il tasso di avanzamento predetto dalla legge di Moore sarebbe potuto continuare allo stesso livello solo fino al 2010 circa, quando alcune limitazioni fisiche gli avrebbero posto qualche freno. Non mi sembrava affatto ovvio che nel frattempo avrebbe fatto la propria comparsa una nuova tecnologia, che avrebbe consentito la prosecuzione del progresso in corso.

Ma a causa del recente progresso rapido e radicale nell’elettronica molecolare – dove singoli atomi e molecole sostituiscono litograficamente i transistor – e nelle tecnologie in nanoscala ad essa correlate, dovremmo essere in grado di mantenere o addirittura superare il tasso di progresso previsto dalla legge di Moore per altri 30 anni. Entro il 2030 è probabile che saremo in grado di costruire, in grande quantità, macchine un milione di volte più potenti dei personal computer odierni – sufficienti a realizzare le previsioni di Kurzweil e Moravec.

Poiché questo enorme potere dei computer si unisce ai progressi delle scienze fisiche e alle nuove e profonde conoscenze della genetica, si sta scatenando un immenso potere trasformativo. Questo insieme di cose offre l’opportunità di una completa ristrutturazione del mondo, in meglio o in peggio. I processi di riproduzione e di evoluzione, finora confinati al mondo naturale, stanno per fare il loro ingresso nel regno dell’attività umana.

Nel progettare software e microprocessori, non ho mai avuto la sensazione di star progettando una macchina intelligente. Il software e l’hardware sono così fragili, e le capacità di «pensiero» delle macchine così chiaramente assenti che questa eventualità, anche come mera possibilità, è sempre sembrata lontanissima nel futuro.

Ma ora, con la prospettiva di un computer con potenzialità a livello umano sviluppabile entro una trentina di anni, si affaccia un’idea nuova: che io possa star lavorando alla creazione di strumenti che consentiranno la costruzione della tecnologia che potrebbe sostituire la nostra specie. Come mi sento a quest’idea? Molto a disagio. Dopo aver lavorato per tutta la mia vita lavorativa alla costruzione di sistemi di software affidabili, mi sembra più che probabile che questo futuro non funzionerà affatto così bene come alcuni immaginano. La mia esperienza personale suggerisce che noi tendiamo a sopravvalutare le nostre capacità progettuali.

Dato il potere incredibile di queste tecnologie nuove, non dovremmo chiederci quale sarà il modo migliore di coesistere con esse? E se la nostra stessa estinzione è una probabile, o anche solo possibile, conseguenza dei nostri sviluppi tecnologici, non dovremmo procedere con la massima cautela?

Il sogno della robotica è, primo, che le macchine intelligenti possano lavorare al posto nostro, consentendoci di vivere senza faticare, restituendoci alle condizioni dell’Eden. Ma nella sua storia di queste idee, Darwin Among the Machines, George Dyson avverte: «Nella partita della vita e dell’evoluzione vi sono tre giocatori attorno al tavolo: gli esseri umani, la natura e le macchine. Io sto decisamente dalla parte della natura. Ma la natura, sospetto, è dalla parte delle macchine». Come abbiamo visto, Moravec è d’accordo con lui, essendo convinto che potremmo benissimo non sopravvivere allo scontro con la specie superiore dei robot.

Quando potrà essere costruito un robot intelligente di questo tipo? I progressi nella potenza dei computer sembrano renderlo possibile entro il 2030. E una volta creato un robot intelligente, il passo verso la nascita della specie dei robot – cioè verso un robot intelligente in grado di generare copie di se stesso – è davvero breve.

Il secondo sogno della robotica è che ci autosostituiremo gradualmente con la tecnologia robotica da noi costruita, raggiungendo virtualmente l’immortalità scaricando la nostra consapevolezza; è questo il processo a cui, secondo Danny Hillis, dovremo gradualmente abituarci, e che Ray Kurzweil spiega in modo elegante e dettagliato in dettagli in The Age of Spiritual Machines. (già iniziamo a vederne un’anticipazione nell’impianto di microchip nel corpo umano, come illustrato nella copertina di Wired 8.02)

Ma se ci trasformiamo nella nostra tecnologia, quali possibilità ci sono che in seguito continueremo ad essere noi stessi, o semplicemente ad essere umani? Mi sembra molto più probabile che un’esistenza robotica non sarà identica a un’esistenza umana, quale che sia il significato che attribuiamo a questa espressione, e che i robot non potrebbero in alcun senso essere i nostri figli, e procedendo su questo cammino la nostra umanità rischia di perdersi per sempre.

L’ingegneria genetica promette di rivoluzionare l’agricoltura aumentando la produzione e riducendo al contempo l’uso dei pesticidi; di creare decine di migliaia di nuove specie di batteri, di piante, di virus e di animali; di sostituire o affiancare la riproduzione con la clonazione; di creare la cura per molte malattie, prolungando e migliorando la nostra vita; e molte cose ancora. Sappiamo con certezza che questi profondi cambiamenti nelle scienze biologiche sono imminenti, e che metteranno in discussione tutte le nostre idee su che cosa sia la vita.

Tecnologie come la clonazione umana in particolare hanno acuito la nostra consapevolezza riguardo ai profondi temi etici e morali che dovremo affrontare. Se per esempio siamo destinati a riprogettarci in numerose specie distinte e ineguali, sfruttando le potenzialità dell’ingegneria genetica, allora rischiamo di minacciare il concetto di uguaglianza che è la pietra angolare della nostra democrazia.

Dato il potere incredibile dell’ingegneria genetica, non stupisce che al suo uso si affianchino importanti questioni di sicurezza. Il mio amico Amory Lovins ha recentemente scritto insieme a Huner Lovins, un editoriale che espone il punto di vista ecologico su alcuni di tali rischi. Tra le preoccupazioni principali: che «la nuova botanica preveda lo sviluppo di piante in base al loro successo economico, non evolutivo» (si veda "A Tale of Two Botanies" pag. 247). La lunga carriera di Amory si è concentrata sull’efficacia di energia e risorse assumendo il punto di vista del sistema globale sui sistemi creati dall’uomo. Questa visione globale è spesso in grado di trovare soluzioni semplici e intelligenti a problemi che apparivano altrimenti complessi e difficili, e anche in questo caso è stata adottata con successo.

Dopo l’editoriale di Lovins, ho letto un articolo di Gregg Easterbrook sul New York Times (19 Novembre 1999) sulle colture geneticamente modificate, dal titolo «Cibo per il Futuro: presto il riso conterrà vitamina A. A meno che non vincano i Luddisti».

Amory e Hunter Lovins sono Luddisti? Certamente no. Credo saremmo tutti d’accordo che il nuovo riso con il suo contenuto di vitamina A sarebbe probabilmente una cosa buona, se sviluppato con l’adeguata attenzione e il giusto rispetto per i possibili rischi connessi con la modificazione dei geni e il loro trapianto da una specie a un’altra.

La consapevolezza dei pericoli insisti nella ingegneria genetica sta cominciando a crescere, e l’editoriale di Lovins ne è un riflesso. L’opinione pubblica è consapevole, e diffidente, dell’esistenza di cibo geneticamente modificato, e sembra respingere l’idea che questi alimenti possano essere immessi sul mercato senza un’etichetta distintiva.

Ma la tecnologia dell’ingegneria genetica è già molto avanti. Come osserva Lovins, l'USDA ha già approvato circa 50 colture geneticamente modificate che possono essere immesse sul mercato senza limitazioni. Oltre la metà dei semi di soia venduti nel mondo e un terzo del mais contengono geni provenienti da altre forme di vita. Anche se in questo campo entrano in gioco molti temi importanti, la mia principale preoccupazione riguardo all’ingegneria genetica è più ristretta: quello che mi spaventa è il fatto che essa conferisce il potere di costruire – militarmente, per errore o per un deliberato atto terroristico – una «White plague», una malattia nuova e spaventosa.

Le molte meraviglie della nanotecnologia furono immaginate per la prima volta dal fisico premio Nobel Richard Feynman, in un discorso pronunciato nel 1959 e in seguito pubblicato con il titolo There's Plenty of Room at the Bottom. Ma il libro che più mi colpì, verso la metà degli anni ottanta, fu quello di Eric Drexler, Engines of Creation, nel quale splendidamente descrive come la manipolazione della materia a livello atomico potrebbe creare un futuro utopico di abbondanza, dove tutto sarebbe stato disponibile in grande quantità e a bassissimo costo, e malattie e problemi fisici si sarebbero potuti risolvere in modo oggi inimmaginabile grazie alla nanotecnologia e alle intelligenze artificiali.

Un libro successivo, Unbounding the Future: The Nanotechnology Revolution di cui Drexler era coautore, immagina alcuni dei cambiamenti che potrebbero aver luogo in un mondo che disponesse di «assemblatori» a livello molecolare. Gli assemblatori potrebbero rendere possibile l’uso a basso costo di energia solare, di cure per il cancro e per il comune raffreddore grazie al potenziamento del sistema immunitario, potrebbero garantire un disinquinamento completo dell’ambiente, consentire la fabbricazione di supercomputer tascabili a costi incredibilmente bassi – di fatto, qualunque prodotto potrebbe essere fabbricato dagli assemblatori a un costo non superiore a quello del legno – i voli spaziali sarebbero più accessibili degli odierni voli transoceanici e si potrebbero addirittura riportare in vita specie estinte da tempo.

Ricordo di aver avuto un atteggiamento positivo nei confronti della nanotecnologia dopo aver letto Engines of Creation. In quanto tecnologo io stesso, mi aveva trasmesso una sensazione di calma – cioè, la nanotecnologia ci dimostrava che un progresso incredibile era possibile, forse addirittura inevitabile. Se la nanotecnologia era il nostro futuro, allora non c’era bisogno che mi preoccupassi troppo di risolvere così tanti problemi nel presente. Avrei raggiunto a tempo debito il futuro utopico di Drexler; potevo quindi godermi di più la vita fin da ora. Non aveva senso, vista la sua visione del futuro, restare alzato tutta la notte a lavorare.

La visione di Drexler fu anche occasione di parecchio divertimento. Mi capitava di tanto in tanto di descrivere le meraviglie della nanotecnologia a persone che non ne avevano mai sentito parlare. Dopo aver illustrato tutte le cose descritte da Drexler, assegnavo i compiti: «usa la nanotecnologia per creare un vampiro; per ottenere un punteggio superiore, crea anche un antidoto».

Tante cose meravigliose si accompagnavano a rischi evidenti, ne ero acutamente consapevole. Come ebbi a dire durante una conferenza sulla nanotecnologia nel 1989, «non possiamo limitarci a fare il nostro lavoro di scienziati senza preoccuparci di questi problemi etici». Ma le mie successive conversazioni con alcuni fisici mi convinsero che la nanotecnologia probabilmente non avrebbe mai funzionato – almeno non nel breve o medio periodo. Poco dopo mi trasferii in Colorado, in un laboratorio che avevo messo in piedi laggiù, e il mio lavoro si concentrò sul software per Internet, e precisamente sulle idee che avrebbero dato vita a Java e Jini.

Infine, l'estate scorsa, Brosl Hasslacher mi disse che l’elettronica molecolare su nanoscala era ormai realtà. Per me era una novità assoluta, come penso per molte altre persone, e una novità che modificò radicalmente la mia opinione sulla nanotecnologia. Mi ricondusse a Engines of Creation. Rileggendo il libro di Drexler oltre 10 anni dopo, mi accorsi con costernazione di quanto poco ricordassi di una lunga sezione intitolata «Pericoli e speranze», che comprendeva la spiegazione di come le nantecnologie possono diventare «motori di distruzione». Anzi, nel rileggere oggi quel materiale di ammonimento, mi colpisce l’ingenuità di alcune proposte cautelative di Drexler, e la dimensione dei rischi, che oggi mi appare assai più grande di quanto mi apparisse persino allora. (dopo aver anticipato e descritto molti dei problemi tecnici e politici connessi con le nanotecnologie, Drexler fondò, alla fine degli anni ottanta, il Foresight Institute, «per contribuire a preparare la società alle imminenti tecnologie avanzate» - la più importante delle quali è la nanotecnologia).

È molto probabile che nei prossimi 20 anni la tecnologia consentirà agli assemblatori di entrare in attività. L’elettronica molecolare – il nuovo sottocampo della nanotecnologia in cui le singole molecole diventano elementi di circuito – dovrebbe evolversi rapidamente, divenendo estremamente lucrativa prima della fine di questo decennio e provocando investimenti immensi in tutto il settore delle nanotecnologie.

Purtroppo, come già è accaduto per la tecnologia nucleare, è molto più facile creare usi distruttivi che costruittivi. La nanotecnologia si presta chiaramente a utilizzi militari e terroristici, e non c’è bisogno di essere un aspirante suicisa per scatenare uno strumento nanotecnologico di distruzione di massa – tali strumenti si possono progettare per una distruzione selettiva, colpendo per esempio solo una determinata area geografica o sono un gruppo di persone con precise caratteristiche genetiche.

Un’immediata conseguenza di questo patto faustiano per ottenere il grande potere della nanotecnologia è il rischio gravissimo di distruggere la biosfera, da cui dipende ogni forma di vita.

Come spiega Drexler, «piante» dotate di «foglie» non più efficienti delle cellule solari odierne potrebbero soppiantare le piante vere, affollando la biosfera di fogliame non commestibile. «Batteri» robustissimi e onnivori potrebbero prendere il posto dei batteri normali. Potrebbero diffondersi come polline, riprodursi a velocità inaudita e ridurre in polvere la biosfera nel giro di pochi giorni. I pericolosissimi replicanti potrebbero in breve tempo diventare troppo forti, troppo piccoli e moltiplicarsi troppo rapidamente perché sia possibile fermarli – almeno se non saremo preparati a una simile eventualità. Abbiamo già abbastanza guai a controllare i virus e i parassiti delle piante.

Tra gli addetti ai lavori questa minaccia è diventata famosa con l’espressione «il problema grigio -viscido». Anche se le masse di replicanti incontrollabili non saranno necessariamente grigie o visicde, l’espressione «grigio-viscido» sottolinea come i replicanti in grado di distruggere ogni altra forma di vita potrebbero essere meno attraenti di una cavalletta. Potrebbero essere superiori in tutti i sensi evolutivi del termine, ma questo non li rende preziosi.

La minaccia grigio-viscida chiarisce perfettamente una cosa: non possiamo permetterci incidenti di un certo genere con gli assemblatori replicanti.

Quella grigio-viscida sarebbe certamente una conclusione deprimente dell’avventura umana sulla terra, ben peggiore di uno sterminio per fuoco o per ghiaccio, e per di più, una conclusione che potrebbe essere scatenata semplicemente da un incidente di laboratorio. Oops, scusate.

È soprattutto il potere dell’autoriproduzione distruttiva nella genetica, nella nanotecnologia e nella robotica (GNR) il problema che dovrebbe imporci una pausa. L’autoriproduzione è il modus operandi dell’ingegneria genetica, che sfrutta i meccanismi della cellula per replicare il proprio apparato, ed è il primo rischio alla base della minaccia grigio-viscida nella nanotecnologia. I racconti di popolazioni robotiche come i Borg, che si replicano o mutano per sfuggire alle limitazioni etiche imposte loro dai loro creatori, sono un cavallo di battaglia dei nostri libri e film di fantascienza. È persino possibile che l’auto-replicazione possa essere più fondamentale di quanto abbiamo pensato, e di conseguenza più difficile – se non impossibile – da controllare. Un recente articolo di Stuart Kauffman apparso su Nature e intitolato Self-Replication: Even Peptides Do It discute la scoperta che peptide a 32 aminoacidi può «autocatalizzare la propria sintesi». Noi non sappiamo quanto sia diffusa questa capacità, ma Kauffman osserva che ciò deve suggerire «una vita a sistemi molecolare autoriproducentisi su una base assai più vasta di quella ipotizzata da Watson-Crick».

Abbiamo quindi avuto a disposizione per anni chiari avvertimenti sui rischi insiti nella diffusione delle tecnologie GNR - della possibilità che la semplice conoscenza consenta la distruzione di massa. Ma tali avvertimenti non sono stati pubblicizzati in modo adeguato, e i dibattiti pubblici sull’argomento sono stati chiaramente inadeguati. Non c’è guadagno nel pubblicizzare i pericoli.

Le tecnologie nucleare, biologica e chimica (NBC) usate nel XX secolo per la progettazione di armi di distruzione di massa erano e sono in grandissima parte militari, sviluppate in laboratori governativi. In netto contrasto, le tecnologie GNR del XXI secolo hanno chiari utilizzi commerciali, e vengono sviluppate quasi esclusivamente da imprese multimazionali. In un’epoca di commercialismo trionfante, la tecnologica – insieme alla scienza e alle discipline connesse – ci sta consegnando una serie di invenzioni quasi magiche, le più incredibilmente lucrative che abbiamo mai visto. Stiamo perseguendo in modo sconsiderato le promesse di tali nuove tecnologie all’interno di un sistema di capitalismo globale, con i suoi molteplici incentivi finanziari e la sua pressione competitiva.

Per la prima volta nella storia del nostro pianeta una specie, a causa di una azione volontaria da parte sua, si sta trasformando in un rischio per se stessa – oltre che per un enorme numero di altre specie.

«Potrebbe essere un passaggio familiare, che vale per molti mondi – un pianeta di recente formazione gira tranquillamente attorno alla propria stella, lentamente si forma la vita, una caleidoscopica processione di creature si evolve, emerge l’intelligenza che, almeno entro certi limiti, attribuisce un enorme valore alla sopravvivenza; infine, si inventa la tecnologia. Si fa strada nelle menti intelligenti che esistono cose quali le leggi naturali, che tali leggi possono essere rivelate per mezzo di esperimenti, e che la conoscenza di queste leggi può servire sia a salvare delle vite, sia a sopprimerle, ed entrambe le cose su una scala senza precedenti. La scienza, si accorgono gli esseri intelligenti, conferisce un potere immenso. In un lampo, creano invenzioni in grado di alterare il mondo. Alcune civiltà planetarie sono più lungimiranti, e pongono limiti a quello che si può e che non si può fare, e valicano in modo sicuro l’epoca più pericolosa. Altre, non altrettanto fortunate o non altrettanto prudenti, periscono».

 

Era Carl Sagan, che nel 1994, in Pale Blue Dot, ci ha dato un libro che descrive la sua visione del futuro dell’uomo nello spazio. Solo ora mi rendo conto di quali profonde intuizioni abbia avuto, e di quanto amaramente sento e sentirò sempre la mancanza della sua voce. Con tutta la sua eloquenza, il contributo di Sagan è stato anche e soprattutto quello del buon senso – un attributo che, insieme all’umiltà, sembra mancare a molti dei più strenui ed eminenti difensori delle tecnologie del XXI secolo.

Ricordo che, quando ero bambino, mia nonna era decisamente contraria all’abuso di antibiotici. Aveva lavorato come infermiera fin da prima della Prima guerra mondiale, e aveva un atteggiamento improntato al buon senso: secondo lei, prendere gli antibiotici senza che fosse assolutamente necessario, faceva male.

Non che fosse nemica del progresso. Aveva assistito a progressi enormi, in quasi 70 anni di attività infermieristica; mio nonno, che era diabetico, trasse grandi benefici dal progredire delle cure che divennero disponibili nel corso della sua esistenza. Ma la nonna, come molte persone intelligenti, avrebbe ritenuto una spaventosa arroganza oggi, da parte nostra, il progettare una «specie sostitutiva» di tipo robotico, quando è tanto evidente che abbiamo già il nostro daffare per far funzionare cose relativamente semplici e incontriamo tante difficoltà nel gestire – o anche solo nel capire – noi stessi.

Mi rendo conto ora che mia nonna aveva la consapevolezza della natura dell’ordine della vita, e della necessità di convivere con tale ordine e di rispettarlo. Da questo rispetto deriva la necessaria umiltà che noi, con la nostra superavanzata tecnologia del XXI secolo, non abbiamo, a nostro rischio e pericolo. Il punto di vista del buon senso, fondato su tale rispetto, ha quasi sempre ragione molto prima del manifestarsi delle prove scientifiche. La chiara fragilità e le inefficienze dei sistemi creati dall’uomo dovrebbero invitare tutti a prendersi una pausa: la fragilità dei sistemi cui ho lavorato io certamente mi impone una buona dose di umiltà.

Dovremmo orami aver imparato la lezione impartita dalla costruzione della prima bomba atomica, e dalla corsa agli armamenti che ne è seguita. Allora non abbiamo agito nel modo migliore, e i paralleli con la situazione attuale sono inquietanti.

Lo sforzo di costruire la prima bomba atomica fu condotto dal geniale fisico J. Robert Oppenheimer. Oppenheimer per natura non si interessava di politica, ma divenne dolorosamente consapevole di quella che egli percepì come una grave minaccia contro la civiltà occidentale da parte del Terzo Reich, una minaccia che sarebbe certamente diventata spaventosa se Hitler fosse riuscito ad impadronirsi di armamenti nucleari. Spinto da questa preoccupazione, portò la sua brillante intelligenza, la passione per la fisica e il suo carisma di trascinatore a Los Alamos, dove ottenne un rapido successo grazie all’incredibile staff di cervelli che lavoravano con lui, e nel volgere di pochissimo tempo inventò la bomba.

Quel che colpisce è come tale sforzo sia proseguito in modo naturale anche dopo che la motivazione iniziale era stata eliminata. In un incontro svoltosi poco dopo il V-E Day, la resa tedesca, alla proposta di alcuni fisici che pensavano che forse sarebbe stato meglio sospendere i lavori, Oppenheimer controbatté la necessità di continuare. La motivazione addotta appare piuttosto strana: non per timore di subire un gran numero di perdite di vite umane in caso di una invasione da parte del Giappone, ma perché le Nazioni Unite, che stavano per iniziare la loro attività, avrebbero dovuto sapere dell’esistenza delle armi atomiche. La ragione più probabile per cui il progetto proseguì era la rapida avanzata della ricerca, che stava per raggiungere il suo culmine: il primo test atomico, a Trinity, era sul punto di essere avviato.

Sappiamo che nel preparare questa prima prova atomica i fisici procedettero nonostante un gran numero di possibili rischi. Inizialmente erano preoccupati dai calcoli di Edward Teller, secondo cui un’esplosione atomica avrebbe potuto dar fuoco all’atmosfera. Rifatti i calcoli, il rischio di distruggere il mondo intero fu ridotto a tre possibilità su un milione. (Teller dice che alla fine fu in grado di escludere del tutto la possibilità che l’intera atmosfera prendesse fuoco). Oppenheimer comunque era talmente preoccupato per l’esito dell’esperimento di Trinity che aveva programmato la possibile evacuazione della regione sudoccidentale dello stato del New Mexico. Ovviamente, c’era anche il rischio evidente di scatenare una corsa agli armamenti nucleari.

A meno di un mese da quel primo, riuscito esperimento, due bombe atomiche distrussero Hiroshima e Nagasaki. Alcuni scienziati avevano suggerito semplicemente una dimostrazione dell’esistenza della bomba e della sua efficacia, anziché il suo lancio sulle città del Giappone – motivando la proposta sul fatto che ciò avrebbe grandemente migliorato la possibilità di un controllo degli armamenti dopo la guerra - ma invano. Con la tragedia di Pearl Harbor ancora fresca nella mente degli americani sarebbe stato molto difficile per il presidente Truman ordinare una semplice dimostrazione della bomba anziché usarla, come fece –il desiderio di porre rapidamente termine alla guerra e di salvare le vite che sarebbero state perdute nel caso di un’invasione giapponese era molto forte. Tuttavia la verità decisiva era probabilmente più semplice: come ebbe a dire in seguito il fisico Freeman Dyson: «La ragione per cui fu sganciata fu semplicemente che nessuno aveva il coraggio o la lungimiranza di dire no».

È importante comprendere quanto fossero scioccati i fisici all’indomani del bombardamento di Hiroshima, il 6 agosto 1945. Costoro descrivono una serie di ondate emotive: primo, un senso di soddisfazione perché la bomba aveva funzionato, poi l’orrore per tutte le persone che erano state uccise, infine la convinta percezione che per nessun motivo si sarebbe dovuta lanciare un’altra bomba. Eppure, naturalmente, un’altra bomba fu lanciata, su Nagasaki, appena tre giorni dopo il bombardamento di Hiroshima.

Nel novembre 1945, tre mesi dopo i bombardamenti atomici, Oppenheimer difese strenuamente l’atteggiamento scientifico dicendo, «non si può essere uno scienziato se non si crede che la conoscenza del mondo, e il potere che essa conferisce, è un valore intrinseco per l’umanità, e che lo scienziato la usa per contribuire alla diffusione della conoscenza, ed è pronto ad assumersene le conseguenze».

Oppenheimer continuò a lavorare, insieme ad altri, sul rapporto Acheson-Lilienthal che, come afferma Richard Rhodes nel suo recente libro dal titolo Visions of Technology, «trovò il modo di impedire una corsa clandestina agli armamenti nucleari senza far ricorso a un governo mondiale armato». La loro proposta era, a grandi linee, quella di consegnare la ricerca sulle armi nucleari, che doveva passare dagli stati nazionali a una agenzia internazionale.

Questa proposta portò a progetto Baruch, che fu sottoposto alle Nazioni Unite nel giugno 1946 ma che non fu mai adottata (forse perché, come suggerisce Rhodes, Bernard Baruch aveva «insistito per appesantire il progetto con sanzioni convenzionali» condannandolo inevitabilmente al fallimento, per quanto «sarebbe stato in ogni caso quasi sicuramente respinto dalla Russia stalinista»). Altri sforzi per promuovere passi ragionevoli in direzione dell’internazionalizzazione del potere nucleare, allo scopo di impedire una corsa agli armamenti, furono ostacolati o dalla politica americana e dalla sfiducia interna, o dalla mancanza di fiducia da parte sovietica. L’opportunità di evitare la corsa agli armamenti fu perduta, e in brevissimo tempo.

Due anni dopo, nel 1948, Oppenheimer sembrò aver raggiunto un altro stadio del proprio pensiero, quando disse: «in un certo, rozzo senso, che nessuna volgarità, nessuna battuta umoristica, nessuna esagerazione può eliminare, i fisici hanno conosciuto il peccato; e si tratta di una conoscenza che non possono smarrire».

Nel 1949, i sovietici fecero esplodere una bomba atomica. Nel 1955 tanto gli Usa come l’Unione Sovietica avevano testato bombe all’idrogeno che potevano essere sganciate da un aereo. La corsa agli armamenti nucleari era iniziata.

Quasi 20 anni fa, nel documentario The Day After Trinity, Freeman Dyson sintetizzò l’atteggiamento scientifico che ci aveva condotto sul baratro nucleare:

«L’ho avvertito io stesso. Lo scintillio delle armi nucleari. È irresistibile, se ci si accosta ad esso da scienziati. Sentire che lì, nelle tue mani, c’è il potere di scatenare la stessa energia che fa brillare le stelle. Compiere miracoli di questa portata, sollevare un milione di tonnellate di roccia fino al cielo. È qualcosa che conferisce l’illusione di un potere sconfinato; e questo qualcosa è, da un certo punto di vista, responsabile di tutti i nostri guai – questo qualcosa, che potremmo chiamare l’arroganza della tecnica, può sopraffare le persone, quando queste capiscono che cosa possono fare con il potere della mente».

Oggi come allora noi siamo i creatori delle nuove tecnologie e le stelle del futuro immaginato, spinto a realizzarsi – questa volta da enormi ritorni economici e dalla competizione globale – nonostante i chiari pericoli, senza quasi valutare che cosa potrebbe voler dire vivere in un mondo che sia l’esito realistico di ciò che stiamo creando e immaginando.

Nel 1947, The Bulletin of the Atomic Scientists cominciò a pubblicare sulla copertina il suo Doomsday Clock, l’ orologio della fine del mondo. Per oltre 50 anni il bollettino ha pubblicato la stima del pericolo nucleare relativo che stavamo affrontando, riflettendo i cambiamenti nelle condizioni internazionali. Le lancette dell’orologio si sono spostare 15 volte e oggi, posizionate a nove minuti dalla mezzanotte, riflettono il perdurante e concreto rischio nucleare. La recente aggiunta di India e Pakistan all’elenco delle potenze nucleari ha incrementato la minaccia di fallimento degli obiettivi della non proliferazione, e tale pericolo si è riflesso in un avvicinamento delle lancette alla mezzanotte, spostamento avvenuto nel 1998.

A quale livello di rischio ci troviamo oggi di fronte, non soltanto a causa delle armi nucleare ma anche di tutte le altre tecnologie? Quanto è elevato il rischio di estinzione?

Il filosofo John Leslie ha studiato questa domanda e ne ha concluso che il rischio dell’estinzione della razza umana è di almeno il 30 per cento, mentre Ray Kurzweil è convinto che abbiamo «più probabilità che mai di cavarcela», con l’ammissione però che Kurzweil è «sempre stato accusato di essere un ottimista». Non soltanto queste stime non sono incoraggianti, ma non ci dicono nulla sulle possibilità di molti esiti spaventosi che non arrivano all’estinzione totale.

Di fronte a tali affermazioni, alcune persone serie stanno già suggerendo di andarcene dal pianeta Terra il più presto possibile. Dovremmo colonizzare la galassia usando le sonde di von Neumann, che saltano di sistema stellare in sistema stellare, autoreplicandosi lungo la via. Questo passo sarà quasi certamente necessario di qui a 5 miliardi di anni (o anche prima, se il nostro sistema solare venisse disastrosamente investito dalla collisione della nostra galassia con quella di Andromeda, entro i prossimi 3 miliardi di anni). Ma se prendiamo sul serio Kurzweil e Moravec, potrebbe rendersi necessario già entro la metà del secolo presente.

Quali sono in questo caso le implicazioni morali? Se dobbiamo andarcene dalla Terra a così breve per la sopravvivenza della nostra specie, chi si assumerà la responsabilità del destino di quanti (la stragrande maggioranza di noi, dopo tutto) saranno lasciati qui? E anche se riuscissimo a disperderci tra le stelle, non è probabile che poteremo con noi i nostri problemi o che scopriremo, in seguito, che essi ci hanno seguito? Il destino della nostra specie sulla terra e il nostro destino nella galassia sembrano inscindibilmente legati.

Un’altra idea è quella di erigere una serie di scudi per difenderci contro ognuna delle tecnologie a rischio. La Strategic Defense Initiative proposta dall'amministrazione Reagan, fu un tentativo di progettare uno scudo di questo genere contro la minaccia di un attacco nucleare da parte dell’Unione Sovietica. Ma, come ebbe ad osservare Arthur C. Clarke, che fu messo a parte delle discussioni sul progetto, «anche se potrebbe essere possibile, a costi altissimi, costruire sistemi locali di difesa che facciano passare "solo" una piccola percentuale di missili balistici, la tanto sbandierata idea di un ombrello nazionale è priva di senso. Luis Alvarez, forse il massimo fisico sperimentale di questo secolo, mi disse che i propugnatori di questo progetto erano "tizi molto brillanti del tutto privi di buon senso"».

Clarke proseguiva: «Guardando nella mia palla di cristallo spesso molto opaca, sospetto che una difesa totale potrebbe davvero essere possibile tra un secolo o giù di lì. Ma la tecnologia necessaria produrrebbe, come prodotto collaterale, armi talmente terribili che nessuno più si preoccuperebbe di qualcosa di tanto primitivo come un missile balistico».

In Engines of Creation, Eric Drexler proponeva la costruzione di uno scudo nanotecnologico attivo – una sorta di sistema immunitario per la biosfera – per difenderci contro i pericolosi replicanti di qualunque genere che potrebbero sfuggire ai laboratori o essere creati intenzionalmente per scopi malvagi. Ma lo scudo proposto sarebbe esso stesso estremamente pericoloso – nulla potrebbe impedirgli di sviluppare problemi auto-immuni e di attaccare la stessa biosfera».

Difficoltà simili si applicano alla costruzione di scudi contro la robotica e l’ingegneria genetica. Queste tecnologie sono troppo potenti perché possano essere fermate da uno scudo entro il periodo di tempo che ci interessa; anche se fosse possibile realizzare scudi difensivi, gli effetti collaterali dello sviluppo di questi ultimi sarebbero almeno altrettanto pericolosi delle tecnologie contro cui cerchiamo di proteggerci.

Queste possibilità sono tutte altrettanto indesiderabili, o irrealizzabili, o entrambe le cose. La sola alternativa realistica che riesco a intravedere è l’abbandono: limitare lo sviluppo delle tecnologie troppo pericolose, limitando il nostro perseguimento di alcuni generi di conoscenza.

Lo so, la conoscenza è buona, come buona è la ricerca delle nuove verità. Fin dall’antichità ricerchiamo e abbiamo ricercato la conoscenza. Aristotele apre la sua metafisica con questa semplice affermazione: «Tutti gli uomini, per natura, desiderano sapere». Abbiamo da tempo concordato di fare del libero accesso all’informazione uno dei valori cardine su cui si regge la nostra società, e riconosciamo i problemi che insorgono a causa dei tentativi di limitare l’accesso e lo sviluppo della conoscenza. In tempi recenti siamo giunti a venerare la ricerca scientifica.

Ma nonostante i significativi precedenti storici, se libero accesso e sviluppo illimitato della conoscenza mettono d’ora in avanti tutti noi a evidente rischio di estinzione, allora il buon senso esige che riesaminiamo anche queste convinzioni fondamentali che adottiamo da tanto tempo.

Fu Nietzsche ad ammonirci, alla fine del XIX secolo, non soltanto che Dio è morto, ma che «la fede nella scienza, la cui esistenza è dopo tutto innegabile, non può dovere le proprie origini a un calcolo di convenienza; deve essersi originata nonostante il fatto che si siano costantemente dimostrate la sconvenienza e la pericolosità del "desiderio di verità", della "verità ad ogni costo"». È questo ulteriore pericolo quello a cui ci troviamo di fronte oggi – le conseguenze della nostra ricerca della verità. La verità che cerca la scienza può certamente essere considerata un pericoloso sostituto di Dio, se è probabile che ci condurrà all’estinzione.

Se riuscissimo a stabilire di comune accordo, in quanto specie, quello che vogliamo, dove siamo diretti e perché, allora riusciremmo a rendere il nostro futuro meno rischioso – allora potremmo capire a che cosa potremmo e dovremmo rinunciare. Altrimenti possiamo facilmente immaginare una corsa agli armamenti che si sviluppa sfruttando le tecnologie GNR, come avvenne nel XX secolo con quelle NBC. È forse questo il rischio maggiore, perché una volta iniziata la corsa, è molto difficile riuscire a fermarla. Questa volta – a differenza di quanto accaduto nel corso del progetto Manhattan – non siamo in guerra, non stiamo affrontando un nemico implacabile che sta minacciando la nostra civiltà. Siamo spinti invece dalle nostre abitudini, dai nostri desideri, dal nostro sistema economico e dalla nostra competitiva esigenza di conoscenza.

Sono convinto che tutti noi desideriamo che la nostra esistenza possa essere determinata dai nostri valori collettivi, dalla nostra etica e dalla nostra morale. Se abbiamo conquistato una migliore saggezza collettiva nel corso di alcuni millenni, allora un dialogo avente questo fine potrebbe essere più pratico, e gli incredibili poteri che siamo sul punto di scatenare non sarebbero affatto così inquietanti.

Si potrebbe pensare che a spingerci verso un dialogo di questo genere dovrebbe essere il nostro istinto di autoconservazione. I singoli, chiaramente, questo desiderio ce l’hanno, ma in quanto specie il nostro comportamento non sembra esserci favorevole. A proposito della minaccia nucleare, siamo stati spesso disonesti con noi stessi e con gli altri, incrementando grandemente il rischio. Che questo atteggiamento avesse una motivazione politica o che derivasse da una precisa scelta di non guardare avanti, o dal fatto che, a fronte di minacce così gravi, abbiamo agito irrazionalmente, spinti dalla paura, non lo so; ma non depone bene.

I nuovi vasi di Pandora della genetica, della nanotecnologia e della robotica sono già quasi aperti, ma sembra che noi non ce ne siamo accorti. Le idee non si possono rimettere nella scatola; a differenza di uranio e plutonio non devono essere estratte dalle miniere e raffinate, e possono essere liberamente copiate. Una volta fuori, sono fuori. Osservava Churchill, con un celebre «non-complimento», che gli americani e i loro leader «fanno invariabilmente la cosa giusta, dopo aver esaminato ogni altra possibile alternativa». In questo caso però dobbiamo agire con maggiore prescienza, perché fare la cosa giusta solo alla fine potrebbe significare perdere la possibilità di farla del tutto.

Come diceva Thoreau, «Non noi cavalchiamo sulla ferrovia; è lei che cavalca su noi»; ed è questo ciò contro cui dobbiamo batterci oggi. La domanda è proprio questa, Chi deve comandare? Riusciremo a sopravvivere alle nostre tecnologie?

Ci stiamo lanciando nel nuovo secolo senza un progetto, senza controllo, senza freni. Ci siamo già spinti troppo avanti per poter modificare la rotta? Credo di no, ma ancora non ci stiamo provando, e l’ultima occasione di affermare il nostro controllo – l’ultima barriera di sicurezza – si sta avvicinando a grande velocità. Già abbiamo i primi robot-animali domestici, e numerose tecniche di ingegneria genetica sono già disponibili sul mercato commerciale, mentre le tecniche in nanoscala stanno rapidamente progredendo. Se è vero che lo sviluppo di queste tecnologie deve superare, per procedere, numerosi gradini, non è necessariamente vero – come accadde con il Progetto Manhattan e il test di Trinity – che l’ultimo passo per approntare una tecnologia sia il più lungo e il più difficile. L’avvio dell’autoriproduzione incontrollata nella robotica, nell’ingegneria genetica o nella nanotecnologia potrebbe accadere d’improvviso, facendoci rivivere la sorpresa che abbiamo ricevuto nell’apprendere dell’avvenuta clonazione di un mammifero.

 

Eppure sono convinto che abbiamo solide e sicure basi di speranza. Il nostro tentativo di gestire il problema delle armi di distruzione di massa nel secolo appena concluso propone alla nostra considerazione un luminoso esempio di abbandono: la rinuncia unilaterale degli Stati Uniti, senza precondizione, allo sviluppo delle armi biologiche. Questa rinuncia nasceva dalla presa di coscienza dl fatto che, mentre si sarebbe reso necessario un impegno enorme per creare queste armi terribili, una volta prodotte avrebbero potuto essere facilmente duplicate e cadere nelle mani di nazioni senza scrupoli o di gruppi terroristici.

La chiara conclusione era che avremmo creato una ulteriore minaccia contro noi stessi, se avessimo costruito queste armi, e che saremmo stati maggiormente al sicuro se non le avessimo costruite. Abbiamo inserito la rinuncia alle armi chimiche e biologiche nella Biological Weapons Convention (BWC) del 1972 e nella Chemical Weapons Convention (CWC) del 1973.

Quanto alla perdurante e ingente minaccia proveniente dalle armi nucleari, con la quale conviviamo ormai da oltre 50 anni, il recente rifiuto del Senato americano di sottoscrivere il trattato globale per la messa al bando dei test nucleari illustra chiaramente come rinunciare alle armi nucleare non sarà politicamente semplice. Ma abbiamo un’opportunità unica, con la fine della Guerra Fredda, per evitare una corsa agli armamenti multipolare. A partire dalle rinunce della BWC e della CWC, una effettiva abolizione delle armi nucleari potrebbe contribuire a instaurare e consolidare un’abitudine all’abbandono delle tecnologie troppo pericolose. (Di fatto, sbarazzandoci delle circa 100 armi nucleari sparse nel mondo – all’incirca il totale del potere distruttivo della Seconda Guerra Mondiale e un compito considerevolmente più agevole – potremmo eliminare questa minaccia di estinzione.

La verifica di tale rinuncia sarà un problema difficile, ma non insolubile. Abbiamo la fortuna di aver già compiuto buona parte del lavoro nel contesto del BWC e degli altri trattati. Il nostro compito principale sarà la sua applicazione a tecnologie che per natura sono molto più commerciali che militari. L’esigenza sostanziale in questo caso è quella della trasparenza, in quando la difficoltà della verifica è direttamente proporzionale alla difficoltà di distinguere le attività legittime da quelle bloccate.

Credo francamente che la situazione nel 1945 fosse più semplice di quella che abbiamo di fronte oggi: le tecnologie nucleari erano ragionevolmente separabili in usi commerciali e militari, e i controlli erano aiutati dalla natura dei test atomici e dalla agevole misurazione della radioattività. La ricerca sulle applicazioni militari poteva svolgersi in laboratori statali come quello di Los Alamos, e i risultati potevano essere tenuti segreti per moltissimo tempo.

Le tecnologie GNR non sono chiaramente divisibili in usi commerciali e militari; dato il loro potenziale economico, è difficile immaginare che possano essere condotte unicamente nei laboratori dello stato. Per le loro diffuse possibilità di commercializzazione, imporre la rinuncia ad esse richiederà un regime di verifica simile a quello adottato per le armi biologiche, ma su una scala senza precedenti. Questo susciterà inevitabilmente delle tensioni tra la nostra privacy individuale e il desiderio di informazioni, e la necessità che la verifica protegga tutti noi. Incontreremo senza dubbio una strenua resistenza contro questa perdita di privacy e di libertà di azione.

Il controllo sull’abbandono di talune tecnologie GNR dovrà svolgersi nel cyberspazio oltre che nei laboratori di fisica. Il punto cruciale consisterà nel rendere accettabile la trasparenza necessaria in un mondo di informazioni riservate, probabilmente fornendo nuove forme di protezione per la proprietà intellettuale.

Il controllo esigerà anche che scienziati e ingegneri adottino un rigido codice etico e deontologico, simile al giuramento di Ippocrate, e che abbiamo il coraggio di denunciarne le violazioni quando necessario, anche a rischio di pagare personalmente un prezzo elevato. Tutto ciò risponderebbe all’appello lanciato – 50 anni dopo Hiroshima – dal premio Nobel Hans Bethe, uno dei più eminenti scienziati, tra quanti sono ancora in vita, che parteciparono al Manhattan Project: che tutti gli scienziati «cessino e desistano dall’ideare, sviluppare, migliorare e costruire armi nucleari e altre armi potenzialmente di distruzione di massa». Nel XXI secolo ciò esige vigilanza e responsabilità personale da parte di quanti lavorano sulle tecnologie NBC e GNR perché evitino di realizzare armi di distruzione di massa e altri strumenti di distruzione di massa fondati sulla conoscenza tecnologica.

Thoreau diceva anche se saremo «ricchi in proporzione al numero di cose che possiamo permetterci di trascurare». Tutti cerchiamo di essere felici, ma mi sembra valga la pena di chiedersi se abbiamo davvero bisogno di assumerci un simile rischio di distruzione totale per acquisire un’ulteriore conoscenza e più cose ancora: il buon senso ci dice che c’è un limite alle nostre necessità personali – e che un certo tipo di conoscenza è troppo pericoloso, ed è meglio lasciarlo perdere.

E nemmeno dovremmo inseguire la quasi immortalità senza considerarne i costi, senza considerare il commisurato incremento del rischio di estinzione. L’immortalità, benché sia forse il sogno originario, non è certamente l’unico sogno delle utopie.

Ho avuto di recente la fortuna di incontrare il celebre scrittore e studioso Jacques Attali, il cui libro Lignes d'horizons (Millennium, nella traduzione inglese) ha contribuito ad ispirare l’approccio di Java e Jini all’imminente era dell’onnipresenza del computer, come ho già avuto modo di spiegare in questa stessa rivista. Nel suo nuovo libro, Fraternité, Attali descrive come sono cambiati i sogni delle nostre utopie nel corso del tempo:

«Agli albori della civiltà, gli uomini concepivano il loro passaggio sulla terra come null’altro che un labirinto di dolore, al termine del quale una porta conduceva, tramite la loro morte, alla compagnia degli dei e all’eternità. Con gli ebrei prima e i greci poi, alcuni uomini osarono liberarsi dalle pretese teologiche e sognare una Città ideale in cui avrebbe trionfato la Libertà. Altri, osservando l’evoluzione del mercato nella società, compresero che la libertà di alcuni avrebbe comportato l’alienazione di altri, e sognarono l’Uguaglianza».

Jacques mi aiutò a capire come queste tre differenti mete utopiche entrano in tensione nella società contemporanea. Egli prosegue descrivendo una quarta utopia, la Fratellanza, il cui fondamento è l’altruismo. Soltanto la Fratellanza associa la felicità individuale con la felicità degli altri, e può permettersi di promettere di reggersi da sola.

Questo ha cristallizzato il mio problema nei riguardi del sogno di Kurzweil. Un approccio tecnologico all’Eternità – la quasi immortalità attraverso la robotica – potrebbe non essere la più desiderabile delle utopie, e ricercarla comporta evidenti pericoli. Forse dovremmo rivedere le nostre scelte utopiche.

Dove cercare un nuovo fondamento etico per avviare il nostro nuovo cammino? Alcune idee contenute nel libro del Dalai Lama Ethics for the New Millennium mi sono sembrate particolarmente utili. Come è forse noto ma poco propagandato, il Dalai Lama sostiene che la cosa più importante è che le nostre vite siano condotte all’insegna dell’amore e della compassione verso gli altri, e che le nostre società devono sviluppare un’idea più valida e salda di responsabilità universale e dell’interdipendenza reciproca; egli propone uno standard di condotta etica positiva per i singoli individui e per le società, che appare consonante con l’utopia della Fratellanza di Attali.

Il Dalai Lama sostiene inoltre che dobbiamo capire che cosa rende felici le persone, e ammettere l’evidenza del fatto che né il progresso materiale è il perseguimento del potere della conoscenza sono la chiave della felicità – che ci sono dei limiti a ciò che la scienza, e la ricerca scientifica, possono fare da sole.

La nostra nozione occidentale di felicità sembra derivare dai greci, che la definirono «l’esercizio di poteri vitali lungo linee di eccellenza in una vita che consenta loro di avere uno scopo».

Chiaramente, abbiamo bisogno di trovare delle sfide dense di significato, e una finalità sufficientemente valida per le nostre vite, se vogliamo essere felici qualunque cosa accada in futuro. Ma sono convinto che dobbiamo trovare degli sbocchi alternativi alle nostre capacità creative, che vadano oltre la cultura della perpetua crescita economica. Tale crescita è per noi sostanzialmente una benedizione da diverse centinaia di anni, ma non ci ha condotto alla perfetta felicità, e ora dobbiamo scegliere tra il perseguimento di una crescita illimitata e incontrollata grazie alla scienza e alla tecnologia, e i chiari pericoli che ad essa si accompagnano.

È trascorso oltre un anno dal mio primo incontro con Ray Kurzweil e John Searle. Vedo intorno a me motivi di speranza nelle voci che invitano alla cautela e all’abbandono di alcune ricerche, nelle persone che, ho scoperto, sono altrettanto preoccupate di me per la situazione in cui ci troviamo. Avverto anche un sentimento più profondo di responsabilità personale – non per il lavoro che ho già svolto, ma per quello che potrei svolgere, alla confluenza tra le scienze.

Ma molte altre persone che sono al corrente dei rischi sembrano ancora stranamente silenziose. Se si insiste, si accontentano della solita risposta, «non si tratta di nulla di nuovo» - come se la consapevolezza di quanto potrebbe accadere fosse già una risposta sufficiente. «Ci sono università» mi dicono, «piene di studiosi di bioetica che studiano questo argomento tutto il giorno». Mi rispondono, «Su tutte queste cose è già stato scritto tutto, e da esperti del settore». «Le tue preoccupazioni», si lamentano, «e le tue argomentazioni sono già roba vecchia».

Non so dove queste persone nascondano i loro timori. Da architetto di sistemi complessi mi sono introdotto in questa arena da generalista. Ma questo dovrebbe forse attenuare la mia preoccupazione? So benissimo quante parole siano state scritte, pronunciate e insegnate con grande autorevolezza. Ma questo significa forse che esse hanno raggiunto le persone comuni? Significa che possiamo considerare scongiurato il pericolo che abbiamo di fronte?

Sapere non è un motivo valido per non agire. Possiamo dubitare che la conoscenza sia diventata un’arma che stiamo per puntare contro noi stessi?

Le esperienze degli scienziati atomici dimostrano chiaramente il bisogno di assumersi una responsabilità personale, il pericolo che le cose evolvano troppo in fretta e come un processo possa riuscire a vivere di vita propria. Possiamo generare, come fecero loro, problemi insormontabili in un batter d’occhio. Dobbiamo riflettere con maggiore lungimiranza, se non vogliamo farci sorprendere e scioccare in modo altrettanto doloroso dalle conseguenze delle nostre invenzioni.

Il mio lavoro personale consiste ancora nel migliorare la affidabilità del software. Il software è uno strumento, e il quanto progettista di strumenti non posso ignorare i possibili utilizzi degli strumenti che creo. Ho sempre pensato che rendere più affidabile il software, dati i suoi molti usi, renderà il mondo un posto più sicuro e migliore. Se dovessi giungere a credere il contrario, mi sentirei moralmente obbligato a interrompere tale lavoro. Oggi riesco anche a immaginare che potrei dover vedere un giorno simile.

Tutto ciò mi lascia, se non furibondo, almeno un po’ malinconico. D’ora in poi il progresso avrà per me un sapore dolceamaro.

Ricordate la splendida, penultima scena di Manhattan, in cui Woody Allen, steso sul divano, parla nel registratore? Sta scrivendo un racconto sulle persone che si creano inesistenti problemi di nevrosi perché questo evita loro di affrontare problemi più insolubili e terrificanti riguardo all’universo.

Questo lo porta a chiedersi «Per che cosa vale la pena vivere?» e a riflettere su che cosa vale la pena per lui: Groucho Marx, Willie Mays, il secondo movimento della sinfonia Jupiter, Louis Armstrong in "Potato Head Blues," i film svedesi, L’éducation sentimentale di Flaubert, Marlon Brando, Frank Sinatra, le mele e le pere di Cézanne, i granchi del ristorante Sam Wo's, e, finalmente, la chiave di tutto: il volto della ragazza che ama, Tracy.

Ognuno di noi ha delle cose che per lui sono preziose, e per il fatto stesso che teniamo ad esse, possiamo identificare l’essenza della nostra umanità. Alla fine, è questa nostra grande capacità di amore che mi consente di ottimista e di pensare che sapremo affrontare i problemi a rischio che stanno davanti a noi.

La mia speranza immediata è quella di partecipare presto a una discussione molto più ampia sui temi sollevati in questo articolo, con persone di origini e interessi il più diversi possibile tra loro, in sedi senza preconcetti di timore o di favore verso la tecnologia in quanto tale.

Per iniziare a fare qualcosa ho sollevato già due volte molti dei problemi presentati qui, nel corso di incontri sponsorizzati dall’Aspen Institute è ho inoltre proposto che la American Academy of Arts and Sciences le adotti come estensioni dei lavori all’interno delle Pugwash Conferences. (Che si svolgono fin dal 1957 per discutere di controllo degli armamenti, in particolare delle armi nucleari, e per formulare proposte politiche realistiche).

È un peccato che i convegni di Pugwash siano iniziati solo molto tempo dopo che il genio nucleare era uscito dalla bottiglia –circa 15 anni troppo tardi. E siamo già in ritardo per iniziare ad affrontare seriamente il problema delle tecnologie del XXI secolo – la prevenzione dei mezzi di distruzione di massa consentiti dalla semplice conoscenza – e un ulteriore ritardo appare inaccettabile.

Per questo continuo a cercare; ci sono ancora molte cose da imparare. Che siamo destinati a riuscire o a fallire, a sopravvivere o a cadere vittime di queste tecnologie, ancora non è deciso. Sono tornato a fare le ore piccole – sono quasi le sei del mattino. Sto cercando di immaginare qualche risposta migliore, per spezzare l’incantesimo e liberarle dalla pietra.

 

NOTE

 

1 Il brano citato da Kurzweil è tratto da: Kaczynski, Unabomber Manifesto, pubblicato congiuntamente dal New York Times e dal Washington Post nel tentativo di mettere fine alla sua campagna di terrore. Sono d’accordo con David Gelernter, che di questa decisione scrisse: «È stata una scelta difficile per i giornali. Dire sì avrebbe significato arrendersi al terrorismo, e per quanto ne sapevano loro avrebbe potuto benissimo non mantenere comunque la parola. D’altra parte, accettare avrebbe potuto fermare le uccisioni. C’era anche la possibilità che qualcuno leggesse tra le righe e suggerisse qualche idea per identificare l’autore, il che fu esattamente quello che accadde. Lo lesse il fratello del sospettato, e gli si accese una lampadina. Io avrei detto loro di non pubblicare. Sono felice che non me l’abbiamo chiesto. Immagino». (Drawing Life: Surviving the Unabomber. Free Press, 1997, p. 120.)

2, Laurie Garrett, The Coming Plague: Newly Emerging Diseases in a World Out of Balance, Penguin, 1994, pp. 47-52, 414, 419, 452.

3 Isaac Asimov ha descritto quelle che sono diventate le più celebri norme etiche di comportamento robotico nel suo I, Robot del 1950.Ecco le Tre leggi della Robotica: 1. Un robot non può danneggare un essere umano o, attraverso l’inazione, consentire che un essere umano venga danneggiato. 2.Un robot deve obbedire agli ordini dati dagli essere umani, tranne qualora tali ordini dovessero entrare in conflitto con la prima legge. 3.un robot deve proteggere la propria esistenza, purchè tale protezione non entri in conflitto con la prima o con la seconda legge.

4 Michelangelo wrote a sonnet that begins:

Non ha l' ottimo artista alcun concetto

Ch' un marmo solo in sè non circonscriva

Col suo soverchio; e solo a quello arriva

La man che ubbidisce all' intelleto.

Stone traduce come segue:

The best of artists hath no thought to show

which the rough stone in its superfluous shell

doth not include; to break the marble spell

is all the hand that serves the brain can do.

Così Stone descrive il processo: "Non lavorava a partire dai disegni o da modelli in argilla; li aveva messi via tutti. Scolpiva in base alle immagini che erano nella sua mente. I suoi occhi e le sue mani sapevano love ogni linea, ogni curva, ogni massa sarebbe dovuta emergere, e a quale profondità nel cuore della pietra doveva creare il bassorilievo» (The Agony and the Ecstasy. Doubleday, 1961, pp. 6, 144.)

5 Prima conferenza di previsione sulla Nanotecnologia, ottobre 1989, nel corso di un colloqui dal titolo "The Future of Computation." Pubblicato in B. C. Crandall, B. C. e Lewis James (a cura di),. Nanotechnology: Research and Perspectives, MIT Press, 1992, p. 269. Cfr. anche www.foresight.org/Conferences/MNT01/Nano1.html.

6 Nel suo romanzo Cat's Cradle, del 1963, Kurt Vonnegut immagina un incidente sul genere «grigio-viscido», in cui una forma particolare di ghiaccio, chiamata ice-nine si solidifica a temperature molto più elevate, congelando gli oceani.

7 Stuart Kauffman,. "Self-replication: Even Peptides Do It.", Nature, 382, August 8, 1996, p. 496. Cfr. www.santafe.edu/sfi/People/kauffman/sak-peptides.html.

8 Jon Else,. The Day After Trinity: J. Robert Oppenheimer and The Atomic Bomb (disponibile a: www.pyramiddirect.com).

9 Qusta stima si trova nel libro di Leslie, The End of the World: The Science and Ethics of Human Extinction, in cui l’autore osserva che la probabilità dell’estinzione è notevolmente più elevata se accettiamo le argomentazioni sulla fine del mondo di Brandon Carter. Argomentazioni che, in sintesi, affermano che "dovremmo avere una certa riluttanza nel credere che siamo davvero tra i primissimi, per esempio nel primo 0,001 per cento, esseri umani che avranno mai vissuto. Sarebbe una ragione per pensare che l’umanità non sopravviverà ancora per molti secoli, non parliamo poi di colonizzare la galassia. L’argomento della fine del mondo proposto da Carter non genera stime di rischio in se stesso. Si tratta di un’argomentazione utile a rivedere le stime che generiamo quando prendiamo in esame i diversi rischi possibili." (Routledge, 1996, pp. 1, 3, 145.)

10 Arthur C. Clarke, "Presidents, Experts, and Asteroids.", in Science, June 5, 1998. Ristampato con il titolo di "Science and Society" in Greetings, Carbon-Based Bipeds! Collected Essays, 19341998, St. Martin's Press, 1999, p. 526.

11 E come suggerisce David Forrest nel suo articolo "Regulating Nanotechnology Development," disponibile al sito www.foresight.org/NanoRev/Forrest1989.html, "se usiamo la più rigida imposizione come alternativa alla regolamentazione, sarebbe impossibile per uno sviluppatore riuscire ad assumersi da solo il costo del rischio (distruzione della biosfera), e quindi teoricamente l’attività di sviluppo della nanotecnologia non dovrebbe mai essere intrapresa». L’analisi di Forrest lascia a nostra protezione unicamente la regolamentazione dei governi – il che non è un pensiero confortante.

12 Matthew Meselson, "The Problem of Biological Weapons." Prolusione al 1,818th Stated Meeting of the American Academy of Arts and Sciences, 13 gennaio 1999. (minerva.amacad.org/archive/bulletin4.htm)

13 Paul Doty, "The Forgotten Menace: Nuclear Weapons Stockpiles Still Represent the Biggest Threat to Civilization.", Nature, 402, December 9, 1999, p. 583.

14 Cfr anche la lettera scritta nel 1997 da Hans Bethe al presidente Clinton, al sito www.fas.org/bethecr.htm.

15 Edith Hamilton, The Greek Way, W. W. Norton & Co., 1942, p. 35.

 

Bill Joy, cofondatore e Chief Scientist della Sun Microsystems, è stato copresidente della commissione presidenziale della ricerca IT, ed è il coautore delle specifiche del linguaggio Java. Il suo lavoro sulla tecnologia dei pervasive computer, Jini, è stato descritto su Wired 6.08.



Copyright © 1993-2000 The Condé Nast Publications Inc. All rights reserved.

Copyright © 1994-2000 Wired Digital, Inc. All rights reserved.

Traduzione : Anna Tagliavini