Home News Troppo umani per essere umani?

Roboetica

Troppo umani per essere umani?

0
2

Dottor Gall: I Robot quasi non avvertono i dolori fisici. Ciò non ha dato buoni risultati. Dobbiamo introdurre la sofferenza.

Helena: E sono più felici se sentono il dolore?

Dottor Gall: Al contrario; però sono tecnicamente più perfetti.

(Karel Capek, R.U.R.)

 

Analizzando le leggi di Asimov, ci siamo occupati del comportamento dei robot nei nostri confronti, ma c'è anche l'altra faccia della roboetica, quella che concerne il nostro comportamento verso i robot. Negli ultimi tempi si è acuita in molti Paesi la sensibilità nei confronti degli animali superiori, come le scimmie e gli animali domestici, ma non solo. Ne sono prova la nascita di associazioni animaliste e di movimenti antivivisezione, la diffusione dell’alimentazione vegetariana e il crescente rifiuto di pellicce, avorio e altri “prodotti” animali.

Questa maggior sensibilità è forse legata a un progressivo affrancamento degli animali dal ruolo di schiavi, di forza lavoro e di riserva di materiali utili cui sono stati a lungo relegati, ruoli che si sono via via trasferiti alle macchine e ai prodotti di sintesi. A riprova si rifletta che le bestie allevate a scopo alimentare non beneficiano ancora di questo incremento di compassione, perché non abbiamo ancora trovato sostituti adeguati delle proteine animali. Dell’affrancamento hanno goduto via via anche gli schiavi umani (spesso trattati come animali), non appena le loro funzioni si sono potute trasferire alle macchine.

E qui entrano in scena i robot, che stanno diventando gli esecutori di molti dei lavori finora svolti dagli animali, dagli schiavi e anche dalle macchine tradizionali. Può accadere che la sensibilità diffusa nei confronti degli umani e degli animali si trasferisca prima o poi anche ai robot, oppure ai nostri occhi prevarranno sempre la loro natura di macchine e la loro funzione servile? Gli sforzi che facciamo per dotarli di intelligenza, autonomia, capacità di apprendere e tendenzialmente anche di sensibilità e di coscienza, avranno come corollario una loro equiparazione a qualcosa di più nobile e vicino a noi?

Ma c’è un’altra domanda, più inquietante: che diritto abbiamo di costruire macchine tanto intelligenti e sensibili da capire che non lo sono abbastanza? Perché suscitare dal nulla creature tanto simili a noi da essere capaci di soffrire? Il loro dolore, scaturito dalla coscienza di non essere del tutto assimilabili agli uomini, sarebbe un triste corollario della nostra abilità demiurgica: creando una schiatta di “macchine dolenti”, ci assumeremmo una pesante responsabilità.

Si osservi che il dolore dei robot deriverebbe, in questi scenari, dalla consapevolezza di non essere umani. E' un punto di vista sfacciatamente antropomorfo, che manifesta la presunzione del creatore: visti i tanti difetti della nostra specie, forse i robot dovrebbero rallegrarsi di essere diversi da noi!

Insomma, lo struggente desiderio che i robot o gli androidi o i ciborg manifestano di diventare del tutto umani sulla base di un consapevole “senso di inferiorità”, desiderio che diviene ossessivo in Pinocchio e addirittura grottesco nel film di Spielberg, AI: Intelligenza Artificiale, è frutto al solito di una nostra proiezione. Che motivo avrebbero creature tanto diverse da noi (e forse tanto migliori di noi) per voler diventare proprio come noi, se non quello di compiacere i loro vanitosi creatori? Ancora una volta i desideri dei genitori vengono proiettati sui figli con conseguenze forse disastrose.

A questo proposito, alcuni ritengono che un giorno si potranno costruire robot più buoni degli esseri umani in virtù di un processo evolutivo che, innescato da noi, procederebbe poi in modo svincolato dai nostri condizionamenti. In fondo se noi siamo, in molte circostanze, aggressivi e malvagi ciò è dovuto al valore di sopravvivenza che queste caratteristiche hanno avuto nel corso dell’evoluzione.

Ma i robot si evolveranno in un ambiente molto diverso dal nostro: l’ambiente dei robot, in gran parte, siamo noi. Ecco perché, si pensi al caso dei robot soldato, se vogliamo che questa  nuova stirpe sia migliore di noi e magari ci aiuti a migliorare noi stessi (perché l’ambiente dell’uomo potrebbero un giorno essere loro) dovremmo stare molto attenti all’“indole artificiale” che imprimiamo in queste creature, pur nei limiti delle derive imprevedibili dovute alla loro autonomia. In questa prospettiva, instillare nei robot il desiderio di uguagliarci potrebbe segnare un regresso o almeno un ostacolo alla loro evoluzione etica verso la bontà.

Robot e ciborg

Gli stessi problemi si possono porre, e forse con fondamento ancora maggiore, per i ciborg, o cyborg, derivanti dall’ibridazione di esseri umani con componenti artificiali (si pensi al poliziotto ciborganico del film Robocop, cui non si possono non attribuire ricordi, sentimenti e strazi affatto umani). Mentre il robot è completamente inorganico, il ciborg si costruisce partendo da una base umana e sostituendo alcuni suoi organi ed apparati con parti inorganiche.

Il ciborg merita affetto e compassione oppure è uscito definitivamente dal consorzio umano per entrare in una sfera vaga e indefinibile e diventare preda di cacciatori senza scrupoli? I replicanti di Blade Runner, splendidi androidi e andreidi di dubbio statuto, debbono proprio essere eliminati? Insomma: chi decide che cosa significa essere umano e averne la dignità? Forse bisognerà presto riscrivere una “Carta dei diritti” da estendere a esseri la cui definizione sfugge per il momento ad ogni tentativo classificatorio.

La confusione tra naturale e artificiale prodotta dalla robotica potrebbe prima o poi portare alla confusione tra umano e non umano e aprirebbe lo spinoso problema della definizione di persona: quali sono i “requisiti minimi” che un ente deve possedere per essere dichiarato persona e quindi avere la dignità corrispondente? Esiste un grado di imitazione funzionale o di sostituzione protetica al quale è lecito, o inevitabile, parlare di umanità, e quindi di dignità, dell’artefatto? Un’altra domanda che scaturisce da queste considerazioni: gli artefatti imitativi potrebbero indurre cambiamenti nella nostra concezione del corpo e della natura umana (così come l’intelligenza artificiale ha modificato la nostra concezione di intelligenza)? La costruzione dell’uomo artificiale potrebbe elevare gli artefatti a livello dell’uomo, oppure abbassare gli umani a livello delle macchine...

Il principio di precauzione

 Di fronte a questi problemi, molti sostengono che, nell'ambito della robotica, si dovrebbe tener presente il principio di precauzione: il passaggio dalla progettazione alla costruzione dei robot dovrebbe tener conto dei rischi potenziali dell'impresa.

Ricordo che il principio di precauzione fu varato nel 1992 durante la Conferenza delle Nazioni Unite sull'Ambiente e lo Sviluppo, a Rio de Janeiro, con questa formulazione, concernente soprattutto l'ambiente:

Al fine di proteggere l'ambiente, un'impostazione cautelativa dovrebbe essere ampiamente utilizzata dagli Stati a seconda delle proprie capacità. In caso di rischio di danno grave o irreversibile, l'assenza di una piena certezza scientifica non deve costituire un motivo per differire l'adozione di misure adeguate ed effettive, anche in rapporto ai costi, dirette a prevenire il degrado ambientale.

Col tempo e nella pratica il campo di applicazione si è esteso alla tutela dei consumatori e della salute umana, animale e vegetale e in tale formulazione più ampia è stato adottato dall'Unione Europea. In sostanza il principio è definito come una strategia di gestione del rischio nei casi in cui vi siano indizi di effetti negativi sull'ambiente o sulla salute umana, animale o vegetale, senza tuttavia che i dati a disposizione consentano una valutazione precisa e completa del rischio. E' insomma il vecchio principio primum non nocere che si dovrebbe applicare di fronte a ogni proposta nuova, per esempio medica o farmacologica.

Si tratta di

- identificare i rischi potenziali

- fornire una valutazione accurata e completa sulla base dei dati esistenti

- riconoscere l'assenza di una certezza incontrovertibile che escluda la presenza dei rischi identificati

I provvedimenti adottati a seguito dell'adozione del principio sono di varia natura ed entità, devono tener conto del tipo di rischio e del livello di protezione desiderato e debbono tener conto degli aspetti economici, in termini del rapporto costi/benefici. I provvedimenti sono sempre provvisori e possono essere modificati in seguito alla scoperta di nuovi dati ed elementi di analisi.

  •  
  •  

Aggiungi un commento

Please enter your comment!
Please enter your name here