domenica 9 aprile 2017

Allarme per un futuro già presente: la legge in via di approvazione al Parlamento Europeo per riconoscere la personalità giuridica dei robot




 
  
Il futuro che verrà.
Hanno creato la personalità giuridica del robot e questa è la legge in via di approvazione al parlamento europeo.
Ce la farà l’umano a sopravvivere?



svegliamoci prima che sia troppo tardi!!!!!



PROPOSTA DI RISOLUZIONE DEL PARLAMENTO EUROPEO
recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica
(2015/2103(INL))
Il Parlamento europeo,
– visto l'articolo 225 del trattato sul funzionamento dell'Unione europea,
– visti gli articoli 46 e 52 del suo regolamento,
– visti la relazione della commissione giuridica e i pareri della commissione per l'occupazione e gli affari sociali, della commissione per l'ambiente, la sanità pubblica e la sicurezza alimentare, della commissione per l'industria, la ricerca e l'energia e della commissione per il mercato interno e la protezione dei consumatori (A8-0000/2016),
Introduzione
A. considerando che, dal mostro di Frankenstein ideato da Mary Shelley, al mito classico di Pigmalione, passando per la storia del Golem di Praga e il robot di Karel Čapek, che ha coniato la parola, gli esseri umani hanno fantasticato sulla possibilità di costruire macchine intelligenti, spesso androidi con caratteristiche umane;
B. considerando che l'umanità si trova ora sulla soglia di un'era nella quale robot, bot, androidi e altre manifestazioni dell'intelligenza artificiale (AI) sembrano sul punto di lanciare una nuova rivoluzione industriale, suscettibile di toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione ne consideri tutte le implicazioni;
C. considerando che tra il 2010 e il 2014 la crescita media delle vendite di robot era stabile al 17% annuo e che nel 2014 è aumentata al 29%, il più considerevole aumento annuo mai registrato, e che i fornitori di parti motrici e l'industria elettrico-elettronica sono i principali propulsori della crescita; che le richieste di brevetto per le tecnologie robotiche sono triplicate nel corso dell'ultimo decennio;
D. considerando che, nel breve e medio termine, la robotica e l'intelligenza artificiale promettono di portare benefici in termini di efficienza e di risparmio economico non solo in ambito manifatturiero e commerciale, ma anche in settori quali i trasporti, l'assistenza medica, l'educazione e l'agricoltura, consentendo di evitare di esporre esseri umani a condizioni pericolose, come nel caso della pulizia di siti contaminati da sostanze tossiche; che, nel lungo termine, vi è un potenziale per una prosperità virtualmente illimitata;
E. considerando che nel contempo lo sviluppo della robotica e dell'intelligenza artificiale possono portare a far sì che gran parte del lavoro attualmente svolto dagli esseri umani sia svolto da robot, sollevando preoccupazioni quanto al futuro dell'occupazione e la sostenibilità dei sistemi di previdenza sociale se l'attuale base fiscale sarà mantenuta, e dando potenzialmente origine a una crescente disuguaglianza nella distribuzione della ricchezza e del potere;

F. considerando che vi sono cause di preoccupazione anche per quanto riguarda la sicurezza fisica, ad esempio quando la codificazione di un robot si rivela fallibile, e per le potenziali conseguenze di un difetto sistemico o del pirataggio di robot intercollegati o di sistemi robotici, in un momento in cui sono in uso o sul punto di entrare in uso applicazioni sempre più autonome, che si tratti di automobili, di droni o di robot impiegati per l'assistenza o per il mantenimento dell'ordine pubblico;
G. considerando che numerose questioni fondamentali in materia di protezione dei dati sono già state oggetto di considerazione nei contesti generali di Internet e del commercio elettronico, ma che altri aspetti riguardanti la proprietà dei dati e la protezione dei dati personali e della privacy potrebbero ancora dover essere affrontati, dal momento che le applicazioni e gli apparecchi comunicheranno tra di loro e con le banche dati senza che gli esseri umani intervengano o persino siano consapevoli di cosa sta accadendo;
H. considerando che l'impatto relativo per la dignità umana può essere difficile da stimare, ma dovrà essere considerato se e quando i robot sostituiranno le cure e la compagnia umane, e che considerazioni di dignità umana possono insorgere anche nel contesto della "riparazione" o del "miglioramento" degli esseri umani;
I. considerando che, in ultima analisi, è possibile che nel giro di pochi decenni l'intelligenza artificiale superi la capacità intellettuale umana al punto che, se non saremo preparati, potrebbe mettere a repentaglio la capacità degli umani di controllare ciò che hanno creato e, di conseguenza, anche la loro capacità di essere responsabili del proprio destino e garantire la sopravvivenza della specie;
J. considerando che alcuni Stati esteri quali Stati Uniti, Giappone, Cina e Corea del Sud stanno prendendo in considerazione, e in una certa misura hanno già adottato, atti normativi in materia di robotica e intelligenza artificiale, e che alcuni Stati membri hanno iniziato a riflettere su possibili cambiamenti legislativi per tenere conto delle applicazioni emergenti di tali tecnologie;
K. considerando che l'industria europea potrebbe trarre beneficio da un approccio coerente alla regolamentazione a livello europeo, che fornisca condizioni prevedibili e sufficientemente chiare in base alle quali le imprese possano sviluppare applicazioni e pianificare i propri modelli commerciali su scala europea, garantendo nel contempo che l'UE e i suoi Stati membri mantengano il controllo sulle norme regolamentari da impostare e non siano costretti ad adottare e subire norme stabilite da altri, vale a dire quegli Stati terzi che sono anche in prima linea nello sviluppo della robotica e dell'intelligenza artificiale; 

Principi generali
L. considerando che sino al momento in cui – se mai ciò si verificherà – i robot diverranno o saranno resi consapevoli di sé, le leggi di Asimov1 devono essere considerate come
1 (1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. (2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. (3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. (cfr. Isaac Asimov, Circolo vizioso, 1942) e (0) Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.
1 Cfr. Dichiarazione di Robert Schuman del 1950: "L'Europa non potrà farsi in una sola volta, né sarà costruita tutta insieme; essa sorgerà da realizzazioni concrete che creino anzitutto una solidarietà di fatto."
rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot, dal momento che tali leggi non possono essere convertite in codice macchina;
M. considerando che, tuttavia, sono necessarie una serie di regole che disciplinano in particolare la responsabilità e l'etica e che riflettono i valori intrinsecamente europei e umanistici che caratterizzano il contributo dell'Europa alla società;
N. considerando che l'Unione europea potrebbe svolgere un ruolo essenziale nella definizione dei principi etici fondamentali da rispettare per lo sviluppo, la programmazione e l'utilizzo di robot e dell'intelligenza artificiale e per l'introduzione di tali principi nelle normative e nei codici di condotta europei, al fine di configurare la rivoluzione tecnologica in modo che essa serva l'umanità e affinché i benefici della robotica avanzata e dell'intelligenza artificiale siano ampiamente condivisi, evitando per quanto possibile potenziali insidie;
O. considerando che per l'Europa dovrebbe essere adottato un approccio graduale, pragmatico e cauto del tipo auspicato da Jean Monnet1;
P. considerando che è opportuno, in vista dello stadio raggiunto nello sviluppo della robotica e dell'intelligenza artificiale, iniziare con le questioni di responsabilità civile e valutare se il miglior punto di partenza non sia un approccio basato strettamente sulla responsabilità oggettiva di chi è nella posizione migliore per fornire garanzie;
Responsabilità
Q. considerando che, grazie agli strabilianti progressi tecnologici dell'ultimo decennio, non solo oggi i robot sono grado di svolgere attività che tradizionalmente erano tipicamente ed esclusivamente umane, ma lo sviluppo di caratteristiche autonome e cognitive – ad esempio la capacità di apprendere dall'esperienza e di prendere decisioni indipendenti – li ha resi sempre più simili ad agenti che interagiscono con l'ambiente circostante e sono in grado di alterarlo in modo significativo; che, in tale contesto, la questione della responsabilità giuridica derivante dall'azione nociva di un robot diventa essenziale;
R. considerando che l'autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un'influenza esterna; che tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l'interazione di un robot con l'ambiente;
S. considerando che più i robot sono autonomi, meno possono essere considerati come meri strumenti nelle mani di altri attori (quali il fabbricante, il proprietario, l'utilizzatore, ecc.); che ciò, a sua volta, rende insufficienti le regole ordinarie in materia di responsabilità e rende necessarie nuove regole incentrate sul come una macchina possa essere considerata – parzialmente o interamente – responsabile per le proprie azioni o omissioni; che, di conseguenza, diventa sempre più urgente affrontare la questione fondamentale di se i robot devono avere uno status giuridico;

T. considerando che, in ultima analisi, l'autonomia dei robot solleva la questione della loro natura alla luce delle categorie giuridiche esistenti – se devono essere considerati come persone fisiche, persone giuridiche, animali o oggetti – o se deve essere creata una nuova categoria con caratteristiche specifiche proprie e implicazioni per quanto riguarda l'attribuzione di diritti e doveri, compresa la responsabilità per i danni;
U. considerando che, nell'attuale quadro giuridico, i robot non possono essere considerati responsabili in proprio per atti o omissioni che causano danni a terzi; che le norme esistenti in materia di responsabilità coprono i casi in cui la causa di un'azione o di un'omissione del robot può essere fatta risalire ad uno specifico agente umano, ad esempio il fabbricante, il proprietario o l'utilizzatore, e tale agente avrebbe potuto prevedere ed evitare il comportamento nocivo del robot; che, inoltre, i fabbricanti, i proprietari o gli utilizzatori potrebbero essere considerati oggettivamente responsabili per gli atti o le omissioni di un robot se, ad esempio, il robot è stato classificato come un oggetto pericoloso o rientra nell'ambito di norme di responsabilità del prodotto;
V. considerando che, nell'ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non saranno sufficienti per attivare la responsabilità di un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati;
X. considerando che sono palesi le carenze dell'attuale quadro normativo in materia di responsabilità contrattuale, dal momento che le macchine progettate per scegliere le loro controparti, negoziare termini contrattuali, concludere contratti e decidere se e come attuarli rendono inapplicabili le norme tradizionali, il che pone in evidenza la necessità di norme nuove più al passo con i tempi;
Y. considerando che, per quanto riguarda la responsabilità extracontrattuale, la direttiva 85/374/CEE del Consiglio del 25 luglio 19851 copre solamente i danni causati dai difetti di fabbricazione di un robot e a condizione che la persona danneggiata sia in grado di dimostrare il danno effettivo, il difetto nel prodotto e la connessione causale tra difetto e danno (responsabilità oggettiva o responsabilità senza colpa);
Z. considerando che, nonostante il campo di applicazione della direttiva 85/374/CEE, l'attuale quadro giuridico non sarebbe sufficiente a coprire i danni causati dalla nuova generazione di robot, in quanto questi possono essere dotati di capacità di adattamento e di apprendimento che implica un certo grado di imprevedibilità nel loro comportamento, dato che imparerebbero in modo autonomo, in base alle esperienze diversificate di ciascuno, e interagirebbero con l'ambiente in modo unico e imprevedibile;






PROGETTO DI RELAZIONE recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL))


European Civil Law Rules in Robotics