Il premier cinese a Davos: "Gli esseri umani devono controllare le macchine, non il contrario"
La formazione di standard etici per l'intelligenza artificiale dovrebbe
essere inclusa nell'agenda degli incontri BRICS del 2024. Questa è la
volontà manifestata dal Presidente russo Vladimir Putin.
Fonte: AntiDiplomatico
Un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno.
Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso che tali ordini contrastino con la Prima Legge.
Un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con la Prima e la Seconda Legge.
In I Robot e l’Impero (1985), Asimov aggiunge poi la Legge Zero, che però è accettata solo dai robot più sofisticati. Questa legge è anteposta, in ordine di importanza, alle altre, permettendo una maggiore efficienza ai robot:
Un robot non può recare danno all’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva un danno.
Un robot non può recare danno all’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva un danno.
Fonte: areeweb
Ora è facile dire che serve una regolamentazione (legge) per evitare che IA diventi pericolosa per gli umani ma, bisogna ricordare che le leggi le fanno gli umani, per gli umani. Non sono gli umani che devono essere normati, non è l'umanità, intesa sia come collettività e sia come caratteristica intrinseca agli esseri umani, che deve essere regolamentata.
Asimov ci insegna che sono i robot e l'intelligenza artificiale che devono essere normate e che hanno bisogno di regole certe. Ma Asimov era uno scrittore di fantascienza, nella realtà ci sono interessi politici, economici e di potere, che purtroppo e in modo innaturale e contraddittorio, hanno precedenza sull'UMANITA!
Nessun commento:
Posta un commento