CartaStraccia.News

“Carta Straccia”, nel nome la provocazione, nel contenuto la sostanza. Leggetelo. Non per abitudine, ma per scelta.

Editors Choice

3/recent/post-list

​Lo specchio di Asimov: Il rischio non è la rivolta delle macchine, ma la resa dell'uomo.

​Lo specchio di Asimov: Il rischio non è la rivolta delle macchine, ma la resa dell'uomo.
Le leggi dei robot, il processo all’uomo.
L'Editoriale di Luigi Palamara 
C’è una tentazione tutta moderna: credere che la morale sia programmabile.
Non insegnabile — programmabile. Come si carica una lavatrice.

Isaac Asimov, che di futuro ne sapeva più dei futurologi, fece una cosa tipicamente umana: provò a mettere ordine nel caos che l’uomo stesso avrebbe creato. Inventò tre leggi per i robot, e poi una quarta — più grande — perché l’uomo, quando scrive leggi, si accorge sempre dopo che mancava quella decisiva.

La Prima: il robot non deve fare male all’uomo.
La Seconda: il robot deve obbedire all’uomo.
La Terza: il robot deve salvarsi, ma solo dopo aver salvato l’uomo.

Poi arrivò la Legge Zero: non deve fare male all’umanità.

È qui che comincia il dramma.

Perché fino alla Prima Legge siamo nella morale elementare: non uccidere.
Fino alla Seconda siamo nella politica: obbedisci.
Fino alla Terza siamo nella biologia: sopravvivi.

Ma la Legge Zero è teologia civile: cos’è l’umanità?

Non lo sappiamo nemmeno noi.

E pretendiamo che lo sappia una macchina.

Asimov voleva rassicurarci. Veniva da un secolo — il Novecento — in cui le macchine non si erano ribellate: avevano obbedito.
E obbedendo avevano sterminato.

I campi di concentramento non erano errori meccanici. Erano perfettamente funzionanti.
L’efficienza non è morale. È solo efficiente.

Così lo scrittore russo-americano fece l’operazione opposta al mito di Frankenstein: non il robot che diventa uomo, ma l’uomo che costringe la macchina ad avere una coscienza migliore della sua.

Un robot incapace di crudeltà.
In pratica: un essere più civile dell’umanità che lo costruisce.

Era fantascienza.
Oggi è un problema giuridico.


Nel mondo reale i robot non capiscono cos’è “danno”.
Capiscono solo “parametri”.

Non sanno cos’è un uomo: sanno cos’è un bersaglio.
Non sanno cos’è sofferenza: sanno cos’è probabilità di errore.
Non sanno cos’è responsabilità: sanno cos’è input.

E mentre i filosofi discutono di etica dell’Intelligenza Artificiale, gli eserciti addestrano droni a scegliere chi colpire prima ancora che un soldato abbia il tempo di avere paura.

La Prima Legge, quindi, è già morta.
Non violata: semplicemente mai nata.

Perché una legge morale esiste solo se qualcuno può sentirne il peso.
Una macchina non sente peso.
Sente istruzioni.

Allora l’Europa scrive regolamenti. Non per le macchine — per gli uomini che le vendono.

È un dettaglio decisivo.

Non stiamo insegnando ai robot a non fare male.
Stiamo stabilendo chi paga quando lo fanno.

La responsabilità non è dell’intelligenza artificiale.
È della nostra naturale stupidità.

Il programmatore diventa il nuovo fabbricante di armi morali: non decide chi morirà, ma costruisce il meccanismo che renderà la morte inevitabile e statisticamente accettabile.

Abbiamo trasferito la coscienza dall’atto alla percentuale.

E qui Asimov diventa improvvisamente attuale — ma nel modo opposto a quello che sperava.

Le sue leggi non servono ai robot.
Servono a noi.

Non sono un manuale di ingegneria.
Sono uno specchio.

La Prima Legge chiede: sei capace di non nuocere?
La Seconda: sei capace di non obbedire a ordini ingiusti?
La Terza: sei disposto a sacrificarti?
La Zero: sai cos’è il bene collettivo senza trasformarlo in tirannia?

Sono domande umane, non artificiali.

Il paradosso è che l’unica creatura sulla Terra incapace di seguire sempre queste leggi… è proprio quella che le ha scritte.

Il vero timore non è che le macchine diventino simili a noi.
È che noi diventiamo simili a loro.

Che delegando decisioni morali agli algoritmi, l’uomo smetta di essere colpevole — e quindi responsabile — e diventi soltanto operatore.

La civiltà finisce quando nessuno è più moralmente necessario.

Asimov voleva evitare la rivolta delle macchine.
Il rischio reale è la resa dell’uomo.

Non davanti all’intelligenza artificiale.
Davanti alla comodità artificiale.

Luigi Palamara Giornalista e Artista Aspromontàno 
Di seguito le leggi di Asimov.

Le Tre Leggi della Robotica
​Queste leggi sono gerarchiche: la prima è la più importante e nessuna delle successive può violarla.

​Prima Legge: Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

​Seconda Legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.

​Terza Legge: Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

​La "Legge Zero"
​In seguito, nei suoi romanzi più tardi (come I Robot e l'Impero), Asimov introdusse una legge ancora più fondamentale, necessaria per permettere ai robot di prendere decisioni che riguardano l'umanità nel suo complesso:

​Legge Zero: Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.
​Perché sono state scritte?

​Prima di Asimov, la fantascienza narrava spesso di robot che si ribellavano ai creatori (il cosiddetto "complesso di Frankenstein"). Asimov voleva invece descrivere i robot come strumenti industriali sicuri, dotati di protezioni intrinseche.

​Sono usate oggi nella realtà?
​Sebbene siano un pilastro della cultura pop e dell'etica dell'Intelligenza Artificiale, non sono "codificate" nei software attuali per diversi motivi:

​Complessità del linguaggio: I robot moderni non "comprendono" concetti astratti come "danno" o "essere umano" in modo filosofico.

​Ambito militare: Molti droni e sistemi di difesa sono progettati proprio per offendere, il che violerebbe direttamente la Prima Legge.

​Responsabilità legale: Oggi le leggi reali (come l'AI Act dell'Unione Europea) si concentrano sulla responsabilità dei produttori e programmatori, piuttosto che su quella della macchina stessa.
@luigi.palamara

​Lo specchio di Asimov: Il rischio non è la rivolta delle macchine, ma la resa dell'uomo. Le leggi dei robot, il processo all’uomo. L'Editoriale di Luigi Palamara C’è una tentazione tutta moderna: credere che la morale sia programmabile. Non insegnabile — programmabile. Come si carica una lavatrice. Isaac Asimov, che di futuro ne sapeva più dei futurologi, fece una cosa tipicamente umana: provò a mettere ordine nel caos che l’uomo stesso avrebbe creato. Inventò tre leggi per i robot, e poi una quarta — più grande — perché l’uomo, quando scrive leggi, si accorge sempre dopo che mancava quella decisiva. La Prima: il robot non deve fare male all’uomo. La Seconda: il robot deve obbedire all’uomo. La Terza: il robot deve salvarsi, ma solo dopo aver salvato l’uomo. Poi arrivò la Legge Zero: non deve fare male all’umanità. È qui che comincia il dramma. Perché fino alla Prima Legge siamo nella morale elementare: non uccidere. Fino alla Seconda siamo nella politica: obbedisci. Fino alla Terza siamo nella biologia: sopravvivi. Ma la Legge Zero è teologia civile: cos’è l’umanità? Non lo sappiamo nemmeno noi. E pretendiamo che lo sappia una macchina. Asimov voleva rassicurarci. Veniva da un secolo — il Novecento — in cui le macchine non si erano ribellate: avevano obbedito. E obbedendo avevano sterminato. I campi di concentramento non erano errori meccanici. Erano perfettamente funzionanti. L’efficienza non è morale. È solo efficiente. Così lo scrittore russo-americano fece l’operazione opposta al mito di Frankenstein: non il robot che diventa uomo, ma l’uomo che costringe la macchina ad avere una coscienza migliore della sua. Un robot incapace di crudeltà. In pratica: un essere più civile dell’umanità che lo costruisce. Era fantascienza. Oggi è un problema giuridico. Nel mondo reale i robot non capiscono cos’è “danno”. Capiscono solo “parametri”. Non sanno cos’è un uomo: sanno cos’è un bersaglio. Non sanno cos’è sofferenza: sanno cos’è probabilità di errore. Non sanno cos’è responsabilità: sanno cos’è input. E mentre i filosofi discutono di etica dell’Intelligenza Artificiale, gli eserciti addestrano droni a scegliere chi colpire prima ancora che un soldato abbia il tempo di avere paura. La Prima Legge, quindi, è già morta. Non violata: semplicemente mai nata. Perché una legge morale esiste solo se qualcuno può sentirne il peso. Una macchina non sente peso. Sente istruzioni. Allora l’Europa scrive regolamenti. Non per le macchine — per gli uomini che le vendono. È un dettaglio decisivo. Non stiamo insegnando ai robot a non fare male. Stiamo stabilendo chi paga quando lo fanno. La responsabilità non è dell’intelligenza artificiale. È della nostra naturale stupidità. Il programmatore diventa il nuovo fabbricante di armi morali: non decide chi morirà, ma costruisce il meccanismo che renderà la morte inevitabile e statisticamente accettabile. Abbiamo trasferito la coscienza dall’atto alla percentuale. E qui Asimov diventa improvvisamente attuale — ma nel modo opposto a quello che sperava. Le sue leggi non servono ai robot. Servono a noi. Non sono un manuale di ingegneria. Sono uno specchio. La Prima Legge chiede: sei capace di non nuocere? La Seconda: sei capace di non obbedire a ordini ingiusti? La Terza: sei disposto a sacrificarti? La Zero: sai cos’è il bene collettivo senza trasformarlo in tirannia? Sono domande umane, non artificiali. Il paradosso è che l’unica creatura sulla Terra incapace di seguire sempre queste leggi… è proprio quella che le ha scritte. Il vero timore non è che le macchine diventino simili a noi. È che noi diventiamo simili a loro. Che delegando decisioni morali agli algoritmi, l’uomo smetta di essere colpevole — e quindi responsabile — e diventi soltanto operatore. La civiltà finisce quando nessuno è più moralmente necessario. Asimov voleva evitare la rivolta delle macchine. Il rischio reale è la resa dell’uomo. Non davanti all’intelligenza artificiale. Davanti alla comodità artificiale. Luigi Palamara Giornalista e Artista Aspromontàno

♬ audio originale - Luigi Palamara
@luigi.palamara

Lo specchio di Asimov: Il rischio non è la rivolta delle macchine, ma la resa dell'uomo. Le leggi dei robot, il processo all’uomo. L'Editoriale di Luigi Palamara C’è una tentazione tutta moderna: credere che la morale sia programmabile. Non insegnabile — programmabile. Come si carica una lavatrice. Isaac Asimov, che di futuro ne sapeva più dei futurologi, fece una cosa tipicamente umana: provò a mettere ordine nel caos che l’uomo stesso avrebbe creato. Inventò tre leggi per i robot, e poi una quarta — più grande — perché l’uomo, quando scrive leggi, si accorge sempre dopo che mancava quella decisiva. La Prima: il robot non deve fare male all’uomo. La Seconda: il robot deve obbedire all’uomo. La Terza: il robot deve salvarsi, ma solo dopo aver salvato l’uomo. Poi arrivò la Legge Zero: non deve fare male all’umanità. È qui che comincia il dramma. Perché fino alla Prima Legge siamo nella morale elementare: non uccidere. Fino alla Seconda siamo nella politica: obbedisci. Fino alla Terza siamo nella biologia: sopravvivi. Ma la Legge Zero è teologia civile: cos’è l’umanità? Non lo sappiamo nemmeno noi. E pretendiamo che lo sappia una macchina. Asimov voleva rassicurarci. Veniva da un secolo — il Novecento — in cui le macchine non si erano ribellate: avevano obbedito. E obbedendo avevano sterminato. I campi di concentramento non erano errori meccanici. Erano perfettamente funzionanti. L’efficienza non è morale. È solo efficiente. Così lo scrittore russo-americano fece l’operazione opposta al mito di Frankenstein: non il robot che diventa uomo, ma l’uomo che costringe la macchina ad avere una coscienza migliore della sua. Un robot incapace di crudeltà. In pratica: un essere più civile dell’umanità che lo costruisce. Era fantascienza. Oggi è un problema giuridico. Nel mondo reale i robot non capiscono cos’è “danno”. Capiscono solo “parametri”. Non sanno cos’è un uomo: sanno cos’è un bersaglio. Non sanno cos’è sofferenza: sanno cos’è probabilità di errore. Non sanno cos’è responsabilità: sanno cos’è input. E mentre i filosofi discutono di etica dell’Intelligenza Artificiale, gli eserciti addestrano droni a scegliere chi colpire prima ancora che un soldato abbia il tempo di avere paura. La Prima Legge, quindi, è già morta. Non violata: semplicemente mai nata. Perché una legge morale esiste solo se qualcuno può sentirne il peso. Una macchina non sente peso. Sente istruzioni. Allora l’Europa scrive regolamenti. Non per le macchine — per gli uomini che le vendono. È un dettaglio decisivo. Non stiamo insegnando ai robot a non fare male. Stiamo stabilendo chi paga quando lo fanno. La responsabilità non è dell’intelligenza artificiale. È della nostra naturale stupidità. Il programmatore diventa il nuovo fabbricante di armi morali: non decide chi morirà, ma costruisce il meccanismo che renderà la morte inevitabile e statisticamente accettabile. Abbiamo trasferito la coscienza dall’atto alla percentuale. E qui Asimov diventa improvvisamente attuale — ma nel modo opposto a quello che sperava. Le sue leggi non servono ai robot. Servono a noi. Non sono un manuale di ingegneria. Sono uno specchio. La Prima Legge chiede: sei capace di non nuocere? La Seconda: sei capace di non obbedire a ordini ingiusti? La Terza: sei disposto a sacrificarti? La Zero: sai cos’è il bene collettivo senza trasformarlo in tirannia? Sono domande umane, non artificiali. Il paradosso è che l’unica creatura sulla Terra incapace di seguire sempre queste leggi… è proprio quella che le ha scritte. Il vero timore non è che le macchine diventino simili a noi. È che noi diventiamo simili a loro. Che delegando decisioni morali agli algoritmi, l’uomo smetta di essere colpevole — e quindi responsabile — e diventi soltanto operatore. La civiltà finisce quando nessuno è più moralmente necessario. Asimov voleva evitare la rivolta delle macchine. Il rischio reale è la resa dell’uomo. Non davanti all’intelligenza artificiale. Davanti alla comodità artificiale. Luigi Palamara Giornalista e Artista Aspromontàno

♬ audio originale - Luigi Palamara

Posta un commento

0 Commenti