@luigi.palamara Lo specchio di Asimov: Il rischio non è la rivolta delle macchine, ma la resa dell'uomo. Le leggi dei robot, il processo all’uomo. L'Editoriale di Luigi Palamara C’è una tentazione tutta moderna: credere che la morale sia programmabile. Non insegnabile — programmabile. Come si carica una lavatrice. Isaac Asimov, che di futuro ne sapeva più dei futurologi, fece una cosa tipicamente umana: provò a mettere ordine nel caos che l’uomo stesso avrebbe creato. Inventò tre leggi per i robot, e poi una quarta — più grande — perché l’uomo, quando scrive leggi, si accorge sempre dopo che mancava quella decisiva. La Prima: il robot non deve fare male all’uomo. La Seconda: il robot deve obbedire all’uomo. La Terza: il robot deve salvarsi, ma solo dopo aver salvato l’uomo. Poi arrivò la Legge Zero: non deve fare male all’umanità. È qui che comincia il dramma. Perché fino alla Prima Legge siamo nella morale elementare: non uccidere. Fino alla Seconda siamo nella politica: obbedisci. Fino alla Terza siamo nella biologia: sopravvivi. Ma la Legge Zero è teologia civile: cos’è l’umanità? Non lo sappiamo nemmeno noi. E pretendiamo che lo sappia una macchina. Asimov voleva rassicurarci. Veniva da un secolo — il Novecento — in cui le macchine non si erano ribellate: avevano obbedito. E obbedendo avevano sterminato. I campi di concentramento non erano errori meccanici. Erano perfettamente funzionanti. L’efficienza non è morale. È solo efficiente. Così lo scrittore russo-americano fece l’operazione opposta al mito di Frankenstein: non il robot che diventa uomo, ma l’uomo che costringe la macchina ad avere una coscienza migliore della sua. Un robot incapace di crudeltà. In pratica: un essere più civile dell’umanità che lo costruisce. Era fantascienza. Oggi è un problema giuridico. Nel mondo reale i robot non capiscono cos’è “danno”. Capiscono solo “parametri”. Non sanno cos’è un uomo: sanno cos’è un bersaglio. Non sanno cos’è sofferenza: sanno cos’è probabilità di errore. Non sanno cos’è responsabilità: sanno cos’è input. E mentre i filosofi discutono di etica dell’Intelligenza Artificiale, gli eserciti addestrano droni a scegliere chi colpire prima ancora che un soldato abbia il tempo di avere paura. La Prima Legge, quindi, è già morta. Non violata: semplicemente mai nata. Perché una legge morale esiste solo se qualcuno può sentirne il peso. Una macchina non sente peso. Sente istruzioni. Allora l’Europa scrive regolamenti. Non per le macchine — per gli uomini che le vendono. È un dettaglio decisivo. Non stiamo insegnando ai robot a non fare male. Stiamo stabilendo chi paga quando lo fanno. La responsabilità non è dell’intelligenza artificiale. È della nostra naturale stupidità. Il programmatore diventa il nuovo fabbricante di armi morali: non decide chi morirà, ma costruisce il meccanismo che renderà la morte inevitabile e statisticamente accettabile. Abbiamo trasferito la coscienza dall’atto alla percentuale. E qui Asimov diventa improvvisamente attuale — ma nel modo opposto a quello che sperava. Le sue leggi non servono ai robot. Servono a noi. Non sono un manuale di ingegneria. Sono uno specchio. La Prima Legge chiede: sei capace di non nuocere? La Seconda: sei capace di non obbedire a ordini ingiusti? La Terza: sei disposto a sacrificarti? La Zero: sai cos’è il bene collettivo senza trasformarlo in tirannia? Sono domande umane, non artificiali. Il paradosso è che l’unica creatura sulla Terra incapace di seguire sempre queste leggi… è proprio quella che le ha scritte. Il vero timore non è che le macchine diventino simili a noi. È che noi diventiamo simili a loro. Che delegando decisioni morali agli algoritmi, l’uomo smetta di essere colpevole — e quindi responsabile — e diventi soltanto operatore. La civiltà finisce quando nessuno è più moralmente necessario. Asimov voleva evitare la rivolta delle macchine. Il rischio reale è la resa dell’uomo. Non davanti all’intelligenza artificiale. Davanti alla comodità artificiale. Luigi Palamara Giornalista e Artista Aspromontàno
♬ audio originale - Luigi Palamara
@luigi.palamara Lo specchio di Asimov: Il rischio non è la rivolta delle macchine, ma la resa dell'uomo. Le leggi dei robot, il processo all’uomo. L'Editoriale di Luigi Palamara C’è una tentazione tutta moderna: credere che la morale sia programmabile. Non insegnabile — programmabile. Come si carica una lavatrice. Isaac Asimov, che di futuro ne sapeva più dei futurologi, fece una cosa tipicamente umana: provò a mettere ordine nel caos che l’uomo stesso avrebbe creato. Inventò tre leggi per i robot, e poi una quarta — più grande — perché l’uomo, quando scrive leggi, si accorge sempre dopo che mancava quella decisiva. La Prima: il robot non deve fare male all’uomo. La Seconda: il robot deve obbedire all’uomo. La Terza: il robot deve salvarsi, ma solo dopo aver salvato l’uomo. Poi arrivò la Legge Zero: non deve fare male all’umanità. È qui che comincia il dramma. Perché fino alla Prima Legge siamo nella morale elementare: non uccidere. Fino alla Seconda siamo nella politica: obbedisci. Fino alla Terza siamo nella biologia: sopravvivi. Ma la Legge Zero è teologia civile: cos’è l’umanità? Non lo sappiamo nemmeno noi. E pretendiamo che lo sappia una macchina. Asimov voleva rassicurarci. Veniva da un secolo — il Novecento — in cui le macchine non si erano ribellate: avevano obbedito. E obbedendo avevano sterminato. I campi di concentramento non erano errori meccanici. Erano perfettamente funzionanti. L’efficienza non è morale. È solo efficiente. Così lo scrittore russo-americano fece l’operazione opposta al mito di Frankenstein: non il robot che diventa uomo, ma l’uomo che costringe la macchina ad avere una coscienza migliore della sua. Un robot incapace di crudeltà. In pratica: un essere più civile dell’umanità che lo costruisce. Era fantascienza. Oggi è un problema giuridico. Nel mondo reale i robot non capiscono cos’è “danno”. Capiscono solo “parametri”. Non sanno cos’è un uomo: sanno cos’è un bersaglio. Non sanno cos’è sofferenza: sanno cos’è probabilità di errore. Non sanno cos’è responsabilità: sanno cos’è input. E mentre i filosofi discutono di etica dell’Intelligenza Artificiale, gli eserciti addestrano droni a scegliere chi colpire prima ancora che un soldato abbia il tempo di avere paura. La Prima Legge, quindi, è già morta. Non violata: semplicemente mai nata. Perché una legge morale esiste solo se qualcuno può sentirne il peso. Una macchina non sente peso. Sente istruzioni. Allora l’Europa scrive regolamenti. Non per le macchine — per gli uomini che le vendono. È un dettaglio decisivo. Non stiamo insegnando ai robot a non fare male. Stiamo stabilendo chi paga quando lo fanno. La responsabilità non è dell’intelligenza artificiale. È della nostra naturale stupidità. Il programmatore diventa il nuovo fabbricante di armi morali: non decide chi morirà, ma costruisce il meccanismo che renderà la morte inevitabile e statisticamente accettabile. Abbiamo trasferito la coscienza dall’atto alla percentuale. E qui Asimov diventa improvvisamente attuale — ma nel modo opposto a quello che sperava. Le sue leggi non servono ai robot. Servono a noi. Non sono un manuale di ingegneria. Sono uno specchio. La Prima Legge chiede: sei capace di non nuocere? La Seconda: sei capace di non obbedire a ordini ingiusti? La Terza: sei disposto a sacrificarti? La Zero: sai cos’è il bene collettivo senza trasformarlo in tirannia? Sono domande umane, non artificiali. Il paradosso è che l’unica creatura sulla Terra incapace di seguire sempre queste leggi… è proprio quella che le ha scritte. Il vero timore non è che le macchine diventino simili a noi. È che noi diventiamo simili a loro. Che delegando decisioni morali agli algoritmi, l’uomo smetta di essere colpevole — e quindi responsabile — e diventi soltanto operatore. La civiltà finisce quando nessuno è più moralmente necessario. Asimov voleva evitare la rivolta delle macchine. Il rischio reale è la resa dell’uomo. Non davanti all’intelligenza artificiale. Davanti alla comodità artificiale. Luigi Palamara Giornalista e Artista Aspromontàno
♬ audio originale - Luigi Palamara
0 Commenti
LASCIA IL TUO COMMENTO. La tua opinione è importante.