Rapporto tra etica e AI
Angelo Maria Petroni
Angelo Maria Petroni, Segretario Generale, Aspen Institute Italia, ci illustra la sua idea riguardo il rapporto tra etica ed AI.
Ogni nuova tecnologia richiede una regolamentazione giuridica e sta avvenendo la stessa cosa per l'intelligenza artificiale evidentemente: ci sono norme europee, norme statunitensi. Ma ci dobbiamo porre una domanda: le leggi bastano, sono sufficienti perché qualsiasi cosa umana compresa la nuova tecnologia, funzioni bene? Le leggi sono sufficienti se riguardano la regolamentazione del sistema elettrico non esiste l'etica del tuo impianto elettrico però ci sono delle norme sul tuo impianto elettrico su come deve essere fatto.
Ma quando parliamo di una cosa invasiva, in senso buono, estesa ì,che cambia il modo di di far giornalismo, di insegnare, di di far diritto, come l'intelligenza artificiale bastano le norme giuridiche le norme giuridiche? Le norme giuridiche regolamentano le cose sulla base degli interessi di oggi.
Allora la regolamentazione del sistema elettrico è fatta dagli stati e serve a mettere insieme l'interesse del cittadino e anche quello delle case che producono impianti elettrici.
Le leggi contemplano gli interessi diversi e sono interessi tangibili, immediati, si capisce cosa c'è in gioco.
Per l'intelligenza artificiale non si capisce cosa sia in gioco, soprattutto per l'intelligenza artificiale vale il principio molto astratto che sembra interessi "adespoti", cioè "quelli che non hanno padre". Quali sono gli interessi delle generazioni future? Chi li rappresenta? Nessuno.
Allora quando si tratta o di cose non molto chiare come neu diritti ad esempio delle generazioni future è solo l'etica che può guidare l'azione umana: il diritto regola quello che c'è, l'etica quello che ci dovrà essere. Per questo l'intelligenza artificiale, che è una tecnologia così "distruptive", ha bisogno di un'etica non come abbellimento, altrimenti è la stessa regolamentazione che non sarà buona. Ma deve essere guidata dal bilanciamento degli interessi ed è ovvio, ma anche dal vedere gli interessi futuri.
Ogni nuova tecnologia richiede una regolamentazione giuridica e sta avvenendo la stessa cosa per l'intelligenza artificiale evidentemente: ci sono norme europee, norme statunitensi. Ma ci dobbiamo porre una domanda: le leggi bastano, sono sufficienti perché qualsiasi cosa umana compresa la nuova tecnologia, funzioni bene? Le leggi sono sufficienti se riguardano la regolamentazione del sistema elettrico non esiste l'etica del tuo impianto elettrico però ci sono delle norme sul tuo impianto elettrico su come deve essere fatto.
Ma quando parliamo di una cosa invasiva, in senso buono, estesa ì,che cambia il modo di di far giornalismo, di insegnare, di di far diritto, come l'intelligenza artificiale bastano le norme giuridiche le norme giuridiche? Le norme giuridiche regolamentano le cose sulla base degli interessi di oggi.
Allora la regolamentazione del sistema elettrico è fatta dagli stati e serve a mettere insieme l'interesse del cittadino e anche quello delle case che producono impianti elettrici.
Le leggi contemplano gli interessi diversi e sono interessi tangibili, immediati, si capisce cosa c'è in gioco.
Per l'intelligenza artificiale non si capisce cosa sia in gioco, soprattutto per l'intelligenza artificiale vale il principio molto astratto che sembra interessi "adespoti", cioè "quelli che non hanno padre". Quali sono gli interessi delle generazioni future? Chi li rappresenta? Nessuno.
Allora quando si tratta o di cose non molto chiare come neu diritti ad esempio delle generazioni future è solo l'etica che può guidare l'azione umana: il diritto regola quello che c'è, l'etica quello che ci dovrà essere. Per questo l'intelligenza artificiale, che è una tecnologia così "distruptive", ha bisogno di un'etica non come abbellimento, altrimenti è la stessa regolamentazione che non sarà buona. Ma deve essere guidata dal bilanciamento degli interessi ed è ovvio, ma anche dal vedere gli interessi futuri.