Vai al contenuto principale

Per una nuova etica dell'intelligenza artificiale
Le tecnologie rinnovano e cambiano l'umano
Convegno | 3 dicembre 2020 - Live streaming su Webex

Pubblicato: Martedì 17 novembre 2020

3 dicembre 2020 - Live streaming su Webex dalle 10
n. riunione: 121 765 9559
psw: dMzJGgNk322

Opinione ampiamente diffusa è che l'Intelligenza Artificiale (IA) debba servire gli interessi umani, che restano al cuore dell'innovazione tecnologia e il fine della stessa. Si va così ripetendo che l'IA è (e deve essere) pensata e implementata tenendo presente l'eccezionalità umana, che si manifesta nella capacità esclusivamente personale dell’autonomia etica. In questo senso, l’avvento dell'IA non comporterebbe affatto radicali cambiamenti sul piano morale, e i valori oggi già diffusi dovrebbero semplicemente essere applicati anche all'IA prestando soltanto una maggiore attenzione al fine di evitare abusi, che risulterebbero gravi anche per via dell'aumento delle capacità dispiegate.
D'altro canto, l'enorme aumento della potenza di calcolo degli elaboratori e l’ampia disponibilità di dati hanno reso efficace e praticabile il machine learning e il deep learning, e ciò sta comportando un salto significativo nel controllo dell'umanità stessa. L'aiuto offerto dall'IA non si limiterà solo a allargare le potenzialità umane, ma comporterà una loro trasformazione, aprendo la strada a forme inedite di umanità. Per prendere solo un esempio, già ora l'IA comporta un cambiamento radicale della “privacy”, nozione che verrà ad assumere connotati diversi da quelli del passato. Come la bioetica ha comportato un'etica nuova (senza assoluti) rispetto all'etica tradizionale (con assoluti), così anche IA-etica comporterà un rinnovamento dell’etica invalsa: in particolare, l'estensione dell'etica dal dominio dell’umano a quello dell’artificiale potrebbe portare a considerare le tecnologie stesse moralmente rilevanti, o come agenti o come pazienti morali. Tutto ciò richiederà un ripensamento delle nozioni centrali dell’etica oggi diffusa, foriero di innovazioni non facilmente prevedibili, ma che vanno considerate.

Programma della giornata
10.00 Saluti istituzionali

10.30 Presiede Tiziana Catarci
Sessione 1: Perché SIpEIA e perché un’etica innovativa dell'umano

10.40 Maurizio Mori (Università di Torino) - Perché una nuova Società per l'etica dell'IA
10,55 Tiziana Catarci (Sapienza Università di Roma) - AI for Good: equità, diversità e mancanza di pregiudizi
11.10 Giovanni Sartor (Università di Bologna) - Etica e diritto dell'IA
11.25 Piergiorgio Donatelli (Sapienza Università di Roma) - L'umanesimo liberale e l’etica dell’IA
11.40 Ines Crispini (Università della Calabria) - IA e nuove questioni di fiducia
11.55 Guido Boella (Università di Torino) - Un’etica per un mondo nuovo?
12.10 discussione sulle relazioni

12.30 pausa

12.50 Presiede Piergiorgio Donatelli
Sessione 2: Dimensioni della IA che trasformano l'umano

13.00 Piero Poccianti (Presidente AIxIA) - Siamo sicuri che abbia senso parlare di etica dell’Intelligenza Artificiale?
13.20 discussione
13.30 Amedeo Santosuosso (Università di Pavia) - IA e diritto: dalla predizione alla motivazione
ore 13.50 discussione
ore 14.00 Fosca Giannotti (CNR, Pisa) - Intelligenza Artificiale comprensibile: un’aspetto cruciale per preservare
l’autonomia di agire delle persone
14.20 discussione
14.30 Guglielmo Tamburrini (Università di Napoli Federico II) - Etica dell'IA: sfide locali, globali e strutturali
14.50 discussione
15.00 Paolo Fonio (Università di Torino) - Macchina, medico, paziente: la grande sfida dell’IA nella diagnostica per immagini
15.20 discussione
15.30 Viola Schiaffonati (Politecnico di Milano) - E’ possibile moralizzare l'IA in modo democratico?
15.50 discussione
16.00 Amedeo Cesta (CNR, Roma) - IA e benessere sociale: un obiettivo possibile?
16.20 discussione
16.30 Maurizio Mori (Università di Torino) - Conclusioni del Convegno e finalità di SIpEIA

16.45 conclusione dei lavori

 

Ultimo aggiornamento: 03/12/2020 11:05

Non cliccare qui!