In evidenza Intelligenza Artificiale

Etica digitale e diritto dell’intelligenza artificiale. Una tavola rotonda da ascoltare

Segnaliamo per chi non fosse riuscito ad averne notizia (e purtroppo non siamo riusciti a intercettare l’evento se non dopo la sua trasmissione), presentiamo un riepilogo di un interessante dibattito on line organizzato dal Comune di Villorba.

Il dibattito ha visto dialogare tre intellettuali che si sono occupati di Intelligenza Artificiale, ognuno dal punto di vista della disciplina sulla quale esprime maggiore padronanza:

  • Andrea Maria Garofalo, ricercatore in diritto privato presso l’Università Ca’ Foscari di Venezia, avvocato, docente di Diritto Privato;
  • Cosimo Accoto, filosofo, saggista e culture innovation advisor, Connection Science Fellow al MIT di Boston, autore de Il mondo ex machina. Cinque brevi lezioni di filosofia dell’automazione (Egea, 2019);
  • Paolo Benanti, docente di etica delle tecnologie presso la Pontificia Università Gregoriana a Roma nonché membro del gruppo di esperti incaricati dal MISE di elaborare la strategia nazionale per l’Intelligenza Artificiale è il creatore del neologismo algoretica, ripreso recentemente dallo stesso Pontefice a proposito delle implicazioni etiche dell’intelligenza artificiale e delle AI.

Il riepilogo della tavola rotonda

Per chi avesse la curiosità di leggere subito i punti fondamentali dalla discussione, riporteremo un riassunto dei punti più interessanti, ma consigliamo di assistere a tutta la discussione, anche per cogliere il linguaggio non verbale che sembra accomunare i tre studiosi in quello che, al di là delle intenzioni, appare fondamentalmente come un “inquieto disorientamento” di fronte allo strapotere delle intelligenze artificiali.

EDIT 31/05 – Per chi volesse guardare tutto il convegno, nel rispetto dello spirito dei relatori (e della licenza Creative Commons con cui è stato pubblicato…) segnaliamo l’importazione che abbiamo effettuato su PeerTube

Il video è comunque disponibile su Youtube.

L’intelligenza artificiale e gli algoritmi come oggetto di discipline preesistenti

Benanti

Ogni artefatto tecnologico è una disposizione di potere che può impedire l’esercizio dei diritti. L’algoretica interroga determinate discipline filosofia, teologia e legge, per interpretare e proporre la realtà.

Accoto

Il design non è mera tecnicalità: come il design di una sedia è anche un’ermeneutica del sedersi, così il design di algoritmi costituisce il prodotto di un sistema di convinzioni e pregiudizi, di standard e di compatibilità con chi si avvantaggia dello status quo o di chi ha il potere di modificarlo.

Garofalo

L’intelligenza artificiale deve essere oggetto del diritto in quanto le sue forme sono hanno impatto immenso sulla vita e i diritti dei cittadini.
La predittività per esempio impatta sul libero arbitrio o, per meglio dire, sul diritto universale di mantenere riservato e privato il proprio destino.
Che sia una predittività vera o presunta (come spesso accade per la ovvia fallibilità sistemi di AI) non importa, dal momento che viene convenzionalmente riconosciuta.

Come gestire l’impatto della AI sulla realtà

Benanti

Come scrive Cosimo Accoto ne “Il Mondo dato”, l’intelligenza artificiale condiziona i comportamenti.
Le istituzioni hanno la capacità di comprendere l’impatto e la progressione delll’AI? Il MISE ha chiamato 52 esperti che hanno analizzato il fenomeno ma siamo ancora in attesa di deliberare con cognizione. Forse è un processo troppo lento, ma questo è il processo democratico ed è opportuno cercare di mantenersi su questo solco.

Accoto

Le BigTech stanno portando la computazione su una scala globale, investendo cittadini, processi e istituzioni; ma soprattutto, la distribuzione di questa computazione è tale da superare le frontiere che separano gli stati, le normative, le religioni e i costumi.
In questo senso la tecnologia sta terraformando il mondo e costruendo in maniera occulta nuove condizioni di abitabilità del pianeta, al di fuori dal consesso degli organismi che tradizionalmente si sono occupate di armonizzare le sovranità statali.
Oggi però c’è necessità che aumenti anche la consapevolezza dal basso, formando i cittadini (ragazzi, famiglie, educatori) e rendendoli consapevoli di questa realtà e del codice sorgente che ne è alla base.

Garofalo

Il ruolo dell’Europa: è troppo piccola? Il Bruxelles-effect può funzionare?
Non è ancora chiaro, ma nel caso della AI, l’approccio non può essere quello della sanzione ma deve avvenire attraverso un controllo diffuso da parte di tutta la società su queste dinamiche, a cominciare dalla pericolosità di concedere quantità immense di dati personali ai giganti della tecnologia.
Se non c’è un freno a questi comportamenti, ogni tentativo regolatorio sarà inutile.
Quanto alla giustizia predittiva, ossia all’utilizzo di intelligenza artificiale nel processo civile e penale, è fondamentale comprendere che la AI non dovrebbe mai avere potere deliberativo perché gli svantaggi e i rischi non sono facilmente individuabili: non riusciremmo probabilmente a capire neanche quali malfunzionamenti ci potrebbero essere.
Le AI non possono motivare le scelte, perché l’ermeneutica di queste motivazioni è tecnicamente più complessa dell’elaborazione stessa delle motivazioni.

Siamo pronti?

Benanti

Sappiamo da tempo che l’informazione può essere computata ma questa teoria della computazionalità richiede una rifondazione della teoria del pensiero. Ecco perché, malgrado riusciamo a trovare nella nostra storia del pensiero molte suggestioni che dovranno essere rielaborate, non siamo pronti.
Il mito platonico della “caverna” rivive per esempio oggi in quel separé che nascondeva la natura naturale o artificiale dell’interlocutore nell’“Imitation game” di Turing: ebbene, se la “macchina” riesce a interpretare la realtà in maniera verosimile, allora risulterà più vantaggioso abitare nella caverna platonica e contemplare le ombre, piuttosto che uscire e osservare una realtà che non sia predigerita e preinterpretata.

Accoto

Noi non siamo pronti né dal punto di vista evolutivo (fisico e cognitivo) né culturale (legale ed etico).
Come nei viaggi spaziali l’allenamento è lungo e faticoso.
Ora la “missione” sta diventando quella di ri-abitare e ricivilizzare un mondo che è diventato diverso da quello di un secolo fa in un tempo più rapido di quanto non siamo stati in grado di adattarci.

Garofalo

Non siamo pronti: questa trasformazione ha superato il punto di singolarità e non ha dato tempo alle persone di interpretare la realtà.
L’unico tentativo potrebbe essere quello di promuovere un intervento normativo forte e condiviso.
Naturalmente la “comodità” costituita dalla profilazione non aiuta a promuovere lo spirito critico e la volontà di modificare la realtà: forse bisognerebbe quasi costringere i social network a restituire in timeline non solo i risultati della nostra bolla, ma anche quelli di opinioni e punti di vista differenti.

Vuoi segnalare un errore o dare un suggerimento? Scrivici su TwitterMastodon o sul gruppo telegram Comunicazione Pirata