Intelligenza artificiale. Bolognini (IIP): “Tra privacy e algoritmi. Equilibrio difficile ma necessario”
Intelligenza artificiale. Bolognini (IIP): “Tra privacy e algoritmi. Equilibrio difficile ma necessario”

Condividi:

Oltre a straordinarie opportunità, il progresso velocissimo e dirompente delle nuove tecnologie porta con sé “minacce per la libertà e la dignità delle persone”. Per questo, tutelare la privacy non sarà più “occuparsi di mera sicurezza dei dati e dei sistemi” ma occorrerà anche “proteggerci da sensori e da minacce non umane, poco tracciabili e ‘responsabilizzabili’”. Insomma “garantire i diritti alla protezione dei dati personali e alla riservatezza significherà occuparsi di algoritmi, decisioni automatizzate, intelligenza artificiale (AI), umanità aumentata (o perfino sostituita)”. Ne è convinto LucaBolognini, avvocato e uno dei massimi esperti europei di privacy e di diritto dei dati, presidente dell’Istituto italiano per la privacy e la valorizzazione dei dati (IIP) e autore del recente pamphlet “Follia artificiale – Riflessioni per la resistenza dell’intelligenza umana”. Bolognini è intervenuto nei giorni scorsi al convegno “Le tecnologie che cambieranno la società e le professioni: intelligenza artificiale, internet delle cose, blockchain e 5G” promosso dall’Università europea di Roma. Lo abbiamo incontrato a margine.

Perché occuparsi di “follia artificiale”?
Ho voluto esplorare sia le derive che l’intelligenza artificiale può comportare – e quindi guardare l’intelligenza da un punto di vista “patologico” anche quando si tratta di intelligenza non umana – sia indagare con il filtro del giurista gli aspetti di sbandamento dell’essere umano alle prese con l’utilizzo dell’intelligenza artificiale. Due prospettive che devono essere sempre tenute insieme.

La sua visione è per certi aspetti “umanistica”.
Quando si affronta il tema dell’intelligenza, artificiale o no, non può essere altrimenti. Si sollevano questioni giuridiche, etiche, filosofiche. Bisogna tenere conto del cambiamento degli scenari in cui siamo immersi e dell’intrecciarsi di nuove dinamiche, la principale delle quali è il combinarsi tra fusione materiale e immateriale con il continuo tracciamento di tutto e di tutti e la tecnologizzazione delle relazioni umane. Ciò che saremo e faremo nel mondo fisico sarà sempre più trasformato in dati digitali perché, a prescindere dalla nostra consapevolezza, noi “spargiamo” tracce che i sensori “catturano”. Dietro l’AI c’è l’enorme tema degli algoritmi che si ricollega alla sostituzione del pensiero umano, che non è il mero sostituirsi all’azione dell’uomo come ormai avviene da anni in alcuni settori, bensì la sostituzione di pensiero, di volontà, di scelta e magari di regole.

Che cosa intende dire?
Il codice algoritmico, che comporta delle decisioni e degli effetti, è una norma che si installa da sé. Noi ci ritroviamo ad avere a che fare con scenari normati da un codice informatico e ciò è potenzialmente drammatico per la libertà umana. È difficilissimo capire che cosa c’è dietro un algoritmo che fa meta–analisi. Un algoritmo che si autoscrive e si evolve in maniera automatica.

Ci troviamo di fronte a black box, scatole nere, impenetrabili se viste da fuori ma collegate all’enorme mole di dati che esiste su ognuno di noi e della quale l’individuo stesso ignora l’esistenza perché si tratta di dati raccolti in maniera silenziosa o di meta-dati nuovi, creati come risultato di elaborazioni intelligenti eseguite a nostra insaputa, veri e propri tesori per i grandi colossi del web e del digitale. Su questo bisogna interrogarsi perché non vi è sufficiente consapevolezza del potere che i big player IT hanno su di noi.

Come cambia e come dovrà allora articolarsi la tutela della privacy e la protezione dei dati?
In futuro la protezione dei dati – e più in generale il diritto dei big data e dei dati personali – sarà sempre più “diritto dell’intelligenza artificiale” in quanto diritto dei dati che servono a fare l’elaborazione intelligente. Il GDPR (General Data Protection, regolamento europeo sulla privacy applicabile dal 25 maggio 2018 in tutti gli Stati, ndr) è sicuramente un primo passo che l’Europa fa a livello mondiale ma non è del tutto adeguato. Tenta di individuare principi generali da applicare anche al mondo dell’AI, ma alcuni di questi principi, se interpretati in maniera troppo ferrea o burocratica, rischiano di essere scollegati dalla realtà e di mettere fuori legge qualsiasi Big Data analyticis. Pericolosa quanto la negazione della privacy è ogni forma di integralismo, di fondamentalismo del diritto che impedisca aprioristicamente, per pregiudizio, il progresso, la ricerca scientifica e la libertà d’impresa.

Continua a leggere

Argomenti: Tecnologie
Tag: Comunicazione intelligenza artificiale internet
Fonte: SIR