Intelligenza artificiale, profilazione e nuove forme di discriminazione

Gianmarco Gometz
2022-01-01

Abstract

Il funzionamento delle odierne IA basate sul modello del machine learning rende disagevole determinare se un certo responso algoritmico posto alla base di scelte, decisioni e policies produttive di effetti giuridici rilevanti per le persone, sia o no censurabile in quanto direttamente o statisticamente discriminatorio, ossia fondato sulla considerazione di una qualche caratteristica protetta dal diritto antidiscriminatorio come ragione, motivo o causa diretta o indiretta di un certo trattamento svantaggioso. Si sosterrà che detta difficoltà non costituisce di per sé motivo sufficiente per vietare l’impiego di sistemi di IA come strumento di supporto informativo delle decisioni umane, e che i timori legati alle c.d. “discriminazioni algoritmiche” più fondati sono quelli relativi all’eventualità che certe decisioni produttive di effetti giuridici assai incisivi sulla vita degli individui vengano adottate col supporto di sistemi di IA che sbagliano, nel senso che non sono in grado di profilare attendibilmente i singoli per via di dati incompleti, obsoleti o biased, di errori nella costruzione degli algoritmi, nonché da limitazioni al loro uso ispirate, paradossalmente, dall’intento di evitare effetti discriminatori.
2022
Italiano
N. 15/2022
1
38
38
Comitato scientifico
scientifica
discriminazione; algoritmi; profilazione; intelligenza artificiale; discriminazione statistica; discriminazione algoritmica
Goal 16: Peace, justice and strong institutions
no
Gometz, Gianmarco
1.1 Articolo in rivista
info:eu-repo/semantics/article
1 Contributo su Rivista::1.1 Articolo in rivista
262
1
open
Files in This Item:
File Size Format  
2022_NS_Gometz PUBBLICATO.pdf

open access

Type: versione editoriale
Size 381.51 kB
Format Adobe PDF
381.51 kB Adobe PDF View/Open

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

Questionnaire and social

Share on:
Impostazioni cookie