This research is placed against the backdrop of the profound social and legal transformations brought about by the development of Artificial Intelligence (AI), one of the most transformative technological innovations of the 21st century. This thesis aims to critically analyse how AI technologies, particularly through algorithmic bias and emerging forms of image-based violence, pose significant challenges to achieving gender justice in contemporary digital societies. In fact, new AI-powered systems do not operate in a social vacuum, but in socio-economic contexts characterised by historical inequalities and asymmetrical power relations that are still deeply rooted in our institutional, social, political and regulatory systems. As a result, AI risks not only reflecting these imbalances but also exacerbating them. Using an interdisciplinary approach combining law, critical theory and gender studies, the research investigates the ability of current legal and ethical frameworks to effectively protect the rights and dignity of women and marginalised groups in the era of Artificial Intelligence. It aims to highlight regulatory gaps and propose guidelines for more inclusive and gender-positive governance, capable of addressing the complex power dynamics that the new technological revolution will bring forth.

La presente ricerca si colloca nel contesto della profonda trasformazione sociale e giuridica determinata dall’espansione dell’intelligenza artificiale (IA), oggi considerata una delle innovazioni tecnologiche più trasformative del XXI secolo. Questa tesi mira ad analizzare criticamente come le tecnologie di Intelligenza Artificiale, in particolare attraverso il bias algoritmico e le forme emergenti di violenza basata sulle immagini, pongano sfide significative alla realizzazione della giustizia di genere nelle società digitali contemporanee. Infatti, i nuovi sistemi operanti grazie all’IA non si inseriscono in un vuoto sociale, ma in contesti socioeconomici caratterizzati da disuguaglianze storiche e rapporti di potere asimmetrici ancora radicati nei nostri sistemi istituzionali, sociali, politici e normativi. Di conseguenza, essa rischia non solo di riflettere tali squilibri, ma anche di consolidarli e amplificarli. Utilizzando un approccio interdisciplinare che combina diritto, teoria critica e studi di genere, la ricerca indaga la capacità degli attuali quadri giuridici ed etici di proteggere efficacemente i diritti e la dignità delle donne e dei gruppi marginalizzati e soggetti a discriminazione nell'era dell'Intelligenza Artificiale. Essa intende evidenziare le lacune normative e proporre linee guida per una governance più inclusiva e consapevole capace di affrontare le complesse dinamiche di potere che la nuova rivoluzione tecnologica porterà con sé.

Framing Gender-Based Violence in the Age of Artificial Intelligence: the cases of algorithmic discrimination and of deepfake pornography

BELLOMO, GIORGIA
2024/2025

Abstract

This research is placed against the backdrop of the profound social and legal transformations brought about by the development of Artificial Intelligence (AI), one of the most transformative technological innovations of the 21st century. This thesis aims to critically analyse how AI technologies, particularly through algorithmic bias and emerging forms of image-based violence, pose significant challenges to achieving gender justice in contemporary digital societies. In fact, new AI-powered systems do not operate in a social vacuum, but in socio-economic contexts characterised by historical inequalities and asymmetrical power relations that are still deeply rooted in our institutional, social, political and regulatory systems. As a result, AI risks not only reflecting these imbalances but also exacerbating them. Using an interdisciplinary approach combining law, critical theory and gender studies, the research investigates the ability of current legal and ethical frameworks to effectively protect the rights and dignity of women and marginalised groups in the era of Artificial Intelligence. It aims to highlight regulatory gaps and propose guidelines for more inclusive and gender-positive governance, capable of addressing the complex power dynamics that the new technological revolution will bring forth.
2024
La presente ricerca si colloca nel contesto della profonda trasformazione sociale e giuridica determinata dall’espansione dell’intelligenza artificiale (IA), oggi considerata una delle innovazioni tecnologiche più trasformative del XXI secolo. Questa tesi mira ad analizzare criticamente come le tecnologie di Intelligenza Artificiale, in particolare attraverso il bias algoritmico e le forme emergenti di violenza basata sulle immagini, pongano sfide significative alla realizzazione della giustizia di genere nelle società digitali contemporanee. Infatti, i nuovi sistemi operanti grazie all’IA non si inseriscono in un vuoto sociale, ma in contesti socioeconomici caratterizzati da disuguaglianze storiche e rapporti di potere asimmetrici ancora radicati nei nostri sistemi istituzionali, sociali, politici e normativi. Di conseguenza, essa rischia non solo di riflettere tali squilibri, ma anche di consolidarli e amplificarli. Utilizzando un approccio interdisciplinare che combina diritto, teoria critica e studi di genere, la ricerca indaga la capacità degli attuali quadri giuridici ed etici di proteggere efficacemente i diritti e la dignità delle donne e dei gruppi marginalizzati e soggetti a discriminazione nell'era dell'Intelligenza Artificiale. Essa intende evidenziare le lacune normative e proporre linee guida per una governance più inclusiva e consapevole capace di affrontare le complesse dinamiche di potere che la nuova rivoluzione tecnologica porterà con sé.
File in questo prodotto:
File Dimensione Formato  
BELLOMO GIORGIA 879697 Final Thesis pdf_A.pdf

accesso aperto

Dimensione 1.93 MB
Formato Adobe PDF
1.93 MB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14247/28426