Sempre più imprese stanno adottano sistemi di intelligenza artificiale (IA) per analizzare e prendere decisioni più velocemente, più accuratamente e più oggettivamente dell'uomo. Ma cosa succede se gli algoritmi di IA non si comportano come ci si aspetta? Non raramente, ad esempio, si è parlato di algoritmi discriminatori. Come poter essere sicuri che l'algoritmo sia oggettivo ed etico e prenda la decisione “giusta”? Le imprese che desiderano impiegare l’intelligenza artificiale nella propria organizzazione devono porsi queste ed altre domande. La valutazione dell'impiego di IA non può limitarsi all'efficienza e all'economicità, ma anche al rischio nelle sue diverse sfaccettature, che pongono sfide nuove rispetto ai framework già esistenti di risk management. Il presente elaborato è il frutto di un’analisi di vari documenti e white paper di istituzioni internazionali e società attive nel settore dell’IA, dimostrando come un “intelligenza artificiale responsabile” possa essere implementata attraverso il monitoraggio dei rischi fin dalla fase di ideazione degli algoritmi, continuando nello sviluppo e nel monitoraggio continuo delle prestazioni e degli assunti. Al fine di fornire un framework incentrato sulla gestione del rischio dei modelli di IA, si sono analizzate le diverse fonti di rischio, nuove e conosciute, le azioni di mitigazione e le buone pratiche da adottare affinché la tecnologia sia adeguatamente presidiata e garantisca il risultato atteso. Il tutto senza trascurare il ruolo che le Autorità regolamentari hanno nella definizione dei rischi e dei requisiti tecnici e sociali che tali sistemi devono soddisfare.

La Gestione del Rischio nei Modelli di Intelligenza Artificiale applicati al Decision Making

Bozzetto, Steven
2022/2023

Abstract

Sempre più imprese stanno adottano sistemi di intelligenza artificiale (IA) per analizzare e prendere decisioni più velocemente, più accuratamente e più oggettivamente dell'uomo. Ma cosa succede se gli algoritmi di IA non si comportano come ci si aspetta? Non raramente, ad esempio, si è parlato di algoritmi discriminatori. Come poter essere sicuri che l'algoritmo sia oggettivo ed etico e prenda la decisione “giusta”? Le imprese che desiderano impiegare l’intelligenza artificiale nella propria organizzazione devono porsi queste ed altre domande. La valutazione dell'impiego di IA non può limitarsi all'efficienza e all'economicità, ma anche al rischio nelle sue diverse sfaccettature, che pongono sfide nuove rispetto ai framework già esistenti di risk management. Il presente elaborato è il frutto di un’analisi di vari documenti e white paper di istituzioni internazionali e società attive nel settore dell’IA, dimostrando come un “intelligenza artificiale responsabile” possa essere implementata attraverso il monitoraggio dei rischi fin dalla fase di ideazione degli algoritmi, continuando nello sviluppo e nel monitoraggio continuo delle prestazioni e degli assunti. Al fine di fornire un framework incentrato sulla gestione del rischio dei modelli di IA, si sono analizzate le diverse fonti di rischio, nuove e conosciute, le azioni di mitigazione e le buone pratiche da adottare affinché la tecnologia sia adeguatamente presidiata e garantisca il risultato atteso. Il tutto senza trascurare il ruolo che le Autorità regolamentari hanno nella definizione dei rischi e dei requisiti tecnici e sociali che tali sistemi devono soddisfare.
2022-03-18
File in questo prodotto:
File Dimensione Formato  
862125-1257069.pdf

accesso aperto

Tipologia: Altro materiale allegato
Dimensione 816.58 kB
Formato Adobe PDF
816.58 kB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14247/10265