Sempre più imprese stanno adottano sistemi di intelligenza artificiale (IA) per analizzare e prendere decisioni più velocemente, più accuratamente e più oggettivamente dell'uomo. Ma cosa succede se gli algoritmi di IA non si comportano come ci si aspetta? Non raramente, ad esempio, si è parlato di algoritmi discriminatori. Come poter essere sicuri che l'algoritmo sia oggettivo ed etico e prenda la decisione “giusta”? Le imprese che desiderano impiegare l’intelligenza artificiale nella propria organizzazione devono porsi queste ed altre domande. La valutazione dell'impiego di IA non può limitarsi all'efficienza e all'economicità, ma anche al rischio nelle sue diverse sfaccettature, che pongono sfide nuove rispetto ai framework già esistenti di risk management. Il presente elaborato è il frutto di un’analisi di vari documenti e white paper di istituzioni internazionali e società attive nel settore dell’IA, dimostrando come un “intelligenza artificiale responsabile” possa essere implementata attraverso il monitoraggio dei rischi fin dalla fase di ideazione degli algoritmi, continuando nello sviluppo e nel monitoraggio continuo delle prestazioni e degli assunti. Al fine di fornire un framework incentrato sulla gestione del rischio dei modelli di IA, si sono analizzate le diverse fonti di rischio, nuove e conosciute, le azioni di mitigazione e le buone pratiche da adottare affinché la tecnologia sia adeguatamente presidiata e garantisca il risultato atteso. Il tutto senza trascurare il ruolo che le Autorità regolamentari hanno nella definizione dei rischi e dei requisiti tecnici e sociali che tali sistemi devono soddisfare.
La Gestione del Rischio nei Modelli di Intelligenza Artificiale applicati al Decision Making
Bozzetto, Steven
2022/2023
Abstract
Sempre più imprese stanno adottano sistemi di intelligenza artificiale (IA) per analizzare e prendere decisioni più velocemente, più accuratamente e più oggettivamente dell'uomo. Ma cosa succede se gli algoritmi di IA non si comportano come ci si aspetta? Non raramente, ad esempio, si è parlato di algoritmi discriminatori. Come poter essere sicuri che l'algoritmo sia oggettivo ed etico e prenda la decisione “giusta”? Le imprese che desiderano impiegare l’intelligenza artificiale nella propria organizzazione devono porsi queste ed altre domande. La valutazione dell'impiego di IA non può limitarsi all'efficienza e all'economicità, ma anche al rischio nelle sue diverse sfaccettature, che pongono sfide nuove rispetto ai framework già esistenti di risk management. Il presente elaborato è il frutto di un’analisi di vari documenti e white paper di istituzioni internazionali e società attive nel settore dell’IA, dimostrando come un “intelligenza artificiale responsabile” possa essere implementata attraverso il monitoraggio dei rischi fin dalla fase di ideazione degli algoritmi, continuando nello sviluppo e nel monitoraggio continuo delle prestazioni e degli assunti. Al fine di fornire un framework incentrato sulla gestione del rischio dei modelli di IA, si sono analizzate le diverse fonti di rischio, nuove e conosciute, le azioni di mitigazione e le buone pratiche da adottare affinché la tecnologia sia adeguatamente presidiata e garantisca il risultato atteso. Il tutto senza trascurare il ruolo che le Autorità regolamentari hanno nella definizione dei rischi e dei requisiti tecnici e sociali che tali sistemi devono soddisfare.File | Dimensione | Formato | |
---|---|---|---|
862125-1257069.pdf
accesso aperto
Tipologia:
Altro materiale allegato
Dimensione
816.58 kB
Formato
Adobe PDF
|
816.58 kB | Adobe PDF | Visualizza/Apri |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14247/10265