Spiegabilità e ottimizzazione: un'applicazione nel settore bancario
Mostra/ Apri
Autore
Enrico, Andrea <2001>
Data
2026-03-23Disponibile dal
2026-03-26Abstract
Gli algoritmi di ottimizzazione combinatoria, in particolare i solutori di Programmazione Lineare Intera (ILP), sono fondamentali per compiti complessi come l'assegnazione di Non-Performing Loans (NPL). Tuttavia, operando come "Black-Box" opache, prescrivono soluzioni ottimali nascondendo la logica strutturale sottostante e creando un grave "Interpretability Gap" per i decisori. Le tecniche tradizionali di Explainable AI (XAI) post-hoc falliscono in questo contesto, scontrandosi con un "Muro Computazionale" su dataset industriali su larga scala a causa dell'intrattabile riottimizzazione continua richiesta. Inoltre, interventi manuali ciechi in reti sature causano gravi interruzioni sistemiche, quantificate in questo studio tramite Analisi Controfattuale come "Ripple Effect". Per superare questi limiti, la tesi propone un nuovo framework di explainability scalabile per problemi di ottimizzazione vincolata. Viene inizialmente introdotta una Global Stability Analysis che inverte matematicamente la funzione obiettivo per massimizzare la distanza di Hamming dalla baseline ottimale, dividendo le assegnazioni in un "Fixed Core" rigido e una "Unstable Tail" flessibile. Per aggirare i colli di bottiglia computazionali, il framework implementa una strategia di Local Decomposition ("Chunking"). Isolando e testando specifiche sottoreti, il sistema mappa la stabilità topologica locale senza rieseguire l'intero modello. La ricerca dimostra che la trasparenza nell'ottimizzazione combinatoria richiede metodologie strutturali basate sui vincoli. L'approccio di Local Decomposition riduce i tempi di calcolo e trasforma la rigidità matematica in metriche empiriche interpretabili, fornendo agli stakeholder un sistema pratico per gestire in sicurezza le assegnazioni e prevedere i danni collaterali degli interventi manuali. Combinatorial optimization algorithms, particularly Integer Linear Programming (ILP) solvers, are fundamental for complex resource allocations, such as massive Non-Performing Loans (NPL) assignments. However, these models operate as opaque "Black-Boxes": they prescribe globally optimal solutions while obscuring the underlying structural logic, creating a severe Interpretability Gap for decision-makers. Traditional Post-Hoc Explainable AI (XAI) techniques hit a "Computational Wall" on large-scale industrial datasets because the required continuous re-optimization is operationally intractable. Furthermore, blind manual overrides in saturated networks trigger devastating systemic disruptions, quantified in this study via Counterfactual Analysis as the "Ripple Effect."
To address this, the thesis proposes a novel, scalable explainability framework tailored for highly constrained optimization problems. It first introduces a Global Stability Analysis, mathematically inverting the objective function to maximize the Hamming distance from the optimal baseline. This categorizes assignments into a rigid "Fixed Core" and a flexible "Unstable Tail." To overcome the computational bottlenecks of the global approach, the framework implements a Local Decomposition ("Chunking") strategy. By semantically isolating and stress-testing specific sub-networks, the system maps local stability without requiring full-scale model re-execution.
This research demonstrates that transparency in combinatorial optimization demands structural, constraint-aware methodologies rather than generic XAI. The Local Decomposition approach drastically reduces computation times, transforming mathematical rigidity into interpretable metrics. Ultimately, this framework equips stakeholders to safely manage complex assignments and forecast the collateral damage of manual interventions.
Tipo
info:eu-repo/semantics/masterThesisCollezioni
- Laurea Magistrale [7402]

