Intelligenza artificiale futuro sicurezza
4 min

Approccio pratico per evitare i rischi dell'AI

Per garantire che l'AI porti benefici all'umanità, le persone devono plasmare attivamente il sistema, il processo e l'ambiente delle applicazioni

Articolo di: Redazione

Le normative attuali sono in ritardo rispetto ai requisiti etici e tecnici necessari per creare un'Intelligenza Artificiale incentrata sulle persone minimizzando i rischi. TÜV SÜD è impegnato in un approccio interdisciplinare alla governance dell'AI e ha elaborato processi chiari che aiuteranno le aziende a valutare in modo affidabile la qualità e l'affidabilità dell'AI .


L'intelligenza artificiale (AI) è entrata nelle nostre vite in maniera più o meno invasiva. Questa tecnologia è alla base degli assistenti virtuali nei nostri smartphone, della gestione del magazzino rendendo possibili le consegne in un giorno, delle diagnosi predittive che stanno salvando vite umane e altro ancora. Secondo PwC1, l'AI potrebbe aggiungere 15.000 miliardi di dollari all'economia globale entro il 2030, offrendo opportunità senza precedenti a individui, aziende e governi.

In tutto il mondo, le organizzazioni si stanno rendendo conto del potenziale rivoluzionario dell'Intelligenza Artificiale. Nel dicembre 2022 l'UE ha annunciato un nuovo strumento di finanziamento fino a 150 milioni di euro per sostenere le imprese di AI in fase iniziale e di crescita2, nella speranza di stimolare applicazioni innovative e tecnologie ad essa correlate come la blockchain e l'IoT. Già nel 2018, l'86% delle aziende ha segnalato implementazioni di AI in fase media o avanzata, considerando la tecnologia come un importante asset per l’operatività aziendale3. Sebbene il potenziale dell'AI vari da Paese a Paese e da settore a settore, si prevede che avrà un impatto ampiamente positivo, tra cui la riduzione dei costi, il miglioramento della produttività del lavoro, il potenziamento della business intelligence e della customer experience4.

CONTROLLARE L'AI: QUALI SONO LE IMPLICAZIONI ETICHE E LEGALI?

Per quanto l'AI generi vantaggi per i clienti e valore per le imprese, esse devono avere piena consapevolezza dei rischi peculiari che introduce. I leader hanno la responsabilità di affinare le loro conoscenze sui rischi sociali e organizzativi dell'AI, o rischiano di avere a che fare con una tecnologia pericolosa. Alcuni esiti indesiderati, come la discriminazione e l’assenza di trasparenza nel processo decisionale, possono potenzialmente danneggiare la reputazione e danneggiare gli individui. Prendiamo ad esempio Tay, il chatbot basato su un’AI di Microsoft che è stato manipolato dagli utenti online esprimendo commenti razzisti5. In un altro caso, l’AI di IBM, denominata Watson, ha fornito raccomandazioni errate e non sicure per la cura del cancro dopo essere stato addestrato su un set di dati piccolo e inaffidabile6.

Altre preoccupazioni riguardano l'uso etico dell'AI. La tecnologia può facilmente cadere nelle mani sbagliate o essere sviluppata con intenti malevoli. L'intelligenza artificiale nelle mani di governi e grandi aziende private solleva lo spettro della sorveglianza e della censura. Qualora le cose andassero nella direzione sbagliata, chi sarebbe responsabile per quanto riguarda i diritti di proprietà intellettuale o l'impatto sulla società? Queste preoccupazioni derivano in parte da quella che definiamo la "scatola nera" dell'AI. A differenza dello sviluppo di un sistema tradizionale, in cui viene formalizzata una serie di regole che il sistema deve seguire, lo sviluppo di un’intelligenza artificiale capovolge il copione. Gli algoritmi di apprendimento automatico generalizzano e deducono le regole da un set di dati determinato, dando vita a regole opache che persino gli sviluppatori non conoscono nello specifico.

Sottolineando le complicazioni delle applicazioni di AI, il Dr. Saerbeck (CTO del Servizio Digitale del TÜV SÜD) ha dichiarato:

"Gli attuali modelli di apprendimento automatico codificano le funzionalità in centinaia di migliaia, se non milioni, di parametri. Attualmente non disponiamo di un quadro solido per comprendere il ruolo e l'impatto di ciascuno di questi valori. Questo comporta incertezza. Semplicemente non sappiamo in quali condizioni un determinato modello fallirà. La governance dell'AI è attualmente l'unica attenuazione efficace per gestirne i rischi. Dobbiamo aggiornare i nostri processi per misurare e quantificare in modo affidabile, valutando metriche di qualità come robustezza, accuratezza e prevedibilità dell'AI".

IL SUCCESSO DELL’AI SI BASA SULLA FIDUCIA

Le organizzazioni conoscono già i rischi associati all'Intelligenza Artificiale, questo le inibisce dallo svilupparla e provarne i vantaggi. Tra questi rischi risulta la mancanza di trasparenza, che impedisce la loro adozione. Come afferma il Dr. Saerbeck, "L'affidabilità è essenziale per poter applicare l'AI in situazioni critiche e raccoglierne i benefici". Questa sfuggente "affidabilità" è sostenuta essenzialmente da tre pilastri:

  • La tecnologia deve essere progettata e convalidata correttamente, costruita in conformità a regole e standard.
  • Essa valorizza tutte le parti interessate, implicando la comprensione degli input, degli output e delle potenziali conseguenze.
  • È ben governata e monitorata, con parti responsabili dal punto di vista specifico e generale ben definite.

GLI ATTUALI QUADRI DI RIFERIMENTO PER L’ORGANIZZAZIONE DELLE AI: UN GIOCO DI IPOTESI? 

"La governance dell'AI è essenziale per gestirne la qualità, soprattutto nelle applicazioni ad alto rischio. La mitigazione attraverso un singolo controllo, come la verifica umana dei rapporti è insufficiente a causa della capacità limitata e dei costi associati. Soprattutto se si tratta di un errore evitabile, le aziende avranno difficoltà a giustificare l'esistenza di un piano di governance incompleto". - Dr. Martin Saerbeck, CTO del Servizio Digitale, TÜV SÜD

Le aziende faticano ancora a gestire adeguatamente la qualità dell'AI. Nel tentativo di limitare questa problematica, sono attualmente in fase di sviluppo diverse linee guida, come le Linee guida etiche per un'AI affidabile della Commissione europea, un nuovo quadro giuridico sull'AI pubblicato dalla Commissione nell'aprile 20217, il primo Model AI Governance Framework8 dell'Asia e una Guida all'implementazione e all'autovalutazione per le organizzazioni (ISAGO9 di Singapore). Come spiega il Dr. Saerbeck, queste linee guida forniscono un buon quadro di riferimento, ma mancano di consigli pratici per implementare con sicurezza le applicazioni di AI. Ad esempio, il modo in cui certi obiettivi si traducono nella scelta dell'algoritmo, nei processi di test che devono essere messi in atto o nelle metriche che devono essere adottate, sono tutti aspetti che spetta alle aziende capire. 


  • Avere fiducia nelle AI non è semplice: il case study di TÜV SÜD nel campo delle ispezioni di facciate

    Di cosa si tratta

    L'ispezione intelligente delle facciate di TÜV SÜD è un sistema che utilizza l'intelligenza artificiale per verificare il deterioramento dei materiali e i problemi di fondo delle facciate degli edifici. TÜV SÜD impiega un rigoroso framework di gestione della qualità dell'AI per evitare i rischi ad essa legati e fornire rapporti di ispezione precisi e attuabili.

    Opportunità

    • Risparmio di tempo, denaro e manodopera per l'analisi di migliaia di scansioni.
    • Conformità aggiornata basata su standard e best practices di settore.
    • Migliora la qualità e la copertura dell'ispezione con scansioni visive e termiche ad alta risoluzione, oltre a un flusso di lavoro digitale automatizzato e al benchmarking dei dati.
    • Migliori approfondimenti con la rappresentazione digitale della facciata e dell'intero edificio.

    I rischi

    • Violazioni della privacy: Gli algoritmi di AI potrebbero non riuscire a individuare e mascherare adeguatamente le persone private, con conseguente violazione della privacy.
    • Carenze di sicurezza: Gli algoritmi di intelligenza artificiale potrebbero non rilevare i difetti, causando lesioni o, nel peggiore dei casi, decessi.

    Come funziona

    Un drone viene utilizzato per catturare immagini lungo la facciata dell'edificio. L'AI assiste gli ispettori nell'analisi dei dati raccolti.

    Come contribuiscono gli algoritmi

    1. Mantenere la privacy rilevando e mascherando le persone che sono state inavvertitamente fotografate dal drone.
    2. Identificare i difetti della facciata, classificandoli in base al tipo e alla gravità, fino a fornire raccomandazioni per la riparazione.

    Un ispettore esamina i risultati e fornisce un feedback che viene utilizzato per migliorare continuamente l'algoritmo di intelligenza artificiale.

    Cosa significa

    Questo case study evidenzia la sfida nello stabilire la fiducia nell'AI. Sebbene le opportunità offerte dall'ispezione intelligente delle facciate siano superiori ai rischi, gli errori in questa applicazione - e in generale nei casi di utilizzo dell'AI - possono esporre le imprese a danni finanziari e di reputazione. Questi rischi devono essere gestiti attraverso una solida governance dell'AI.

  • TÜV SÜD ILLUSTRA I PASSI DA COMPIERE PER RAGGIUNGERE L'AI MIGLIORE

    Per migliorare le prestazioni, TÜV SÜD ha sviluppato un Sistema di Gestione della Qualità AI. Guidando le organizzazioni attraverso le domande chiave che riguardano i dati, gli algoritmi e i modelli. Approfondendo l'analisi, il sistema traccia il ciclo di vita dell'AI per aiutare le aziende ad anticipare i rischi e le insidie durante sviluppo ed implementazione, al fine di soddisfare i requisiti previsti dagli attuali quadri di governance.

    Per le organizzazioni che desiderano creare team interni in grado di implementare un'AI sicura, etica e trasparente, TÜV SÜD offre workshop di formazione sul Sistema di Gestione della Qualità dell'AI. I partecipanti impareranno a conoscere i cinque principali pilastri della qualità (Safety, Security, Ethics, Legal, Performance), le loro caratteristiche, le valutazioni dei rischi dedicati e le strategie per affrontarli durante il ciclo di vita del sistema di AI. L'obiettivo è quello di fornire una descrizione concreta dei passaggi fondamentali per l'implementazione dell'AI, adattati al contesto specifico di un'impresa.

    Come spiega il Dr. Saerbeck, "la fiducia nell'AI non è una proprietà che può essere raggiunta da un singolo individuo o durante una singola fase del ciclo di vita del sistema. Dalla concettualizzazione alla dismissione del sistema di AI, ogni stakeholder ha un ruolo importante da svolgere, per assicurarsi che l’obiettivo in termini di qualità sia raggiunto e mantenuto come standard. La fiducia nell'AI non può essere risolta a livello tecnologico, ma deve coinvolgere l'intera azienda".

    Partecipare alla gara o perdere in partenza, questo è lo stato delle cose per le aziende nel campo delle AI. Anche se le normative sono ancora in ritardo, è fondamentale che i leader facciano partire le loro aziende con il piede giusto, con linee guida e principi pratici di governance.

 

1 L'AI potrebbe aggiungere 15.000 miliardi di dollari all'economia globale entro il 2030, PwC via Industry Week

2 Nuovo strumento di finanziamento dell'UE fino a 150 milioni di dollari per sostenere le imprese europee di IA, Commissione europea

3 La leadership nell'era dell'IA, Infosys

4 Approfondimento: Intelligenza artificiale 2019, AI Statista

5 Nel 2016 il chatbot razzista di Microsoft ha rivelato i pericoli delle conversazioni online, Spectrum

6 Come IBM Watson ha promesso troppo e non ha mantenuto le promesse sull'assistenza sanitaria AI, Spectrum

7 L'Europa è pronta per l'era digitale: La Commissione propone nuove regole e azioni per l'eccellenza e la fiducia nell'IA, Commissione europea

8 L'approccio di Singapore alla governance dell'IA, PDPC

9 Singapore lancia nuove iniziative sull'IA al World Economic Forum, OpenGov

Come possiamo aiutarti?

Site Selector