Intelligenza artificiale futuro sicurezza
4 min

Approccio pratico per evitare i rischi dell'AI

Per garantire che l'AI porti benefici all'umanità, le persone devono plasmare attivamente il sistema, il processo e l'ambiente delle applicazioni

Articolo di: Redazione Data: 29 Aug 2024

Le normative attuali sono in ritardo rispetto ai requisiti etici e tecnici necessari per creare un'Intelligenza Artificiale incentrata sulle persone minimizzando i rischi. TÜV SÜD è impegnato in un approccio interdisciplinare alla governance dell'AI e ha elaborato processi chiari che aiuteranno le aziende a valutare in modo affidabile la qualità e l'affidabilità dell'AI .


L'intelligenza artificiale (AI) è entrata nelle nostre vite in maniera più o meno invasiva. Questa tecnologia è alla base degli assistenti virtuali nei nostri smartphone, della gestione del magazzino rendendo possibili le consegne in un giorno, delle diagnosi predittive che stanno salvando vite umane e altro ancora. Secondo PwC1, l'AI potrebbe aggiungere 15.000 miliardi di dollari all'economia globale entro il 2030, offrendo opportunità senza precedenti a individui, aziende e governi.

In tutto il mondo, le organizzazioni si stanno rendendo conto del potenziale rivoluzionario dell'Intelligenza Artificiale. Nel dicembre 2022 l'UE ha annunciato un nuovo strumento di finanziamento fino a 150 milioni di euro per sostenere le imprese di AI in fase iniziale e di crescita2, nella speranza di stimolare applicazioni innovative e tecnologie ad essa correlate come la blockchain e l'IoT. Già nel 2018, l'86% delle aziende ha segnalato implementazioni di AI in fase media o avanzata, considerando la tecnologia come un importante asset per l’operatività aziendale3. Sebbene il potenziale dell'AI vari da Paese a Paese e da settore a settore, si prevede che avrà un impatto ampiamente positivo, tra cui la riduzione dei costi, il miglioramento della produttività del lavoro, il potenziamento della business intelligence e della customer experience4.

CONTROLLARE L'AI: QUALI SONO LE IMPLICAZIONI ETICHE E LEGALI?

Per quanto l'AI generi vantaggi per i clienti e valore per le imprese, esse devono avere piena consapevolezza dei rischi peculiari che introduce. I leader hanno la responsabilità di affinare le loro conoscenze sui rischi sociali e organizzativi dell'AI, o rischiano di avere a che fare con una tecnologia pericolosa. Alcuni esiti indesiderati, come la discriminazione e l’assenza di trasparenza nel processo decisionale, possono potenzialmente danneggiare la reputazione e danneggiare gli individui. Prendiamo ad esempio Tay, il chatbot basato su un’AI di Microsoft che è stato manipolato dagli utenti online esprimendo commenti razzisti5. In un altro caso, l’AI di IBM, denominata Watson, ha fornito raccomandazioni errate e non sicure per la cura del cancro dopo essere stato addestrato su un set di dati piccolo e inaffidabile6.

Altre preoccupazioni riguardano l'uso etico dell'AI. La tecnologia può facilmente cadere nelle mani sbagliate o essere sviluppata con intenti malevoli. L'intelligenza artificiale nelle mani di governi e grandi aziende private solleva lo spettro della sorveglianza e della censura. Qualora le cose andassero nella direzione sbagliata, chi sarebbe responsabile per quanto riguarda i diritti di proprietà intellettuale o l'impatto sulla società? Queste preoccupazioni derivano in parte da quella che definiamo la "scatola nera" dell'AI. A differenza dello sviluppo di un sistema tradizionale, in cui viene formalizzata una serie di regole che il sistema deve seguire, lo sviluppo di un’intelligenza artificiale capovolge il copione. Gli algoritmi di apprendimento automatico generalizzano e deducono le regole da un set di dati determinato, dando vita a regole opache che persino gli sviluppatori non conoscono nello specifico.

Sottolineando le complicazioni delle applicazioni di AI, il Dr. Saerbeck (CTO del Servizio Digitale del TÜV SÜD) ha dichiarato:

"Gli attuali modelli di apprendimento automatico codificano le funzionalità in centinaia di migliaia, se non milioni, di parametri. Attualmente non disponiamo di un quadro solido per comprendere il ruolo e l'impatto di ciascuno di questi valori. Questo comporta incertezza. Semplicemente non sappiamo in quali condizioni un determinato modello fallirà. La governance dell'AI è attualmente l'unica attenuazione efficace per gestirne i rischi. Dobbiamo aggiornare i nostri processi per misurare e quantificare in modo affidabile, valutando metriche di qualità come robustezza, accuratezza e prevedibilità dell'AI".

IL SUCCESSO DELL’AI SI BASA SULLA FIDUCIA

Le organizzazioni conoscono già i rischi associati all'Intelligenza Artificiale, questo le inibisce dallo svilupparla e provarne i vantaggi. Tra questi rischi risulta la mancanza di trasparenza, che impedisce la loro adozione. Come afferma il Dr. Saerbeck, "L'affidabilità è essenziale per poter applicare l'AI in situazioni critiche e raccoglierne i benefici". Questa sfuggente "affidabilità" è sostenuta essenzialmente da tre pilastri:

  • La tecnologia deve essere progettata e convalidata correttamente, costruita in conformità a regole e standard.
  • Essa valorizza tutte le parti interessate, implicando la comprensione degli input, degli output e delle potenziali conseguenze.
  • È ben governata e monitorata, con parti responsabili dal punto di vista specifico e generale ben definite.

GLI ATTUALI QUADRI DI RIFERIMENTO PER L’ORGANIZZAZIONE DELLE AI: UN GIOCO DI IPOTESI? 

"La governance dell'AI è essenziale per gestirne la qualità, soprattutto nelle applicazioni ad alto rischio. La mitigazione attraverso un singolo controllo, come la verifica umana dei rapporti è insufficiente a causa della capacità limitata e dei costi associati. Soprattutto se si tratta di un errore evitabile, le aziende avranno difficoltà a giustificare l'esistenza di un piano di governance incompleto". - Dr. Martin Saerbeck, CTO del Servizio Digitale, TÜV SÜD

Le aziende faticano ancora a gestire adeguatamente la qualità dell'AI. Nel tentativo di limitare questa problematica, sono attualmente in fase di sviluppo diverse linee guida, come le Linee guida etiche per un'AI affidabile della Commissione europea, un nuovo quadro giuridico sull'AI pubblicato dalla Commissione nell'aprile 20217, il primo Model AI Governance Framework8 dell'Asia e una Guida all'implementazione e all'autovalutazione per le organizzazioni (ISAGO9 di Singapore). Come spiega il Dr. Saerbeck, queste linee guida forniscono un buon quadro di riferimento, ma mancano di consigli pratici per implementare con sicurezza le applicazioni di AI. Ad esempio, il modo in cui certi obiettivi si traducono nella scelta dell'algoritmo, nei processi di test che devono essere messi in atto o nelle metriche che devono essere adottate, sono tutti aspetti che spetta alle aziende capire. 


Come possiamo aiutarti?

Site Selector