Intelligenza Artificiale a sostegno e salvaguardia dell’ambiente, secondo una ricerca condotta da professionisti della contabilità e della finanza

Intelligenza Artificiale a sostegno e salvaguardia dell’ambiente, secondo una ricerca condotta da professionisti della contabilità e della finanza

In un momento economico e sociale in cui è necessario affrontare il problema della sostenibilità e della salvaguardia di valori come la sopravvivenza del nostro pianeta, assume notevole rilevanza il lavoro eseguito da professionisti della contabilità e della finanza, membri dell’ACCA (Association of Chartered Certified Accountants), organismo professionale globale di 233.000 membri con sede in 178 paesi e regioni, riunitisi per condurre una ricerca, atta a guidare l’adozione etica e sostenibile dell’Intelligenza Artificiale, dal titolo “ETHICS FOR SUSTAINABLE AI ADOPTION – CONNECTING AI AND ESG”.

Nella prefazione si evidenzia quanto segue: «con questa grande potenza di elaborazione e di dati, derivano grandi responsabilità. Il rapporto evidenzia queste responsabilità in quanto rientrano nello spettro ambientale, sociale e di governance (ESG). Per quanto riguarda l’ambiente, ad esempio, i dati ESG sono altamente non strutturati e adatti per l’analisi dell’IA. I professionisti della contabilità e della finanza dovrebbero prendere in considerazione nuove soluzioni di Intelligenza Artificiale, come parte del loro kit di strumenti per sfidare il “greenwashing“, ovvero quando le organizzazioni affermano di operare in modo sostenibile senza che ciò sia confermato dai dati

Alla base della suddetta ricerca, sono state effettuate 5.723 interviste, al fine di rilevare, attraverso lo strumento del sondaggio, un quadro fedele della situazione attuale globale. «È necessario un approccio incentrato sull’uomo che consideri come le persone possano collaborare con la tecnologia a beneficio della società.»

L’intelligenza artificiale è spesso percepita in termini astratti, in quanto “l’intelligenza” evoca l’idea dell’intangibile. In realtà, invece, la filiera dell’IA è molto tangibile, coinvolgendo materiali reali e risorse naturali. Al centro, c’è il consumo di energia, che si estrinseca durante l’esecuzione degli algoritmi. Il volume dei dati è enorme e sta crescendo in modo esponenziale, non lineare. Inoltre, questi dati includono una componente significativa di dati non strutturati, secondo alcune stime fino al 90%. La potenza di calcolo disponibile può quindi superare i tassi fissati da norme precedenti, come la legge di Moore (secondo la quale la potenza di calcolo raddoppierebbe ogni 18-24 mesi).

Quindi, guardando attraverso la catena di approvvigionamento, i sistemi di Intelligenza Artificiale hanno un’impronta di carbonio identificabile. E non è banale. Uno studio ha mostrato che le emissioni di carbonio, necessarie alla formazione di un modello di elaborazione del linguaggio naturale (PNL) sarebbero equivalenti a 125 voli di andata e ritorno tra New York e Pechino. E algoritmi più complessi come GPT-3, utilizzati per l’analisi del linguaggio e del testo, ne userebbero ancora di più.

In vista del Summit delle Nazioni Unite sul clima COP26, vi è l’obiettivo dichiarato di ridurre significativamente le emissioni del Regno Unito entro il 2035 (HM Government 2021) e raggiungere lo zero netto a livello globale entro il 2050 (National Grid Group 2021). Ciò ha fornito alle organizzazioni un focus, per dimostrare come stanno rispettando questi impegni.

Sfortunatamente, alcuni cercheranno anche di travisare la reale portata delle loro credenziali ecologiche. Ciò potrebbe avvenire attraverso il “picking and choosing” (selezionare e decidere) cosa divulgare o quando divulgarlo, o tramite campagne pubbliche di alto profilo che suggeriscono implicitamente o esplicitamente determinate azioni, ma in cui l’adempimento successivo è assente, dando vita al fenomeno del “greenwashing”.

Qui il mondo contabile e altri professionisti della finanza hanno un ruolo fondamentale, in quanto dovrebbero:

  • accertare l’efficacia dei sistemi, dei processi e dei controlli sui dati ESG sottostanti inseriti nel reporting finanziario;
  • convalidare i dati ESG e valutare in modo completo gli impatti finanziari delle considerazioni ambientali, sociali e di governance;
  • fornire una rendicontazione finanziaria completa, accurata e valida relativa alle considerazioni ESG;
  • adottare KPI [indicatori chiave di prestazione], metriche, valutazioni comparative, monitoraggio continuo e valutazione delle prestazioni pertinenti, allineate agli standard/quadri di informativa ESG riconosciuti;
  • garantire la conformità agli standard pertinenti di rendicontazione normativa su ESG, sostenibilità e/o clima;
  • guidare la transizione verso economie più verdi, ambienti sostenibili e società eque, contribuendo allo sviluppo e alla gestione di organizzazioni resilienti ed etiche.

L’apprendimento automatico funziona addestrando algoritmi su set di dati. Spesso i soggetti che forniscono questi dati non sono a conoscenza di averlo fatto. Ad esempio, quando i dati vengono rimossi da un sito Web (non illegale in alcune giurisdizioni) e successivamente inseriti in un motore di formazione AI, questa pratica, nota colloquialmente come “participation washing“, si traduce nella partecipazione degli individui ad un’impresa senza la loro conoscenza o il loro consenso e per la quale non ricevono né riconoscimento né retribuzione,.

Il percorso successivo di questo studio enuclea i paradigmi alla base di qualsiasi sviluppo dell’IA, che necessariamente dovrà passare attraverso valori etici, di governance (che contempli una corretta minimizzazione dei dati e rispetto della riservatezza, con approcci di “privacy differenziale” che si concentri sull’acquisizione di informazioni da una vista aggregata dall’alto verso il basso dei dati, senza bisogno di dettagli specifici su ogni record, cioè individuo, nel set di dati che crea), qualità e revisione corretta dei dati utilizzati, e parametri normativi che possano tutelare in maniera congrua ed equa fornitori ed utenti, rafforzando il clima di fiducia verso la tecnologia, passaggio obbligato e fondamentale per la crescita socio economica di ogni paese.

Reclami e risarcimento sono canali ,necessari per contestare le decisioni e trattare, ad esempio, con i clienti insoddisfatti. Anche il ruolo dei meccanismi di whistleblowing è importante in questo contesto, soprattutto in considerazione della potenziale minore familiarità con l’IA, tra coloro che non sono in prima linea. Più in generale, si applicano tutti i meccanismi per la gestione degli incidenti, la segnalazione delle eccezioni, l’escalation e la pianificazione delle emergenze.

Altrettando importante sarà la Protezione del sistema di Intelligenza Artificiale: la frode e il comportamento non etico possono assumere molte forme, tra cui l’avvelenamento dei dati e l’evasione dal modello, che funzionano, entrambi, corrompendo i dati utilizzati per addestrare il modello di Intelligenza Artificiale. L’attenzione operativa sulla protezione dei modelli si sta intensificando e sarà presa in considerazione per l’adozione di massa.

I problemi etici possono sorgere da un’ampia gamma di fonti, durante la configurazione iniziale e il monitoraggio operativo.

  • Documentazione: una delle sfide etiche con un modello di Intelligenza Artificiale è garantire una comprensione sufficiente di ciò che sta facendo. La qualità della documentazione è fondamentale: quanto è completa, quanto regolarmente viene aggiornata e quanto è comprensibile per i nuovi individui quando ci sono cambiamenti di personale e passaggi di consegne. E nei team interfunzionali, potrebbe essere necessario l’accesso a una parte della documentazione da parte di utenti aziendali non tecnici. Ciò richiede l’introduzione di una forte disciplina nel mantenimento e nella revisione delle versioni dei documenti. Potrebbe, anche, essere utile esplorare applicazioni di documentazione automatizzata, per stabilire un percorso end-to-end.
  • Controlli di accesso: dovrebbe esserci chiarezza su chi ha accesso ai dati di formazione e chi può fare modifiche su di essi. Più in generale, ciò si estende a uno stretto monitoraggio dei privilegi e dei diritti di accesso per tutti i dati e i sistemi; e attraverso account umani e, se applicabile, Bot.
  • Trasparenza: un comportamento etico richiede che le informazioni rilevanti per l’utente siano prontamente disponibili nel pubblico dominio. Le informazioni su come vengono utilizzati i dati delle persone non dovrebbero essere nascoste dietro un lungo gergo contrattuale ma dovrebbero essere spiegate in termini semplici. Trovare informazioni sulla possibilità di un consumatore di rinunciare, dovrebbe essere semplice quanto il percorso dell’utente per attrarlo inizialmente.
  • Valutazioni e audit: condurre valutazioni periodiche di processo ed etiche attraverso una funzione interna indipendente e, se possibile, utilizzare un’agenzia di esperti esterni per il controllo. I quadri di valutazione dell’impatto algoritmico possono fornire un modo strutturato per valutare l’impatto dei sistemi di IA.

Occorre, pertanto, comprendere bene come funziona l’Artificial Intelligence, in modo che decisioni ed eventi non vengano “outsourced“, delegati all’IA, deresponsabilizzando chi li ha creati o messi in commercio, ma riconoscere il ruolo primario della vigilanza e dell’intervento umano.

Riproduzione Riservata

Avv. Raffaella Aghemo

0 Comments

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *