Public Affairs & Intelligenza artificiale: linee guida per un uso responsabile nel Digital Lobbying

Introduzione

Promuovere ed applicare i principi del Digital Lobbying nelle attività di Public Affairs richiede un costante studio e conoscenza degli strumenti a disposizione dei professionisti del settore. Questo approccio diventa ancora più essenziale e urgente di fronte alla crescita importante e repentina dell’Intelligenza Artificiale (IA). 

Tra i diversi settori impattati dall’IA, infatti, quello del lobbying e Public Affairs registra un utilizzo diffuso, con oltre il 75% dei professionisti dei Public Affairs che afferma di fare uso di strumenti di IA in task giornaliere, come ricerca, editing e creazione di contenuti, o anche traduzione¹.

Come sottolineato nella guida Intelligenza Artificiale Generativa nei Public Affairs: istruzioni per l’uso pubblicata nell’estate 2023 e come reiterato nella metodologia del Digital Lobbying, in ADL Consulting concepiamo e utilizziamo gli strumenti di Intelligenza Artificiale in un’ottica human & tech di intelligenza aumentata, a garanzia della qualità dei risultati e dell’analisi, cercando di coglierne i vantaggi più significativi e consci dei rischi che ne possono derivare. 

Tuttavia, l’adozione dell’IA non è priva di ostacoli. Il successo dell’IA nei Public Affairs non dipende solo dalle sue capacità tecniche, ma anche dalla volontà delle persone di accoglierla e utilizzarla con efficacia. La diffidenza nei confronti dell’IA è un fenomeno diffuso: secondo Forbes Advisor, il 77% degli americani teme che l’IA possa ridurre l’occupazione nei prossimi 12 mesi, mentre il 80% teme per la sicurezza dei propri dati personali. Inoltre, una ricerca YouGov ha rivelato che quasi la metà degli americani crede che l’IA possa arrivare a costituire una minaccia diretta per l’umanità.

In questo contesto, i principi di responsabilità e consapevolezza rappresentano i pilastri fondamentali per l’utilizzo dell’IA nei Public Affairs. Pertanto, a partire dalle migliori pratiche quotidiane e su una recente ricerca di ADL Consulting, questo articolo si propone di delineare le opportunità e i rischi dell’uso dell’IA, per poi fornire soluzioni pratiche che promuovano un uso sicuro e responsabile nel nostro settore di consulenza strategica.

Perché c’è diffidenza rispetto all’intelligenza artificiale?

In un articolo pubblicato su Harvard Business Review Italia nell’ottobre 2024, Julian De Freitas, Assistente presso la Harvard Business School, ha esaminato le ragioni per cui molte persone sono restie ad adottare strumenti di Intelligenza Artificiale. Le principali preoccupazioni riguardano il rischio di perdita di posti di lavoro, la sicurezza dei dati personali e persino timori apocalittici su un futuro in cui l’IA potrebbe rappresentare una minaccia per l’umanità.

Le ricerche hanno individuato cinque ostacoli psicologici che frenano l’adozione dell’IA:

    • Poca trasparenza: gli algoritmi sono percepiti come misteriosi e incomprensibili, generando diffidenza.
    • Mancanza di emozioni: l’IA è vista come impersonale e priva di empatia nelle interazioni.
    • Rigidità nei processi decisionali: i sistemi di IA possono apparire inflessibili rispetto alla capacità di adattamento umana.
    • Timore di perdita di controllo: le persone temono di non poter gestire le decisioni prese dall’IA.
    • Preferenza per l’interazione umana: la maggior parte delle persone preferisce relazionarsi con esseri umani piuttosto che con robot o chatbot, soprattutto nei servizi di assistenza.

Le persone percepiscono l’IA come un’entità opaca e imprevedibile, incapace di comprendere il contesto emotivo e sociale, e spesso la associano a un rischio per la sicurezza dei dati e la stabilità del mercato del lavoro. Inoltre, la resistenza all’IA varia a seconda del contesto culturale: ad esempio, mentre in Giappone la tecnologia è più accettata grazie a una visione che attribuisce un’anima agli oggetti, nei Paesi occidentali prevale la diffidenza.

Per superare queste barriere, le aziende più innovative adottano un approccio graduale, migliorando la trasparenza degli algoritmi, integrando il supporto umano nell’uso dell’IA e personalizzandone l’applicazione in base alle specificità del settore e della cultura aziendale. Una comunicazione efficace sui benefici della tecnologia, unita a un modello di intelligenza aumentata in cui l’IA affianca, ma non sostituisce, le competenze umane, è essenziale per favorire la fiducia e l’accettazione dell’innovazione.


Opportunità

A titolo esemplificativo e in maniera sintetica e concisa, le opportunità dell’IA che abbiamo identificato, specialmente nella redazione di Intelligenza Artificiale Generativa nei Public Affairs: istruzioni per l’uso, sono riconducibili a quattro ambiti essenziali per i professionisti dei Public Affairs:

  1. Efficienza nell’Analisi e Produzione Testuale: l’automazione permette di velocizzare attività ripetitive come il monitoraggio parlamentare o dei media, la redazione di report o la mappatura degli stakeholder. Grazie a strumenti di IA e Text Mining, è possibile analizzare grandi quantità di dati in tempi ridotti, offrendo insight su tendenze come l’opinione pubblica o l’analisi del sentiment. Inoltre, strumenti come i chatbot e l’IA generativa facilitano anche la stesura di comunicati stampa o policy brief.
  2. Analisi e Previsioni data-driven: l’IA permette di processare dati su larga scala, rilevando tendenze politiche e normative con maggiore precisione. Strumenti predittivi aiutano a pianificare scenari futuri, fornendo una visione strategica più chiara in ambienti regolatori e complessi.
  3. Comunicazione e Advocacy: Strumenti di IA, specialmente Generativa, abilitano attività e progetti di comunicazione più mirati, personalizzati ed efficaci con e per gli gli stakeholder, aumentando l’efficacia delle relazioni e rafforzando il rapporto con interlocutori chiave.
  4. Supporto Decisionale e Strategico: l’IA consente di simulare diversi scenari prima della loro implementazione, riducendo il margine di errore e migliorando la capacità di adattamento alle dinamiche politiche e istituzionali. L’uso di modelli predittivi aiuta a valutare l’efficacia delle strategie di lobbying e ad anticipare le reazioni degli stakeholder.

Rischi 

L’approccio di apertura alle opportunità abilitate dall’IA non significa, però, trascurare i rischi nell’utilizzo dell’innovazione, che richiedono di essere gestiti con attenzione. Sebbene molti di questi rischi siano generali e applicabili a vari settori, nel nostro ambito specifico assumono una rilevanza particolare, vista la natura delicata delle informazioni trattate e le implicazioni politiche. Qui di seguito ne esploriamo due principali:

  1. Protezione dei dati e la privacy: l’input di dati delicati negli strumenti di IA può rappresentare un rischio specie per informazioni sensibili, politiche o aziendali. I dati su decisioni e processi politici, in particolare, devono essere gestiti con massima cautela, oltre a quelli personali, da tutelare come prescritto dal GDPR. Un uso scorretto o un’eccessiva raccolta di dati da parte degli strumenti di IA potrebbe violare queste normative, esponendo le società di Public Affairs e clienti a minacce e anche sanzioni legali. Inoltre, nel caso in cui i modelli o le applicazioni di IA vengano compromessi, emerge anche il rischio di violazioni di dati riservati, come strategie politiche, comunicazioni interne o informazioni sugli stakeholder. Come delineato successivamente, proteggere questi dati è fondamentale per evitare danni reputazionali o la perdita di vantaggi competitivi.
  2. Bias e inaccuratezza degli output: un altro rischio significativo è rappresentato dai bias che possono essere presenti – in ragione dei processi di training – nei modelli di IA. Se i dati utilizzati per addestrare questi modelli sono parziali o distorti, anche le analisi e gli insight prodotti potrebbero esserlo, portando a conclusioni errate o parziali. Questo rischio assume particolare criticità nei Public Affairs, dove l’accuratezza delle informazioni è essenziale per decisioni strategiche. Proprio in ragione di questi rischi inerenti agli strumenti di IA, è essenziale evitare una overreliance sugli stessi. Difatti, affidarsi eccessivamente agli output e risultati significa ridurre il peso del controllo e giudizio dei professionisti dei Public Affairs nei processi decisionale. Di conseguenza, consapevoli dei preziosi output dell’IA, la complessità del contesto politico e normativo richiede un bilanciamento tra tecnologia e intuizione strategica umana per evitare scelte miopi o prive della sensibilità richiesta da contesti delicati.
  3. Mancanza di trasparenza e controllo: molti algoritmi che governale le IA funzionano come “scatole nere”, rendendo difficile comprendere il processo decisionale alla base delle loro analisi. Questo aspetto può generare sfiducia e ostacolare l’accettazione dell’IA nei processi di lobbying e advocacy.

Soluzioni & Consigli per un uso responsabile dell’IA

Chiarite opportunità e, poi, soprattutto i rischi, la sezione che segue ambisce a fornire delle linee guida pratiche per i professionisti dei public affairs.

Garantire la sicurezza dei dati

  • Disattivare la Raccolta dei Dati. La maggior parte dei tool di IA prevede opzioni per disattivare la raccolta dei dati, anche se spesso disattivate di default. Rintracciare queste opzioni e attivarle è un primo passo fondamentale per la protezione dei dati sensibili delle operazioni di Public Affairs. Ad esempio, nel caso di ChatGPT è possibile disattivare la funzione “Cronologia chat e addestramento” dalle impostazioni per evitare che lo strumento memorizzi le informazioni condivise. In questo modo, i dati rimangono protetti e non verranno utilizzati per addestrare ulteriormente il modello.

%%block_image_and_text1%%

  • Limitare l’Archiviazione dei Dati. Legato al caso di prima, qualora l’archiviazione di dati sia necessaria per processi di lunga durata, è comunque consigliabile limitare il data harvesting. Di conseguenza, è fondamentale ridurre la quantità di informazioni immagazzinate e limitare il periodo di conservazione per minimizzare il rischio di violazioni e assicurarsi che l’organizzazione sia sempre conforme alle leggi sulla protezione dei dati.
  • Utilizzare Strumenti Crittografati. infine, è buona pratica prediligere strumenti di IA che offrono crittografia integrata, politiche di privacy rigorose e che siano conformi a normative come il GDPR.

 

Controllo umano su processi ed output

  • Supervisione iniziale dei processi. L’intervento e l’iniziativa dei professionisti dei public affairs è fondamentale sin dalle fasi iniziali dei processi. Definire chiaramente i parametri e gli obiettivi dell’IA, scegliendo le fonti e impostando i criteri di analisi, aiuta a prevenire errori già in fase di input.
  • Promuovere l’approccio di intelligenza aumentata. Come chiarito nella nostra prima guida sull’IA, l’approccio da utilizzare deve essere uno di collaborazione tra uomo e macchina. In altre parole, i professionisti dei public affairs dovrebbero alimentare un ambiente collaborativo in cui l’IA supporta, ma non sostituisce, il processo decisionale umano. 
  • Supervisione e validazione umana di tutte le decisioni. Tutte le raccomandazioni o analisi prodotte dall’IA devono essere esaminate e convalidate da professionisti del public affairs per limitare i rischi legati ai bias. Se, infatti, l’IA può rivelarsi particolarmente utile in fase di brainstorming e delineamento delle strategie – come delineato nella sezione sulle opportunità – rimane essenziale il controllo umano, e quindi la responsabilità finale, nelle fasi di definizione e esecuzione.

 

Conclusioni

Le soluzioni che abbiamo identificato si fondano su una maggiore consapevolezza e conoscenza degli strumenti di IA, che in ADL Consulting riteniamo imprescindibile per beneficiare dell’innovazione di queste tecnologie.

In tal senso, a queste linee guida utili per lo svolgimento di task quotidiane, è necessario accorpare una continua formazione e studio del funzionamento degli strumenti di IA per i professionisti dei public affairs. Solo una conoscenza che combina principi tecnici, di regolamentazione e funzionamento dell’IA permette, infatti, di giovare dei benefici e limitare i rischi, e quindi, infine, di promuovere ulteriormente l’approccio di intelligenza aumentata promosso ed applicato nel Digital Lobbying di ADL Consulting. 

 

¹| BestinBrussels 2024/25, 2024, https://www.bestinbrussels.eu/wp-content/uploads/2024/06/BestinBrussels-2024_25-1.pdf

Leggi anche

Tutti gli articoli