Comunicare nell'era degli algoritmi

L'intelligenza artificiale (AI) ha guadagnato terreno all'interno delle organizzazioni e ci sono molti usi che possono essere fatti di questa tecnologia. All'interno della comunicazione, sebbene le sue applicazioni siano molteplici, come dimostrano l'automazione dei contenuti e alcune attività di routine, c'è un contributo fondamentale in ambito commerciale: la protezione di un bene prezioso come la reputazione. I sistemi basati sul deep learning (o deep apprendimento) forniscono alle imprese lo sviluppo delle capacità umane nel massiccia elaborazione dei dati non strutturati per ottenere possibili modelli di minaccia che possono danneggiare la reputazione.

Questa capacità offerta dall'intelligenza artificiale di analizzare enormi volumi di dati è essenziale per rivelare rischi emergenti nelle conversazioni che possono aver luogo, ad esempio, sui social media e su altre piattaforme digitali dell'organizzazione in questione. Un'analisi dalla quale, peraltro, si possono estrarre quelli che chiamiamo “pain points” ovvero aspetti critici che il brand dovrebbe essere costretto a risolvere subito per non subire una crisi maggiore. La verità è che l'intelligenza artificiale è il miglior alleato delle aziende quando si tratta di identificare minacce che oggi, a causa di un contesto globale e mutevole, non possono essere rilevate con risorse più rudimentali e meno stringenti.

ascoltalo e seguito da miliardi di commenti Nei diversi canali in cui è presente un brand è fondamentale non solo curare la reputazione dell'azienda, ma anche gestire un'eventuale crisi in caso di fallimento della prevenzione. La profondità e il dettaglio forniti dai sistemi costruiti con l'IA nella valutazione e nell'analisi delle informazioni fornite dai diversi gruppi di interesse è essenziale affinché i professionisti possano agire con garanzia di successo, reprimendo le questioni reputazionali immediatamente e con minime ripercussioni.

Nonostante i suoi vantaggi, l'uso improprio degli algoritmi può anche portare a una crisi di reputazione.

Questa non è la sua unica virtù: i sistemi intelligenti possono persino aiutare nello sviluppo di programmi di formazione per quello per chi conduce la comunicazione, fornendo situazioni e implicazioni plausibili su base probabilistica, proponendo best practice e comportamenti da adottare nei casi simulati. Non c'è modo migliore per affrontare una crisi che sentire gli effetti come se fossero reali, coinvolgendo le squadre, misurando i tempi di reazione e l'efficacia delle misure adottate; questo è attualmente possibile attraverso l'uso dell'intelligenza artificiale.

Tuttavia, c'è un paradosso che l'uso inappropriato degli algoritmi può anche diventare una crisi di reputazione. È quello che è successo nel 2014 con il sistema intelligente realizzato da Amazon, il colosso dell'e-commerce. Obiettivo del sistema è stato quello di supportare l'esame dell'elevato numero di CV pervenuti all'azienda: lo strumento è stato alimentato sulla base delle pratiche degli ultimi dieci anni di attività dell'azienda, programmato per attribuire a ciascun candidato un voto di un a cinque stelle. , ma un anno dopo, l'azienda si rese conto che la macchina discriminava le candidate donne a favore dei candidati uomini per la posizione di sviluppatore di Software e altre posizioni tecniche. Nel sondaggio condotto in seguito, si è concluso che dopo aver addestrato il sistema di intelligenza artificiale con i profili professionali di un decennio fa, quando la maggior parte dei candidati era di sesso maschile, gli algoritmi hanno penalizzato i CV contenenti la parola “donna”. L'azienda ha reagito immediatamente affinché i programmi formati smettessero di discriminare le donne, ma per il resto ha abbandonato il progetto: i fatti sono arrivati ​​ai media e l'azienda ha dovuto affrontare la crisi creatasi. Questo però non è l'unico caso.

L'eliminazione dei pregiudizi nel processo di apprendimento dei sistemi di intelligenza artificiale è estremamente complessa, poiché dipende da molteplici fattori, sia tecnici che umani. Per evitare questo tipo di problema, la cosa più necessaria è che le organizzazioni prendano misure – come la creazione di comitati etici – che chiariscano dove e per quale scopo questi sistemi vengono utilizzati.

Alcune aziende sono andate oltre e hanno applicato il Il giuramento di Ippocrate assunto dai medici per progettisti e sviluppatori: si tratta di responsabilizzare questi organismi professionali nello sviluppo di tecnologie basate sull'intelligenza artificiale.

Dal punto di vista della comunicazione, e visto l'impatto che l'IA può avere sulla reputazione dell'azienda, è fondamentale che chi gestisce quest'area all'interno dell'organizzazione influisca sulla trasparenza, informando tutti i propri parti interessate il loro uso di algoritmi. Spiegare come e perché sono stati sviluppati questi sistemi intelligenti, oltre a svolgere audit di impatto, conferma che l'azienda ha assunto un impegno etico nell'applicazione della tecnologia. Una comunicazione chiara, onesta e trasparente è la migliore garanzia per evitare qualsiasi rischio reputazionale derivato dall'intelligenza artificiale.

Bárbara Yuste è Direttore della Comunicazione di Atrevia e autrice del libro “Communication in the Age of Algorithms” (Pyramide).

Go up