Attualità

L'IA a scuola di etica. Perché le aziende devono potersi fidare dei cervelli virtuali

 

Vantaggi competitivi, acquisizioni strategiche, investimenti mirati. Per misurare la solidità e le prospettive di un’azienda siamo abituati a ritornelli in gergo business, ma dimentichiamo troppo spesso la parola attorno alla quale tutto il business gira: fiducia.

 

Si sa: la relazione emotiva tra qualsiasi impresa e i suoi clienti, ma anche tra essa e chi vi lavora, è il motore di scelte, di attaccamento, di fedeltà. Ma è anche – spiega oggi uno studio commissionato da Accenture, che sarà commentato dal Chief technology and information officer Paul Daugherty in incontro durante il World Economic Forum di Davos  – un concetto misurabile, ottenuto dal ripetersi di esperienze basate su competenza, trasparenza, dedizione e integrità. Capaci di creare un valore condiviso, quantificabile, azionabile, e soprattutto strategico: la perdita di fiducia da parte di utenti, partner e persino della stampa può creare criticità insormontabili.

 

 

Se la questione è già di per sé cruciale, lo diventa anche di più pensando alle evoluzioni – o rivoluzioni – tecnologiche che stanno facendosi largo, intelligenza artificiale (AI) in testa. Scenari distopici di macchine che decidono da sole, si ribellano ai loro programmatori e fanno scelte incomprensibili affollano i film, e i timori di chi li guarda. La realtà, fortunatamente, è meno romanzata. E, soprattutto, molto più monitorata e promettente.                                                  

 

 

Il recente report “AI Momentum, Maturity and Models for Success”  rivela infatti che in cima alle preoccupazioni di quel 72% di aziende che già oggi utilizzano sistemi di intelligenza artificiale c’è il renderli “affidabili”. Il 70% degli executive intervistati richiede ai propri programmatori di frequentare un training sui temi dell’etica, e il 63% ha già previsto comitati etici a controllo dell’AI.

 

La preoccupazione è costruire una solida cornice etica, e un insieme di linee guida concrete, che possano rendere le scelte dei sistemi di intelligenza artificiale sicure, trasparenti, facilmente spiegabili e responsabili dei risultati prodotti.

 

L’obiettivo è evitare effetti collaterali capaci di pregiudicare il patrimonio di fiducia tra l’azienda e i suoi stakeholder, come nel caso di decisioni viziate da pregiudizi contro particolari gruppi di persone generate da valutazioni non corrette dell’AI. Si è molto discusso, per esempio, di trattamenti iniqui nel settore Finance – per esempio nell’accessibilità al credito – causati da pregiudizi incorporati all’interno degli algoritmi.

 

 

Cruciale è anche che gli stessi dipendenti di un’azienda possano fidarsi delle scelte operate dall’intelligenza artificiale: il report mostra infatti che il 20% degli interpellati lamenta una resistenza dei propri impiegati nei confronti dell’AI; il 57% teme addirittura che questa possa avere un impatto negativo nelle relazioni con e tra il personale. Il 60%, inoltre, aggiunge una preoccupazione per le possibili ripercussioni nei rapporti con i clienti causate da decisioni erronee prese affidandosi a sistemi di intelligenza artificiale: per esempio l’ipotesi che valutazioni troppo ‘fredde’, private della componente umana, possano allentare l’empatia degli utenti o dei clienti.

 

La capacità unica di apprendere tipica dell’intelligenza artificiale – quell’insieme di processi noti come machine learning – genera insomma ansie, ma consente anche di sperimentare pratiche che possono diventare capisaldi per aziende e interi comparti. E costituire nel futuro prossimo un reale vantaggio competivo.

 

 

 

 A partire dai monitoraggi periodici, giornalieri o settimanali, fondamentali per acquisire fiducia nell’AI e per prendere dimestichezza con le decisioni elaborate dalla tecnologia. Il controllo non può tuttavia essere esasperato: l’AI, per natura, deve macinare dati e procedere in autonomia per poter crescere e svilupparsi. Inoltre, è importante formare i propri tecnici e programmatori così che possano istillare negli algoritmi AI un certo tasso di flessibilità: la capacità di giudizio umana non è interamente riproducibile, ma la plasmabilità è esenziale perché partner, utenti e clienti acquisiscano fiducia nei nuovi sistemi.


 

 

 

 

 

Il settore dell’automazione e della mobilità, con i progressi delle auto senza conducente, stanno dando grosso sviluppo all’analisi di tali linee guida. E l’arrivo dell’Internet delle cose consentirà di esplorare nuove possibilità e allargare il perimetro delle buone pratiche.
Le parole chiave sono insomma attenzione e pazienza: non a caso, la base di qualsiasi rapporto fiduciario.

 

 

 

 

 

 

 

FONTE: https://it.businessinsider.com/lintelligenza-artificiale-a-scuola-di-etica-perche-le-aziende-devono-potersi-fidare-dei-cervelli-virtuali/?utm_source=taboola&utm_medium=referral 

 

 

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più consulta la cookie policy.Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.

Se non si modificano le impostazioni del browser, l'utente accetta. Per saperne di piu'

Approvo
©2019 RipetizioniCorsi.it All Rights Reserved. ALESSIO LEONCAVALLO: VIA DELLE MURETTA 34, 00040 ROCCA DI PAPA (RM) P.IVA 13624251008

Search