Chatbot e IA rappresentano senza dubbio un’opportunità notevole nell’ambito del business, ma presentano insieme opportunità e rischi. Lo ha scoperto a proprie spese Air Canada, che è stata costretta a rimborsare parzialmente un passeggero che era stato indotto in errore riguardo la politica di rimborso dei biglietti da un chatbot attivo sul sito della compagnia aerea.
Un assistente distratto…
Il chatbot aveva fornito informazioni inesatte, inducendo il passeggero a prenotare un volo immediatamente con la sicurezza di poter richiedere un rimborso entro 90 giorni, contrariamente alla politica effettiva di Air Canada, che non prevede rimborsi (nemmeno a causa di lutto, come nel caso di specie). Dopo mesi di resistenza e una causa presso il Tribunale di Risoluzione Civile del Canada, Air Canada è stata giudicata responsabile per le informazioni fornite dal suo chatbot e ha dovuto rimborsare al passeggero $650.88 CAD su un biglietto originale di $1,640.36 CAD, oltre a rifondere danni aggiuntivi per coprire gli interessi sul prezzo del biglietto e le spese legali.
La difesa di Air Canada si è inizialmente basata sul fatto che la risposta del chatbot, pur errata, rimandasse comunque, attraverso un link, alle reali condizioni di vendita che, come nelle intenzioni della società, declinavano invece ogni possibilità di rimborso. Secondo la società dunque, il consumatore avrebbe dovuto leggere in ogni caso con diligenza le condizioni proposte senza affidarsi completamente alla risposta del sistema automatico. Dal punto di vista legale, la società ha successivamente sostenuto che il chatbot fosse “un’entità legale separata e responsabile delle proprie azioni”.
L’esito del giudizio ha negato tale ipotesi, considerando il chatbot un mero componente del sito web funzionante sotto l’esclusiva responsabilità della società, e insistendo sul fatto che il cliente non avesse dunque alcun motivo per credere che una parte del sito web fosse corretta e un’altra sbagliata.
… destinato ad altre mansioni
Al momento Air Canada ha rimosso il chatbot dal proprio sito web, e ha spiegato che lo riattiverà soltanto per assolvere alle funzioni per le quali l’azienda lo aveva sviluppato. Il sistema, infatti, era nato per gestire le informazioni su cancellazioni e ritardi dei voli a causa del maltempo, un compito meccanico e ripetitivo al quale assolveva brillantemente e con un margine di errore praticamente nullo, sollevando da tale incombenza il personale umano dell’assistenza clienti. Pochi mesi fa, sull’onda dell’emozione per le performances dei sistemi di intelligenza artificiale, la società aveva ampliato il suo modello di conoscenze , promuovendolo di fatto al rango di agente dell’assistenza clienti ad ampio spettro, senza evidentemente considerare i rischi connessi a tale attività senza supervisione umana.
Cosa ci racconta questa disavventura?
Questo episodio è un perfetto esempio di sottovalutazione dei rischi connessi all’utilizzo di sistemi di intelligenza artificiale, nonché di mancanza di un sistema di gestione per lo sviluppo degli stessi. nonostante esistano strumenti efficaci per affrontare tali incombenze.
Lo standard ISO 42001:2023 specifica, infatti, i requisiti per istituire, implementare, mantenere e migliorare continuamente un Sistema di Gestione dell’Intelligenza Artificiale all’interno delle organizzazioni.
Questo standard è progettato specificamente per aziende che forniscono o utilizzano prodotti o servizi basati su intelligenza artificiale, garantendo uno sviluppo e un utilizzo responsabili dei sistemi AI. Si tratta del primo standard al mondo per la gestione dell’IA, che fornisce linee guida preziose per un campo in rapidissima evoluzione e numerosi benefici:
- Creazione di un sistema per la gestione dei rischi per gestire in modo efficace i rischi e le opportunità legati all’IA;
- Dimostrazione dell’uso responsabile dell’IA attraverso processi controllati;
- Promozione di trasparenza e tracciabilità nei processi AI, allo scopo di certificarne l’affidabilità;
- Risparmio di costi e maggiore efficienza attraverso processi di sviluppo e controllo ottimizzati.
NetworkLex si propone come partner per le aziende che utilizzano o sviluppano sistemi di intelligenza artificiale, attraverso consulenze mirate per l’analisi dei rischi e l’assistenza alla compliance alle normative di riferimento.
Lo Studio può infatti contare su professionisti qualificati come Auditor / Lead auditor nell’ambito della normativa ISO 42001:2023, permettendo all’azienda di affrontare con serenità e sicurezza le sfide uniche poste dall’IA, come considerazioni etiche, trasparenza e apprendimento continuo, stabilendo un modo strutturato per gestire rischi e opportunità dell’IA e bilanciando così innovazione e governance.