L’intelligenza artificiale del presente e del futuro in Italia, fra umano e digitale, etica e business: tutto quello che è stato detto alla AI Week 2023
La AI Week 2023, che si è svolta dal 17 al 21 aprile, è stato forse il più grande e partecipato evento italiano dedicato all’intelligenza artificiale, con oltre 1.650 persone, fra manager, imprenditori, professionisti, startup, studenti, che nei due giorni conclusivi del 20 e 21 aprile hanno affollato il Palacongressi di Rimini.
Anche Money.it era presente per testimoniare il grande momento dell’intelligenza artificiale e verificare l’impatto che questa ha sulla società, l’economia, le aziende italiane, il mondo del lavoro, della ricerca e dell’apprendimento.
Lo diciamo subito, è un impatto ampio, che ha tutta l’aria di essere definitivo e che ci descrive l’intelligenza artificiale non solo come un tema tecnologico, ma soprattutto come un fenomeno dai risvolti prevalentemente umani.
I relatori che si sono avvicendati nei due giorni di plenarie e incontri della AI Week 2023 spesso hanno utilizzato termini ricorrenti.
Se un’intelligenza artificiale dovesse riassumere in un tweet il senso della AI Week attingendo da un dataset contenente tutte le parole pronunciate a Rimini, quel tweet ci parlerebbe di responsabilità, umanità, fiducia, grande potenziale di business e di dati.
Cos’è oggi l’intelligenza artificiale
L’intelligenza artificiale emersa dalla AI Week 2023, infatti, ha una connotazione prevalentemente umana prima ancora che tecnologica.
A pensarlo e dirlo è soprattutto chi ne fa un uso meramente tecnologico, come Giuseppe Borghi, che a Frascati dirige il Phi Lab dell’Esa, l’Agenzia Spaziale Europea e che utilizza l’AI per l’osservazione della Terra al fine di crearne un digital twin, un gemello digitale.
Per l’umanità, ha detto Borghi, “l’IA è un fattore abilitante come lo sono stati il fuoco, elettricità, internet. Uno strumento potentissimo, ma che non conosciamo a fondo e che ci può aiutare solo se i dati sono di qualità” e dobbiamo fornirgli dati responsabilmente.
Massimo Chiriatti, Chief Technology Officer di Lenovo, vede l’AI come una disciplina che “legge le nostre orme: in passato abbiamo lasciato dei dati che vengono letti e usati da una macchina. Prima la macchina lo faceva per fare previsioni, ora lo fa anche per generare contenuti” (ossia l’intelligenza artificiale generativa).
Oggi esistono macchine automatiche (con regole) e macchine autonome, che non partono dalle regole, ma dai dati, modelli deduttivi, per fare calcoli, basati sulle regole, e sistemi inferenziali. Per Chiriatti dobbiamo usare entrambi i metodi.
Prendiamo il caso dell’elemento sorpresa: “quando facciamo i calcoli non vogliamo essere sorpresi. Quando facciamo AI voglia invece essere sorpresi dalle correlazioni che la macchina trova, perché come esseri umani non abbiamo modo di capirle. Usare sistemi statistici, quindi, ha benefici ma se li applichiamo all’intera umanità rischiamo di fare danni”.
La macchina, per Chiriatti, non può decidere per noi: sarebbe un pericolo. Quali sono, allora, i rischi? “Pregiudizi, assenza di responsabilità morale, dato che la macchina non si può pentire di quello che ha emesso, amplificazione di diseguaglianze, profezie che si autoavverano”.
Allora cosa si deve fare? “Mettere i guardrail per far scalare l’AI: migliorando la macchina miglioriamo noi stessi. Il sistema è diverso dagli esseri umani, non dobbiamo umanizzare la macchina: noi siamo differenti, dobbiamo usarla meglio”.
La macchina non ha corpo, non fa esperienza, non fa relazioni causa effetto. “ChatGPT ha un’ottima sintassi, ma non sa la semantica, la relazione fra le parole e la realtà, ossia il ponte verso il significato. Quindi la macchina non può essere cosciente di quello che fa”.
L’AI, quindi, per Chiriatti, deve essere uno strumento: “È il passato, quello dei lavori alienanti, a essere distopico: le macchine continueranno a fare le transazioni, noi esseri umani faremo relazioni, guardandoci negli occhi. La macchina non può farlo. Noi siamo di più, abbiamo una coscienza".
Che l’Intelligenza artificiale debba essere antropocentrica è stato bene sottolineato anche da Bianca Giardino di Deloitte, nello spiegare e valorizzare i determinanti dell’AI Act che è in corso di definizione in Europa e la scala di rischi che individua.
I rischi inaccettabili sono quelli che causano danno fisico psicologico: manipolazione dei comportamenti, social scoring, identificazione biometrica remota in tempo reale.
In attesa dell’approvazione dell’AI Act, a livello progettuale si procede con il cosiddetto «self assessment»: se si rileva un alto rischio associato all’AI viene fatto un modello di governance per mitigarne gli effetti.
Ma le attese non possono durare, come ha detto Marco Gay, presidente esecutivo di Digital Magics, nel presentare i dati sul valore dell’utilizzo dell’AI nel mercato italiano (422 milioni di euro, +22% dal 2021, con 700 milioni di euro previsti nel 2025): “l’AI è la più grande rivoluzione industriale dentro la rivoluzione 4.0, non si tratta più di leggerla come fattore di distruzione di posti di lavoro, ma di cambiamento«. Secondo Gay le alternative sono due:»possiamo essere quelli che guardano il treno passare o che decidono di salirci sopra: si può fare”.
Intelligenza artificiale fra democrazia, etica e privacy
Il tema del business che si fa con l’AI è quindi di forte richiamo, ma deve contemperare quello dei diritti e della privacy. E alla AI Week 2023 questo aspetto è stato ribadito con forza.
Pegah Moshir Pour, senior consultant di EY e attivista per la democrazia digitale, ha ricordato come la diffusione delle piattaforme digitali ha fatto nascere nuovi legami sociali, creando una forma di intelligenza distribuita, che valorizza in tempo reale ogni cosa.
Ma si è chiesta se in questo sono coinvolti davvero tutti i cittadini del mondo, rispondendo che la "democratizzazione digitale funziona solo se ci troviamo nei paesi giusti, in quelli autoritari le tecnologie sono uno strumento in mano agli autoritarismi” e il caso dell’Iran è sotto gli occhi di tutti.
Se l’obiettivo ideale è quello di avere una democrazia, entra in gioco l’intelligenza collettiva. “Nel digitale tutti abbiamo responsabilità, anche come aziende, formatori: l’attivismo, serve a portare consapevolezza e coscienza delle etiche digitali. Il digitale aiuta davvero a raggiungere l’obiettivo, la voce di chi ha bisogno di aiuto arriva prima, ma bisogna rendere tutto accessibile. Anche gli algoritmi devono essere inclusivi e contenere tutte le diversità”.
L’invito lanciato da Pegah Moshir Pour dalla AI Week è proprio quello di sentirsi parte e protagonisti responsabili del grande processo di digitalizzazione globale e sociale.
Un processo in cui il tema della protezione dei dati nelle ultime settimane si è imposto come primario, con l’istruttoria del Garante della Privacy su OpenAI per la gestione dei dati di ChatGPT, che ha scaturito il blocco del servizio e conseguentemente un acceso dibattito a livello di società civile e sulla scena imprenditoriale ed economica.
A parlarne alla AIWeek 2023 è venuto Guido Scorza, componente del collegio del Garante per la protezione dati personali, che ha sottolineato come la tecnologia e i mercati non aspettano la regolamentazione, ma le regole vanno fatte.
Scorza ha ricordato che Stefano Rodotà diceva che la tecnologia è la forma più potente di regolamentazione, ma aggiungeva che se non si regola in tempo lo sviluppo, la tecnologia e i mercati sovrascrivono le regole e si sostituisce la tecnocrazia alla democrazia.
“Lo sa bene chi ha vissuto la rivoluzione di Internet - ha detto Scorza - il mercato digitale ha dimostrato di essere un pessimo regolatore di se stesso. Siamo in una rivoluzione oligopolista, che determina le scelte di consumo, di cultura, di educazione”.
Per Scorza oggi siamo a un bivio: “stare sulla difensiva oppure orientare lo sviluppo tecnologico. La strada difensiva è sbagliata. Il futuro non é un problema e se orientato bene è il miglior alleato. Quella del Garante contro OpenAI è stata letta come un’azione contro il futuro. Niente è meno condivisibile di così: sotto il nostro ombrello democratico non ci sono diritti tiranni. Non esistono diritti che ne fagocitano altri. La regola democratica per eccellenza è il bilanciamento dei diritti”.
Il dibattito aspro fra innovatori e Garante dei giorni scorsi per Scorza non ha fatto bene: “l’innovazione è un mezzo non un fine. Il mercato globale aperto non può diventare un laboratorio di sperimentazione di AI. Le persone non sono cavie da laboratorio, prima vanno informate che i loro dati si è deciso di utilizzarli per addestrare un algoritmo”.
Per Scorza il laissez faire che i regolatori hanno adottato all’epoca della nascita di Internet non può essere la soluzione: “le regole il loro rispetto servono per garantire diritti e libertà Servono alle persone e alle imprese. Il principio è fare in modo che i diritti fondamentali smettano di essere percepiti dalle imprese come un obbligo di legge e diventino per loro un asset, un fattore competitivo”.
Quando verrà il giorno in cui il rispetto delle regole farà acquisire nuovi clienti? Secondo Scorza "quando ci sarà una vera cultura di massa dei diritti e delle libertà. La maggior parte dei consumatori questa cultura non ce l’ha, non ha capito il valore dei propri dati”.
I nuovi business dell’intelligenza artificiale
Responsabilità delle azioni e fiducia riposta nei dati che si usano sono dunque i due aspetti centrali per il futuro dell’intelligenza artificiale.
Lo ha confermato Seth Dobrin, che è stato per sei anni a capo dell’intelligenza artificiale di Ibm e oggi è ceo di Trustwise e presidente del Responsible AI Institute: “senza responsabilità la gente non userà la vera AI generativa, che è molto di più di quella testuale di ChatGPT, ma riguarderà anche immagini e video”.
Per Dobrin avremo anche un’AutoGPT, ossia l’AI che genera AI, e la formula per usarla sarà una sequenza ripetuta di fasi (ideazione, prioritizzazione, pianificazione, esecuzione e operazione) in cui il comune denominatore sarà la responsabilità, che darà l’affidabilità dei prodotti realizzati con i dati utilizzati.
Cose che si fanno già oggi, come hanno testimoniato alla AI Week 2023 Giovanni Saggio, professore dell’Università Tor Vergata, che applica l’AI per l’analisi della voce a supporto della indagine medica, o Maurizio Sanarico, Chief Data Scientist di Sdg, che combina modelli di discipline scientifiche con diversa formalizzazione (fisica, medicina, epidemiologia ) e di intelligenza artificiale.
Paolo Denti, ceo di Oversonic Robotics, ha realizzato Robee, un robot umanoide da impiegare in campo industriale per svolgere lavori pericolosi e che ha dietro una piattaforma cognitiva di AI, mentre Marco De Vivo, Associate Director Computational Science dell’Istituto Italiano di Tecnologia, ha spiegaato come si usa l’AI per la predizione nello studio delle proteine.
Federico Cussigh, senior partner di R-Tree Technologies, che propone l’utilizzo dell’AI per compensare il gap demografico occupazionale che ci attende nei prossimi anni, mentre Piergiorgio Schirru, executive Vice President di Blastness con l’intelligenza artificiale ha creato un sistema di revenue management per il settore dell’ospitalità, basato su un algoritmo di machine learning che calcola continuamente la combinazione migliore per hotel e cliente basandosi sui dati del sistema alberghiero.
Stefano Stafisso, Executive Vice President HR di Danieli, ha portato l’AI nel gruppo siderurgico italiano (9mila dipendenti, presenze in 28 paesi, 500 job diversi) da tre anni per sfrutterare meglio i dati in suo possesso e capire meglio i comportamenti dei lavoratori. L’AI gli è servita durante il Covid per monitorare e predire i contagi dei lavoratori sulle linee produttive. In seguito l’ha usata per gestire il turnover, prevedendo chi si sarebbe dimesso e pianificando meglio la rotazione del personale e le carriere.
Le storie italiane di intelligenza artificiale
La AIWeek 2023 è stata quindi l’occasione per la consegna dei premi John McCarthy, che i creatori della manifestazione, Giacinto Fiore e Pasquale Viscanti di AI Spiegata Semplice, hanno istituito quattro anni fa per riconoscere l’impegno e l’attenzione dei protagonisti della ricerca nell’ambito dell’intelligenza artificiale.
Quest’anno sono state premiate le eccellenze italiane che si sono contraddistinte nell’utilizzo dell’intelligenza artificiale.
Ecco perché il premio John McCarthy può essere inteso come una sintesi significativa del presente e del futuro dell’intelligenza artificiale nelle imprese italiane, che ci fa capire quanto l’AI sia già in uso.
I rappresentanti di imprese di tutti i settori del sistema economico hanno raffigurato un quadro dinamico, per certi versi sorprendente, dell’uso che di fa dell’intelligenza artificiale in Italia.
Vincenzo Di Nicola, HR e digital transformation di Inps ha spiegato che l’intelligenza artificiale supporta già da due anni i servizi dell’ente di previdenza sociale. Un chiaro esempio è il sistema di comunicazione con i cittadini: «Prima quando arrivavano le PEC a Inps (che quest’anno saranno 6 milioni) gli operatori dovevano leggerle da cima a fondo per capire a quale funzionario smistarle. Ora la prima lettura la fa l’AI che le legge e le smista al funzionario, liberando tempo per l’operatore che può dedicarsi ai cittadini».
Per il retail il riconoscimento ad Alessandra Grendele, Chief Digital Officer di Carrefour, suggella un percorso iniziato due anni fa e che ora vede l’AI presente nell’ecommerce (un motore di raccomandazione che facilita l’acquisto), a livello finance, nel marketing, nella supply chain (motore, di assortimento per personalizzare le offerte nei negozi), nell’IT e anche nei punti vendita (i direttori dei negozi hanno in mano tutti i giorni le previsioni di vendita.
Per Emanuele Tango, HR BNL di BNP Paribas, “La cosa più incredibile dell’intelligenza artificiale è che viene utilizzata poco, da meno il 10% delle aziende”. BNL ha iniziato a usarla nel 2018 “fra mille resistenze. Mattone su mattone abbiamo convinto manager e colleghi: oggi abbiamo 30 applicazioni. Oggi al 40% delle nostre email risponde l’AI”.
L’AI usata da Poste Italiane, ha spiegato Silvia Pontarelli, Head of Customer Service Modelling, dal 2019 nel servizio clienti, inizialmente in modo reattivo, poi propositivo, ha portato a 50 milioni di interazioni, delle quali il 35% sono gestite in autonomia dai clienti, anche se “al centro c’è sempre l’essere umano". E il futuro di Poste sarà fatto da modelli di interazioni personalizzati e AI generativa.
L’IA è protagonista del customer care anche in Intesa Sanpaolo. Come ha spiegato Walter Chiaradonna, Head of Group Supervisory Strategic Steering, l’assistente Lisa raccoglie informazioni, elabora, cerca correlazioni inattese e genera conoscenza per supervisione bancaria.
Giorgio Ramenghi è Ceo Office Innovation Hub Wind Tre, che ha investito in AI per sfruttare i tanti dati in suo possesso: “sappiamo dove vanno i nostri clienti, chi sono, nel rispetto della privacy possiamo costruirgli servizi per farli vivere meglio. Ora abbiamo il 5G. Faremo il 6G responsabilmente, per abbattere le barriere, a beneficio dei cittadini, per la libertà personale".
L’intelligenza artificiale è motore di relazioni anche in Enel, come ha spiegato Filippo Ruggiero, Head of Market Operations di Enel. L’AI è usata in 500 impieghi in 30 paesi, dalle centrali (200 funzionano con algoritmi di AI per migliorare la disponibilità e l’efficienza) alle reti, per la pianificazione l’equilibrio dell’esercizio, la manutenzione. E poi c’è Elena assistente virtuale disponibile su social, chat e IVR, (quest’anno arriverà l’app) che è governata da un algoritmo. In totale parliamo di 3 milioni di conversazioni, 4 milioni richieste, con l’82% di comprensione delle frasi.
Pfizer con i dati e l’AI sta trasformando la medicina: Davide Bottalico Country Strategic Client Partner, ha detto che non esiste più la medicina qualitativa: “I medici non devono più chiedere al paziente come sta, ma devono imparare a chiedere “quanto stai”. L’intelligenza artificiale ci ha fatto sviluppare in sei mesi il vaccino per le varianti nuove del Covid, ce le ha predette".
In rappresentanza del settore dell’intrattenimento, Massimiliano Montefusco, general manager di Rds ha spiegato che l’AI è uno strumento, utilizzato in varie modalità, dalla social tv al sistema che ci permette di trasmettere ovunque.
Anche in Rai viene usata l’intelligenza artificiale. Ha raccontato Massimo Rosso, Chief procurement officer RAI (ma prima è stato direttore ICT di Rai) che l’intuizione risale ad anni fa, quando a viale Mazzini si chiesero se la Tv fosse ancora in grado di impattare sulla conversazione degli italiani. Sono stati realizzati due motori, Sarai e Memorai, per capire minuto per minuto qual è il sentiment e l’emozione generata dai programmi tv.
Alessandro Loprieno, ceo di Weshort, piattaforma di streaming di cinema breve, oggi ha realizzato un suo antico sogno: portare più cinema nella vita delle persone nel mondo con un motore di intelligenza artificiale.
Per Marina Geymonat, Leader Enterprise Data AI & Analytics di Capgemini Invent, “ogni volta che facciamo una scelta mettiamo in campo i valori. L’IA di oggi determinerà il mondo di domani. I progetti di AI, che non sono rimasti sperimentazioni ma che sono diventati di successo lo devono all’inclusione che hanno generato«. E questo anche grazie alla sapiente pazienza del management:»il ritorno sull’investimento generato dall’AI non arriva dopodomani, bisogna dargli tempo e tenere nella conversazione tutti gli stakeholder, anche aziendali”.
Per Fabio Moioli, Executive Search & Leadership Advisory Services di Spencer & Stuart, società di selezione manageriale “l’AI è come la nuova elettricità, è una tecnologia general purpose. Non la useremo per automatizzare, ma per trasformare: i processi saranno guidati dai dati".
A testimoniare la trasformazione digitale del settore immobiliare è stata Barbara Cominelli, Ceo di JLL, che utilizza l’intelligenza artificiale su tre livelli: di edificio (con i digital twin), per le esperienze che si vivono dentro il costruito (real estate as a service), per le transazioni (compravendita).
In Snam, ha spiegato Irene Sardelliti, head of Architecture, digital & Ai services, l’intelligenza artificiale viene utilizzata per dare modelli previsionali per la domanda di gas del giorno dopo, ottimizzando i processi interni.
L’intelligenza artificiale che nascerà in Italia
154. Tanti sono stati i tavoli di business networking appontati alla AI Week 2023, che è stata anche la piazza d’esordio del primo algoritmo italiano che utilizza l’intelligenza artificiale per favorire gli incontri tra aziende, manager, professionisti.
L’algoritmo è nato da un’idea di Giacinto Fiore e Pasquale Viscanti ed è stato creato creato in collaborazione con il Centro di Ricerche Semeion diretto da Massimo Buscema per far fruttare i dati che i partecipanti alla AI Week mettono a disposizione quando si registrano, proprio a loro beneficio: favorire il loro incontro con i fornitori di soluzioni di intelligenza artificiale che sono più indicate per soddisfare le proprie esigenze.
La profilazione realizzata dall’algoritmo ha favorito l’incontro fra imprese e fornitori di intelligenza artificiale per ottimizzare il percorso verso la realizzazione di nuove soluzioni, in un tempo medio di sei mesi.
E con ogni probabilità i frutti di quell’incontro presso il Palacongressi di Rimini li vedremo alla prossima AI Week del 2024.
In collaborazione con
Media Partner
Come vendere in Ticino
Guida pratica per le PMI lombarde
8 maggio 2023
Sede Confcommercio, Via Edmondo de Amicis, 9 (Monza)
© RIPRODUZIONE RISERVATA