Intelligenza artificiale e lavoro: intervista a Matteo Flora sull'AI in azienda
:quality(90)/)
Le macchine non ci sostituiranno nel nostro lavoro, a patto che impariamo a guidare la rivoluzione in corso. Ne è convinto Matteo Flora, imprenditore e divulgatore, che consiglia di cambiare approccio: per governare l'innovazione portata dall'AI è necessario diventare architetti del cambiamento
Matteo Flora, imprenditore digitale con molte esperienze nel suo portfolio oltre che docente universitario e divulgatore, è stato ospite presso il campus di Roche a Monza per parlare dell'impatto dell'AI nel lavoro quotidiano delle aziende, in quella che è una panoramica ampia e replicabile in qualsiasi altro ambiente professionale.
Perché il mondo del lavoro è già cambiato ed è fondamentale avere a portata di mano una “cassetta degli attrezzi” concettuale per interagire con l'AI in modo consapevole. Questo piano d'azione concreto vale sia per i manager che per i dipendenti e offre una via d'uscita pratica al senso di inadeguatezza che molti provano di fronte alla tecnologia.
Prima di iniziare la chiacchierata con Matteo Flora mettete bene a fuoco questo concetto: le competenze richieste per padroneggiare l'AI sono più strategiche e di pensiero critico che puramente tecniche. Bisogna smettere di ragionare con il paradigma classico dell’imparare a “usare il software” per arrivare al cambio di mentalità che ci deve far capire quando bisogna usarlo.
Sentiamo sempre più spesso parlare di software e dispositivi dotati di AI. Davvero l'intelligenza artificiale è imprescindibile nello sviluppo tecnologico oppure si tratta soltanto di una moda passeggera?
La risposta più onesta e documentata è: non è una moda, ma nemmeno una magia. È una fase evolutiva dell’infrastruttura tecnologica. Siamo immersi nella narrazione modaiola dell’AI, ma l'infrastruttura sottostante è solida, crescente e irreversibile. Il punto cruciale è che, una volta che una tecnologia supera una certa soglia di efficienza rispetto all’alternativa umana, la sua adozione non è più una scelta “di moda”, ma una necessità di competitività. Come è successo con l'elettricità e internet, all'inizio si annunciano come rivoluzioni, poi si nascondono nei muri e nessuno ne parla più, ma tutto funziona grazie a loro.
In che modo l’intervento umano rimarrà determinante? Come possiamo evitare che l’AI diventi uno strumento di stagnazione invece che di trasformazione?
Il ruolo dell’intervento umano non è solo auspicabile, è ontologicamente necessario. Lo spiego in termini pratici: l’AI può generare output coerenti, ma non possiede senso, intenzione, contesto sociale o etico. Tradotto: può dire “il re è nudo” solo se qualcuno l’ha istruita a capire che c’è un re, che è nudo, e che questa cosa ha un senso. Il problema non è solo “se l’umano serve”, ma quando lo togliamo, cosa succede? Succede che l’AI ottimizza lo status quo. E il rischio è che lo status quo sia discriminatorio, inefficiente o eticamente inaccettabile. Per evitare che diventi uno strumento di stagnazione invece che di trasformazione, l’intervento umano deve svolgere tre ruoli chiave: il “curatore dei dati” (perché l’AI è letteralmente ciò che mangia: garbage in, garbage out); il “designer dell’intenzione” (cioè stabilire perché si sta usando l’AI e con quali limiti); l’“auditor della conseguenza” (monitorare l’impatto reale, soprattutto sugli esclusi). Senza queste tre funzioni umane, il rischio è che l’AI diventi un amplificatore di bias e un lubrificante della mediocrità automatizzata.
Che cosa distingue l’intelligenza artificiale da un problem solving potenziato?
“La differenza non è tanto tecnica, quanto epistemologica. In altre parole: non si tratta solo di “quanto” meglio risolvi un problema, ma di “come” e “su che base” lo fai. Nel problem solving potenziato, come quello che si può ottenere con un foglio Excel, un motore di ricerca o una dashboard avanzata, lo strumento amplifica la capacità dell’umano di prendere decisioni, ma resta subordinato alla logica causale dell’utente: tu fai la domanda, lo strumento esegue, ti restituisce dati. L’intelligenza artificiale, invece, non lavora su logiche deterministiche. Usa pattern, correlazioni e probabilità. Questo significa che può arrivare a soluzioni “non ovvie”, inferenziali, in contesti dove la regola esplicita non è disponibile. Ecco la distinzione cruciale: l’AI è un sistema predittivo generativo, capace di elaborare output validi anche in assenza di istruzioni esplicite. Questo la rende potenzialmente creativa (entro certi limiti), ma anche opaca, fallibile, e soprattutto non interrogabile con gli stessi strumenti logici classici. Quindi, mentre il problem solving potenziato è uno strumento, l’AI è una nuova forma di interlocutore tecnico: non solo ti aiuta a risolvere un problema, ma può anche proporti un modo alternativo di formulare la domanda. E questo è filosoficamente destabilizzante, ma anche profondamente rivoluzionario.
Cosa cambia nel mondo del lavoro? Cosa deve sapere un dipendente o un manager oggi per non farsi incantare dalla retorica dell’AI e allo stesso tempo non restare indietro? Esiste una “cassetta degli attrezzi” minima per prendere decisioni lucide su questi temi?
Il mondo del lavoro non sta cambiando: è già cambiato. Solo che non ce ne siamo accorti perché la transizione è avvenuta in modalità silenziosa e asimmetrica. Le professioni ad alto contenuto ripetitivo e cognitivo stanno subendo un lento svuotamento funzionale, spesso senza che le persone coinvolte ne siano consapevoli. Non serve diventare esperti di AI per restare rilevanti, ma serve comprendere cosa fa davvero un sistema AI e, soprattutto, cosa non può fare. La “cassetta degli attrezzi” minima è composta da quattro strumenti concettuali.
Li vediamo nel dettaglio?
Certo! Partiamo dalla “alfabetizzazione algoritmica”, cioè capire cosa significa machine learning, modello predittivo, bias e overfitting. Passiamo alle “competenze di prompt engineering”, cioè saper dialogare con i sistemi, perché il linguaggio è la nuova interfaccia. Poi c'è la “valutazione del rischio algoritmico”, cioè imparare a leggere i risultati con occhio critico, comprendendo quando fidarsi e quando no. Infine chiudiamo l'elenco con la “capacità di scenario”, cioè saper immaginare l’impatto di un’adozione tecnologica in termini economici, organizzativi ed etici.
Per le figure apicali in azienda c'è qualche ulteriore strumento da elencare?
Sì, per i manager c’è una dimensione in più: la “governance dell’innovazione”, cioè sapere come strutturare l’introduzione di tecnologie AI in modo etico, sostenibile e strategico. Non serve diventare data scientist, ma serve diventare architetti del cambiamento. Queste competenze non si improvvisano. E lo dico anche da docente: l’errore più comune è pensare che basti “capire il tool”. No. Serve un cambio di paradigma nella mentalità con cui si affronta la tecnologia.
Scopri di più sull'Intelligenza Artificiale
Video di Matteo Flora:
1) “ChatGPT a 20.000 dollari al mese”,
2)“Sistemi Multi-Agente e Deep Research”
3) “I 5 livelli dell’AI secondo OpenAI”.
4) “Fermiamo in Parlamento le Macchine Killer”
5) il caso analizzato sul Comune di Milano.