Di Adele Nardulli, Presidente di Federlingue – Confcommercio e Founder di Landoor – A Translate.one Company
Quale sarà il ruolo dell’essere umano nel lavoro di domani?
È la domanda che accompagna la diffusione dell’intelligenza artificiale generativa. Non dell’AI in senso astratto – presente da decenni nei processi industriali e informatici – ma dei grandi modelli linguistici oggi accessibili a tutti, capaci di produrre testi, analisi e calcoli in pochi secondi. È questa “democratizzazione” ad aver inciso profondamente sull’efficienza operativa e sul mondo del lavoro negli ultimi anni.
Come Presidente di Federlingue – Confcommercio e Founder di Landoor – A Translate.one Company, osservo con particolare attenzione questa trasformazione, che nasce dal linguaggio. I primi esperimenti di intelligenza artificiale negli anni ’50 e ’60 si concentravano infatti sulla comunicazione tra uomo e macchina. Non a caso: il linguaggio è la capacità che più di ogni altra esprime le facoltà cognitive dell’essere umano.
È su questo dialogo tra umano e macchina che occorre continuare a concentrare l’attenzione, perché è qui che si gioca la capacità di governare gli esiti della trasformazione organizzativa e sociale profonda che stiamo vivendo.
Gli strumenti generativi oggi supportano scrittura, traduzione e localizzazione di contenuti, ma anche analisi, calcoli avanzati e redazione di documenti complessi. Funzioni che fino a poco tempo fa richiedevano tempo e competenze specialistiche. La tentazione di sostituire processi strutturati con un uso rapido e individuale di questi strumenti è forte.
Qui emergono le prime criticità. In molte organizzazioni l’uso dell’AI generativa è frammentato e non governato. Senza linee guida e competenze avanzate, l’AI rischia di generare output formalmente corretti ma imprecisi, errori interpretativi, bias e rischi legali o reputazionali. A ciò si aggiunge un aspetto spesso sottovalutato: l’uso di dati sensibili senza adeguate protezioni può esporre le organizzazioni a perdita di controllo e vulnerabilità.
La questione centrale va oltre l’efficienza: se le macchine producono, calcolano e propongono – e lo fanno sempre meglio – perché lo stesso AI Act europeo continua a mettere l’essere umano al centro? La risposta sta nella responsabilità finale: solo l’essere umano può interpretare i risultati, valutarne il contesto ed esercitare giudizio, soprattutto quando sono in gioco decisioni di forte impatto.
Linguaggio e comunicazione diventano così infrastrutture strategiche: ogni output generato dall’AI è utile solo quando viene compreso, contestualizzato e utilizzato correttamente.
In questo scenario, la collaborazione tra imprese, università e istituzioni diventa fondamentale. Le università possono studiare le implicazioni economiche, giuridiche e culturali della trasformazione e formare nuove figure professionali; le istituzioni favorire la diffusione delle competenze e la formazione continua. Alle imprese spetta dotarsi di una governance consapevole dell’AI, integrandola nei processi decisionali e valorizzando servizi qualificati capaci di garantirne un uso responsabile e affidabile.
L’intelligenza artificiale generativa è uno strumento potente. Ma senza competenze, cultura e capacità di dare senso ai suoi output, non basta. La vera differenza, oggi come domani, resta profondamente umana.