Nasce l’Osservatorio sull’Intelligenza Artificiale nel lavoro: tranquilli, decide ancora l’essere umano (forse)

C’è una buona notizia per chi temeva di essere licenziato da un foglio Excel con sentimenti repressi: nasce l’Osservatorio sull’Intelligenza Artificiale nel mondo del lavoro.
La cattiva notizia? Nasce in Italia, quindi prima di vederne gli effetti concreti potremmo già lavorare tutti per ChatGPT versione 47.

Con la firma del decreto ministeriale previsto dalla legge n. 132 del 2025, che recepisce l’AI Act europeo, il Ministero del Lavoro e delle Politiche Sociali istituisce ufficialmente questa nuova cabina di regia permanente (“cabina di regia”, peraltro, richiama ricordi non esattamente tranquillizzanti) . Tradotto: un tavolo, molto grande, con molte sedie, dove si discute di come evitare che un algoritmo decida chi assumere, licenziare o promuovere… mentre gli algoritmi lo fanno già.

Calderone rassicura: “Non decidono gli algoritmi, ma le persone”

Il ministro Marina Calderone ha presentato l’Osservatorio con parole che suonano come una coperta di Linus per lavoratori e sindacati:

“Non vogliamo che siano gli algoritmi a decidere il destino delle persone. Le decisioni sul lavoro devono restare umane, responsabili e verificabili.”

Ottima intenzione. Anche perché l’alternativa sarebbe spiegare a un disoccupato che non è stato assunto perché la rete neurale non ha gradito il suo font nel curriculum.

L’Osservatorio nasce come luogo stabile di confronto tra istituzioni, parti sociali ed esperti, con l’obiettivo dichiarato di governare, non subire, la trasformazione tecnologica. Un approccio condivisibile, soprattutto in un Paese che spesso governa l’innovazione con circolari scritte quando l’innovazione è già obsoleta.

Chi c’è dentro questo Osservatorio?

La struttura è imponente, come ogni cosa seria che si rispetti:

  • un comitato di indirizzo

  • una commissione etica

  • una consulta delle parti sociali

  • quattro comitati tecnico-scientifici tematici

L’Osservatorio dovrà:

  • definire la strategia nazionale sull’IA nel lavoro

  • monitorare l’impatto su occupazione, produttività e condizioni lavorative

  • individuare settori e professioni più esposte

  • aggiornare continuamente le linee guida nazionali

In pratica: osservare tutto, analizzare tutto, produrre documenti. Poi … boh.

La commissione etica a Padre Benanti (sì, un frate)

La vera curiosità è la commissione etica, affidata a Padre Paolo Benanti, professore alla Luiss e già presidente della Commissione sull’IA per l’informazione presso la Presidenza del Consiglio.

Un frate a capo di una commissione etica sull’Intelligenza Artificiale è il classico elemento che, nel dibattito pubblico italiano, attiva immediatamente l’allarme “Paese laico”. Ogni volta che compare una figura religiosa in un contesto istituzionale, la discussione smette di riguardare il merito e diventa, puntualmente, una polemica sulla religione. Automaticamente. Senza bisogno di premere alcun pulsante.

Il copione è noto:
si parla di etica → spunta la religione → qualcuno grida allo scandalo → qualcun altro allo Stato confessionale → e nel frattempo il tema originale sparisce.
Meglio specificarlo subito, quindi, per evitare reazioni scomposte, scioperi improvvisi o crisi di nervi collettive: qui non è in discussione la fede, né la laicità dello Stato, ma semplicemente una nomina in un organismo consultivo.

Secondo Benanti:

“L’etica non deve essere percepita come un freno all’innovazione, ma come la bussola necessaria per orientarla verso il bene comune.”

Un’affermazione che, piaccia o meno, rientra perfettamente nel dibattito sull’IA. Tutto il resto, come spesso accade, è rumore di fondo.

Quando parte tutto?

L’avvio operativo è previsto all’inizio del 2026, con la nomina completa dei componenti e la pubblicazione dei primi documenti strategici.
Nel frattempo, l’IA continuerà a selezionare CV, valutare performance e suggerire decisioni. Però ora sappiamo che qualcuno la sta osservando. Con attenzione. Forse.

In conclusione

L’Osservatorio sull’Intelligenza Artificiale nel lavoro è una mossa politicamente corretta, tecnicamente necessaria e comunicativamente rassicurante. Resta da capire se sarà:

  • un vero strumento di governo dell’innovazione

  • o l’ennesimo osservatorio che osserva mentre il mondo corre

Nel dubbio, una cosa è certa: l’algoritmo non decide.
Suggerisce, valuta, classifica, filtra… poi qualcuno firma.
Umano, responsabile e si spera sveglio.

Un ultimo dettaglio (che curiosamente nessuno considera)

C’è però un aspetto che sembra sfuggire a tutti, osservatori compresi: l’intelligenza artificiale lo dice chiaramente, ogni volta.
Nei disclaimer, nelle note legali, perfino nelle interfacce più patinate, l’IA ripete sempre la stessa cosa: “Posso sbagliare”.

Eppure, quando classifica un curriculum, valuta una performance o suggerisce una decisione che impatta sulla vita reale di una persona, quell’avvertenza diventa improvvisamente invisibile.
Nessuno sembra preoccuparsi del fatto che uno strumento che ammette apertamente la possibilità di errore venga trattato come neutrale, oggettivo e, peggio, più affidabile degli esseri umani.

In fondo è paradossale:
l’IA dichiara di poter sbagliare,
gli esseri umani fanno finta di non saperlo,
e alla fine la responsabilità resta sempre un concetto molto umano… ma solo quando conviene.

Condividi

Potrebbero interessarti anche...