LaCulturaDelDato #193
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il centonovantatreesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Sto preparando il numero 200 de La Cultura del Dato e vorrei approfittarne anche per migliorare la newsletter insieme a te. Ho messo online una micro-survey (1 domanda obbligatoria, il resto se hai voglia): mi dedichi 90 secondi? Grazie!
Ecco i cinque spunti del centonovantatreesimo numero:
🖐️Tecnologia (data engineering). Dai Big Data alla GenAI: la (continua) sfida di Antonello Mantuano tra dati, contesto e fiducia
Presentati : Antonello Mantuano. Sono un ingegnere informatico da sempre appassionato di software, tecnologie e innovazione; dopo le prime esperienze lavorative come developer, ho incontrato sulla mia strada Cerved ed è stato amore a prima vista con il mondo dei dati e delle architetture per l’erogazione di servizi in real time. In Cerved ho attraversato molte stagioni, fino a guidare la tecnologia come Chief Technology Officer: ho vissuto in prima linea la “Big Data Revolution”, accompagnando l’azienda nella trasformazione dei dati da semplice risorsa a vero e proprio petrolio dell’era digitale. Ho anche guidato profonde trasformazioni tecnologiche e organizzative, introducendo già tra il 2010 e il 2015 database NoSQL in azienda e metodologie agili su larga scala, e più recentemente architetture di event streaming e reactive, insieme alla completa migrazione al cloud. Tutto con un obiettivo: costruire un ecosistema tecnologico capace di liberare il potenziale dei dati e trasformarli in valore reale. Oggi, dopo aver lasciato Cerved, mi sono lasciato trascinare dal desiderio di costruire qualcosa di nuovo: insieme ad alcuni amici abbiamo dato vita a DataBeez.ai, una startup innovativa che unisce la passione per i dati e la tecnologia per creare soluzioni basate sull’AI, e in particolare sulla GenAI, dedicate alla gestione, elaborazione, valorizzazione e fruizione dei dati e delle informazioni.
Il mio ruolo tra 10 anni sarà ... (continua la frase come fossi GPT-10) … e qui davvero c’è tanto bisogno di allucinazioni per poter definire quale sarà il mio ruolo fra così tanti anni, considerando la velocità di crescita della GenAI e tutto quello che sta rimettendo in discussione in soli 3 anni!!! Sicuramente mi piacerebbe che fosse un ruolo in cui io possa continuare a mixare innovazione tecnologica, capacità di problem solving e lavoro di team.
Quale è la sfida più importante che il mondo dei dati e algoritmi ha di fronte a sé oggi?
La sfida più grande, accelerata esponenzialmente dalla GenAI, è passata dalla raccolta dei dati (del decennio scorso) alla loro affidabilità. Per anni, in Cerved, ho lavorato su sistemi dove la qualità e la correttezza del dato erano vitali. Oggi, con la GenAI, il vecchio adagio ‘Garbage In, Garbage Out’ si è evoluto in ‘Garbage In, Plausible-sounding Nonsense Out’. La vera sfida oggi non è più tecnica, (ormai i modelli sono potentissimi), ma è di governance e fiducia. Come ci assicuriamo che questi algoritmi, sempre più “scatole nere”, basino le loro decisioni (o le loro risposte) su fatti verificati e dati di alta qualità? Come combattiamo le allucinazioni in contesti business-critical? Come trasformiamo i progetti AI in casi di successo negli ambiti complessi ed enterprise? La sfida, quindi, è costruire il “contesto informativo e architetturale” che permetta a questi algoritmi potentissimi di essere non solo creativi, ma anche affidabili, spiegabili e sicuri. Ed è una delle sfide che ci ha portato a creare DataBeez.ai. Può sembrare una battuta, ma quello che pensavamo essere uno dei nuovi lavori del futuro, il Prompt Engineer, sta lasciando il passo al “Context Engineer” che più che pensare alla domanda giusta da fare, dovrà progettare il contesto che guiderà l’LLM a dare una risposta affidabile.
Segnalaci il progetto o la risorsa nel mondo dei dati di cui non potresti fare a meno …
Ci sono sicuramente tante risorse nuove, affermatisi negli ultimi mesi, come HuggingFace, AiforWork, le varie funzioni di deep search di Perplexity e Gemini, senza contare Claude Code o Cursor. Ma alla fine viene fuori anche il mio lato nostalgico e ti rispondo senz’altro Wikipedia, lo strumento per antonomasia che ha cambiato il modo in cui l’umanità si è rapportata con la conoscenza, democratizzandone l’accesso. In questo nuovo universo in cui tutto è ancor più liquido, effimero, generato e forse allucinato, Wikipedia resta la voce autorevole a cui attingere per approfondire con affidabilità, concretezza e precisione tanti argomenti, tecnici e non.
👃Investimenti in ambito dati e algoritmi. Start-up del mese Ottobre 2025: Cyberwave
Anche il mese di ottobre è stato un buon mese per il funding a livello globale. Buono sia rispetto a settembre 2025 sia rispetto allo stesso mese del 2024. Anche il mio database personale segna: +30% nei valori rispetto al mese scorso e +20% nel numero di deal; le aziende data & AI raggiungono il 60% del totale. Ho forti dubbi che abbia ancora senso usare questa classificazione. Ma per ora resisto (a tenerla) 🙂.
La start-up del mese è quasi d’obbligo: Cyberwave, start-up italiana cofondata da un amico e ospite qui della nostra newsletter, Simone Di Somma. Con tutti i bias possibili, che ti cito in anticipo per trasparenza e che nascono dall’amicizia con Simone, penso davvero che Cyberwave sia una “scommessa” (come ogni start-up) con ottime prospettive.
Infatti, nel pieno della corsa globale a portare l’intelligenza artificiale fuori dagli schermi e dentro fabbriche, cantieri, magazzini e infrastrutture, Cyberwave prova a fare ordine dove da decenni regnano frammentazione e costi d’integrazione. L’8 ottobre 2025 ha annunciato un round seed da 7 milioni di euro guidato da United Ventures, con la partecipazione di The TechShop SGR, Vento (Exor), Pi Campus e business angel di primo piano. L’obiettivo: costruire lo “strato operativo” che collega agenti di AI e macchine reali, dai bracci robotici ai droni, dai sensori industriali ai sistemi di visione.
Cyberwave trasforma robot, sensori e macchine in gemelli digitali programmabili che gli sviluppatori possono simulare, controllare e orchestrare con poche righe di codice. Invece di inseguire le API proprietarie di ogni vendor o di appaltare ogni variazione ai system integrator, la piattaforma offre un’unica interfaccia per portare comportamenti intelligenti in produzione in modo sicuro e ripetibile. È un approccio “developer-first” che promette di accorciare drasticamente i tempi di sviluppo. La specificità sta in due idee semplici e potenti. Primo: un layer universale che parla “la lingua di tutto ciò che si muove, sente o agisce”, senza lock-in. Secondo: un catalogo di asset digitali, una sorta di marketplace a due lati, dove i produttori integrano i loro dispositivi una sola volta e gli sviluppatori li usano plug-and-play, componendo comportamenti riutilizzabili. Non a caso alcuni osservatori hanno definito Cyberwave “l’Hugging Face della robotica”: un luogo dove trovare, provare e distribuire rapidamente capacità pronte per il mondo fisico.
La storia dei founder aiuta a capire l’ambizione. Simone Di Somma ha fondato Askdata, startup di search-driven analytics entrata nella famiglia SAP nel 2022; Vittorio Banfi è l’imprenditore dietro Botsociety (ex Google), piattaforma di design conversazionale con clienti enterprise. Due percorsi diversi, stesso pallino: dare superpoteri ai builder e portare prototipi in produzione. Il team opera da Milano, con una presenza a Zurigo e San Francisco.
Se ce la faranno, come sempre, ce lo dirà il tempo, ma le condizioni per fare bene ci sono tutte!
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. Pensare per sistemi, non per disciplina: la ricetta di Khozin per il 21° secolo
Sean Khozin, medico oncologo, esperto di AI/ML e affiliato al MIT Laboratory for Financial Engineering, propone una tesi provocatoria: le discipline accademiche tradizionali sono variazioni di temi matematici comuni, e stiamo vivendo una “grande convergenza” guidata dall’intelligenza artificiale che dissolve i confini tra le discipline.
Ti confesso che ho letto più di due volte questo articolo, che ti propongo come approfondimento in questa sezione della newsletter, perché alcuni passaggi toccano riflessioni che mi accompagnano da oltre dieci anni. Magari senza la stessa profondità intellettuale, ma alcune conclusioni mi erano familiari. Sono forti, probabilmente anche eccessive, ma meritano di essere lette e meditate 🧠.
Secondo Khozin, il 20° secolo ha prodotto lo specialista: qualcuno che sa sempre di più su sempre meno. Il 21° secolo, invece, richiede lo stratega di sistemi: qualcuno capace di cogliere pattern matematici profondi, connettere domini apparentemente distanti e progettare interventi efficaci in sistemi multipli e simultanei. Quello che chiamiamo “discipline” sono, in realtà, manifestazioni superficiali di strutture matematiche condivise. Oncologia, finanza e AI, apparentemente mondi lontani, convergono attorno a un substrato comune: il bisogno di ragionare e prendere decisioni in condizioni di incertezza.
I quattro elementi fondamentali che, secondo Khozin, unificano le discipline sono:
Inferenza probabilistica: aggiornare credenze sulla base di osservazioni incomplete (approccio bayesiano)
Ragionamento causale: distinguere correlazione e causalità per progettare interventi efficaci
Decisione sotto vincoli: ottimizzare in presenza di risorse limitate, tempo ed etica
Apprendimento adattivo: modificare le strategie in base al feedback ricevuto
Le implicazioni sono strutturali.
Organizzazioni: vanno progettate attorno a problemi-sistema, non a funzioni disciplinari
Individui: devono sviluppare padronanza nei “primitivi” che generalizzano, non solo nei toolkit specifici
Università: dovrebbero strutturarsi attorno a metodi fondamentali (probabilità, ottimizzazione, teoria dei sistemi), non a dipartimenti storici
Per Khozin, i problemi più importanti del nostro tempo sono intrinsecamente cross-sistemici. L’era della sovranità disciplinare sta finendo; è iniziata quella del pensiero sistemico. Sono francamente d’accordo con la visione finale sull’importanza della progettazione sistemica e del focalizzarsi sui problemi. Ma non sono del tutto convinto che potremo davvero fare a meno della conoscenza e dell’esperienza di domini, soprattutto quando parliamo dei quattro elementi fondamentali, ragionamento causale in primis.
Forse sono ancora troppo radicato nella cultura del XX secolo 😅
👀 Data Science. Come (non) fare una dashboard: consigli pratici, errori comuni e trucchetti da evitare
“Se chiedessi a 10 persone che costruiscono dashboard e a 10 persone che le usano di definire il termine dashboard, probabilmente otterresti 20 definizioni diverse. Ecco come abbiamo definito il termine nel libro The Big Book of Dashboards, e continueremo a fare riferimento a questa definizione: Una dashboard è una rappresentazione visiva dei dati utilizzata per monitorare le condizioni e/o facilitare la comprensione.”
Questo è l’inizio di un libro di cui ho letto solo (per ora) alcuni capitoli, quelli liberamente scaricabili, ma che mi ha colpito per completezza e chiarezza espositiva. È ricco di esempi e progetti tratti dal mondo reale. Il tema delle dashboard, della loro realizzazione e del loro utilizzo all’interno delle organizzazioni è un problema vecchio quasi quanto le organizzazioni stesse. Un problema ancora decisamente irrisolto nella sua interezza, ma in cui, accanto ai tanti casi di insuccesso, non mancano esempi virtuosi. Ed è proprio da questi che parte il libro Dashboards that deliver. Non avevo molti dubbi sulla qualità del progetto, visto che arriva dalla community di Storytelling with Data. Ma l’impostazione è particolarmente interessante perché collega molto bene le buone pratiche nella creazione di dashboard ai problemi reali che si vivono in azienda.
E visto che il tema di oggi, in questa parte della newsletter, è legato a come visualizzare (bene) i dati, ti segnalo altri due contributi davvero ben fatti su questo argomento:
📌 Donata Columbro non ha bisogno di presentazioni: è già stata nostra ospite qui e sta facendo un lavoro preziosissimo di divulgazione in Italia, verso diverse audience, sempre guidata da un forte spirito pratico ed etico. In questo pezzo sintetizza al massimo la sua esperienza, condividendo i 10 errori più frequenti che commettono, nei progetti di dataviz, i suoi studenti. E, secondo me, non solo loro. Da leggere e rileggere.
📌 FlowingData, un altro progetto molto figo a tema dataviz, in questo articolo (molto interattivo) dal titolo esplicito Defense Against Dishonest Charts, ci insegna a riconoscere i trucchi della “cattiva dataviz” da cui dobbiamo difenderci. O, quantomeno, evitare di commetterli 😉
👅Etica & regolamentazione & impatto sulla società. AI Act: 2 agosto, 2 agosto, 2 agosto. Cosa scatta nel 2025, 2026 e 2027 tra divieti, GPAI e alto rischio
Periodicamente uso questa sezione della newsletter per aggiornarti e aggiornarmi sulle normative o sui tentativi di normare l’evoluzione dell’AI in giro per il mondo. Ti confesso che il tema non mi appassiona più di tanto: fuori dall’Europa lo trovo spesso demagogico, mentre nel nostro continente è eccessivamente formale e burocratico. Ma ne riconosco l’importanza e cerco di coglierne il valore nel medio e lungo periodo, come è stato per quasi tutte le norme in ambiti legati alla tecnologia e all’innovazione.
Provo a questo proposito a farti un elenco delle principali date presenti e passate dell’AI Act che sia un po’ più dettagliato sul nostro Paese rispetto a quella più generale che puoi trovare sul sito dell’Unione europea. Per ciascun passaggio ti segnalo anche gli approfondimenti che ho trovato più interessanti negli ultimi mesi:
12 lug 2024: l’AI Act viene pubblicato in Gazzetta ufficiale dell’Unione europea. Questo è il sito migliore per averlo sott’occhio ed esplorarlo nelle sue varie forme. Se riesci a superare la diffidenza tipica di quasi tutti i data-lover verso gli aspetti legali, puoi apprezzarne la navigabilità e l’accessibilità nonostante la complessità della materia.
1 ago 2024: l’AI Act entra in vigore.
2 feb 2025: iniziano a valere i divieti (pratiche proibite come il social scoring di Stato, alcuni usi di identificazione biometrica in tempo reale, ecc.).
10–18 lug 2025: vengono pubblicati il Codice di condotta per i modelli GPAI (General Purpose AI, come ChatGPT e Claude) e le Linee guida della Commissione europea per i provider di GPAI. Qui trovi la comunicazione con i link a tutti i dettagli operativi.
2 ago 2025: iniziano ad applicarsi le regole per i modelli di AI di uso generale (GPAI); gli Stati membri devono avere la governance nazionale in piedi (autorità competenti, legge sanzionatoria) e a livello UE si insediano AI Office/AI Board/Scientific Panel.
10 ott 2025: con la Legge 23 settembre 2025, n. 132 (in vigore dal 10 ottobre 2025) l’Italia mette a terra la governance nazionale:
ACN (Agenzia per la Cybersicurezza Nazionale) è autorità di vigilanza del mercato e punto di contatto unico ai fini AI Act;
AgID è autorità di notifica (designa/monitora gli organismi di valutazione della conformità) e co-gestisce con ACN i sandbox regolatori;
è definito il coordinamento con Banca d’Italia, CONSOB, IVASS per i settori vigilati.
2 ago 2026: entreranno in applicazione la maggior parte delle regole: partono gli obblighi per gli ambiti ad alto rischio (Annex III dell’AI Act), le trasparenze Art. 50, le misure pro-innovazione e ogni Stato membro deve avere almeno uns sandbox regolatorio operativa. Per i GPAI la Commissione acquisisce anche poteri di vigilanza ed enforcement (fino a sanzioni). Questo è il momento in cui l’AI Act impatta la maggior parte delle organizzazioni in UE.
2 ago 2027: due novità chiave:
le regole per gli alto rischio diventano applicabili anche per i sistemi AI incorporati in prodotti regolati (es. ambiti coperti dalla normativa di sicurezza prodotto);
i modelli GPAI già sul mercato prima del 2 ago 2025 devono essere pienamente conformi (scade il periodo transitorio per i “modelli esistenti”).
Ci sono naturalmente altre date importanti prima e dopo il 2 ago 2027 che puoi vedere nella dettagliata roadmap di implementazione che ti ho già condiviso. Aggiungo che, se vuoi leggere in dettaglio un punto di vista di un esperto del settore dopo la deadline di agosto 2025, questo di Ernesto Belisario è molto completo e ben strutturato.
Per chiudere ti riporto il parere di Alberto Puliafito, scritto nella sua bellissima newsletter di Internazionale, che fotografa, secondo me, dove siamo concretamente con l’AI Act, soprattutto in relazione ai GPAI:
“Nelle pieghe di queste imposizioni ci sono tutte le ambiguità del caso: la trasparenza richiesta non è completa: i produttori non sono tenuti a rendere semplicemente pubblico l’intero dataset di addestramento, né si chiede visibilità totale sul funzionamento del modello. Anche l’individuazione di eventuali contenuti protetti è un grosso punto interrogativo. Tra le righe di queste ambiguità si possono leggere, verosimilmente, tutti i compromessi che hanno portato alla stesura del regolamento e che non dovevano scontentare troppo le grandi aziende statunitensi pur mantenendo ferma la volontà regolatoria delle istituzioni europee.”
PS: Se non l’hai ancora fatto e ti va di darmi una mano a migliorare la newsletter e costruire il numero 200, trovi la micro-survey qui: mi dedichi 90 secondi? Grazie!
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!

