LaCulturaDelDato #205
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il duecentocinquesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Ecco i cinque spunti del duecentocinquesimo numero:
👃Investimenti in ambito dati e algoritmi. Costruire (con l’) AI è sempre più facile. Vincere (e ripagare i data center) forse molto meno
Due voci che ho letto recentemente hanno espresso, in maniera leggermente diversa, lo stesso dilemma che affligge il mondo degli investimenti in questo momento, quando si parla di intelligenza artificiale. Ben Evans, analista tech britannico già partner di Andreessen Horowitz e tra le voci più lucide sull’adozione reale delle tecnologie, nella sua ultima “grande presentazione” fa emergere, a mio parere, una domanda scomoda: “Stiamo investendo miliardi in data center per alimentare un’AI che la maggior parte delle persone sta ancora solo sperimentando, è il tutto sostenibile?”.
Dall’altra parte dell’Atlantico, la newsletter Data Driven VC di Andre Retterath, punto di riferimento quantitativo su trend venture capital, arriva alla stessa conclusione da un’angolazione opposta: “Quando costruire diventa facile, vincere diventa difficile”.
Evans documenta l’esplosione di investimenti in data center e chip AI (capacità triplicate in 18 mesi), ma i dati di adozione consumer ed enterprise raccontano un’altra storia: la maggior parte degli utenti ChatGPT è ferma alla sperimentazione occasionale, le aziende parlano di AI ma poche l’hanno integrata nei processi core. Il rischio non è solo che la corsa alle infrastrutture diventi una bolla sovradimensionata rispetto alla domanda reale, ma che una svolta tecnologica (modelli più efficienti, hardware specializzato) renda obsoleti investimenti miliardari prima che si ripaghino. In altre parole: stiamo finanziando aggressivamente l’offerta (compute, chip, data center), ma la domanda “vera” dipende da quante aziende riescono a trasformare workflow in prodotto.
E quando costruire quel prodotto diventa più facile, il problema si sposta su chi riesce davvero a vincere.
Ed è proprio qui che Data Driven VC introduce una distinzione cruciale: da una parte le iniziative hard to build (infra, foundation model, piattaforme full-stack) complesse, ad alta barriera tecnica, dominate da pochi player con capitali enormi. Dall’altra quelle easy to build (vertical AI, agenti specifici per use case), dove le barriere all’entrata sono crollate grazie a tool no-code/low-code, API e modelli pre-addestrati. Il paradosso è stridente: le prime restano difficili da costruire ma hanno adozione lenta, le seconde si costruiscono velocemente ma vincere richiede product-market fit strettissimo e capacità di execution brutale.
Per chi guida trasformazioni aziendali o alloca capitale, la lezione, a mio giudizio, è meno lineare di quanto sembri: il valore non si trova necessariamente nell’infrastruttura generale (dove vince chi ha più capitale e talento) né nella proliferazione di tool verticali (dove la competizione è feroce), ma in quella zona intermedia dove una soluzione specifica risolve un problema concreto meglio di chiunque altro: coding, customer support, analytics, automazione documentale. L’AI diventa strategica quando smette di essere “solo AI” e diventa soluzione invisibile, embedded nei flussi di lavoro quotidiani, ma arrivarci richiede scelte di posizionamento chirurgiche, non visioni generiche sull’intelligenza artificiale.
🖐️Tecnologia (data engineering). Il recap 2025 di Simon Willison: 27 lezioni sugli LLM da praticare, non solo leggere
Come dico e scrivo spesso non amo particolarmente i bilanci e i riassunti di fine anno. Non perché non creda nell’importanza di momenti di riflessione e analisi, ma perché sono convinto che dovrebbero essere distribuiti in modo più costante durante l’anno. Fatta questa premessa, devo fare un’eccezione per il recap 2025 di Simon Willison sugli LLM.
Per chi non lo conoscesse, Simon Willison è co-creatore di Django, ex-Google, e oggi uno dei pensatori più lucidi sull’AI: non si limita a commentare, costruisce. Nel 2025 ha creato 110 tool documentando ogni prompt, ha ulteriormente sviluppato LLM (libreria Python per usare i modelli da terminale), e mantiene un blog che è riferimento per chiunque voglia capire dove stiamo andando con l’AI. Unisce rigore tecnico, sperimentazione pratica e capacità di spiegare senza perdere profondità.
Il suo post analizza 27 trend chiave dell’anno, ognuno con link, esempi concreti e screenshot. Non è una lista: è una mappa navigabile. Puoi scorrere i titoli, fermarti dove sei curioso, saltare quello che conosci. È materiale da tenere aperto in un tab e consultare quando qualcuno ti parla di “reasoning models” o “coding agents”.
Tra i 27 punti, questi quattro mi hanno colpito di più:
The year of reasoning. I modelli di ragionamento (o1, DeepSeek R1) sono diventati di fatto lo standard per come utilizziamo gli LLM
The year of coding agents and Claude Code. Anthropic ha lanciato Claude Code a febbraio, innescando una corsa (Codex CLI, Gemini CLI, Mistral Vibe). Willison sottolinea la particolare rilevanza degli agenti asincroni: li lanci da telefono, lavorano in background, ti fanno una Pull Request. Lui stesso ha scritto più codice dal telefono che dal laptop nel 2025.
The year of Gemini. Google ha avuto un anno eccellente (Gemini 2.0, 2.5, 3.0) ma la vera arma è l’hardware proprietario: TPU invece di GPU NVIDIA. Vantaggio strutturale enorme sui costi.
The (only?) year of MCP Model Context Protocol è esploso ma Simon dubita duri: con coding agents puoi fare probabilmente tutto senza server MCP. Anthropic ha pivotato su Skills (Markdown + script) donando MCP alla Agentic AI Foundation. Forse che la semplicità batta la complessità?
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. Longevità lavorativa: oltre il mito della crescita infinita
Uno dei libri che ha più influenzato la mia crescita come manager e ha anche ispirato alcuni momenti e scelte della mia vita è stato “La Grande Differenza“ (il link è alla nuova edizione mentre quella che ho letto è quella del 2003) di Sebastiano Zanolli. Nel lontano 2003 il libro ha anticipato tutta una serie di concetti legati all’importanza della motivazione, della chiarezza di pensiero e, per certi versi, anche di responsabilità individuale come leve per affrontare i problemi e raggiungere i propri obiettivi nella vita, non solo lavorativa. Ho letto altri suoi libri, conosciuto @Sebastiano di persona e seguito diversi suoi interventi dal vivo. Non ho mai smesso di seguirlo perché lo ritengo una persona che unisce all’esperienza sul campo la capacità di anticipare futuri probabili, se non preferibili. Nella sezione di oggi ti parlo di uno dei miei temi più cari, la longevità, ma da una prospettiva diversa: non tanto scientifica e tecnologica, quindi niente HRV e VO2max 🙂, ma dal punto di vista della vita nelle organizzazioni. La vita lavorativa si sta allungando come naturale conseguenza dell’aumento degli anni di vita “fisica”. Stiamo però, soprattutto in Italia, considerando la vita lavorativa in azienda con la prospettiva e gli artefatti di 50 anni fa, ignorando i grandi cambiamenti in corso. Sono personalmente molto dubbioso, per fare un esempio concreto, che la traiettoria di stipendio, impegno e responsabilità debba essere una curva in continua crescita anziché una parabola con un vertice più vicino ai 50 che ai 60 anni.
Sebastiano Zanolli ha affrontato, recentemente, questo argomento in maniera decisamente più profonda e con esperti del settore, offrendo punti di vista interessanti supportati da dati ed esperienze, e fornendo ai diversamente giovani come il sottoscritto materiale su cui riflettere e lavorare. Ma i due approfondimenti che ti lascio sono utili anche per i più giovani, sia per guidare questi cambiamenti sia perché anche per loro arriverà il momento di essere al vertice della parabola. Nei due articoli che ti segnalo, Sebastiano esplora questa sfida da angolazioni complementari. Nel primo dialoga con Annie Coleman di Realise, che porta l’esperienza britannica su come le organizzazioni stanno ripensando il talento senior non come costo da gestire ma come risorsa strategica da valorizzare. Come scrive Sebastiano “Le parole di Annie Coleman ci ricordano come la longevità non sia un tema demografico, ma culturale. Riguarda il modo in cui scegliamo di collaborare, di restare curiosi, di continuare a contare. Quando le carriere si allungano e le generazioni si intrecciano, non basta parlare di “gestione dell’età”, serve imparare a lavorare insieme, a ogni età”
Il secondo entra nel concreto con strategie personali per restare rilevanti: dall’importanza di coltivare reti professionali diverse da quelle aziendali, alla necessità di sviluppare competenze trasversali che reggano i cicli tecnologici, fino al coraggio di accettare ruoli diversi, magari meno verticali ma più ricchi, nella seconda metà della carriera. Quello che mi colpisce di più è che entrambi i pezzi rifiutano sia il paternalismo sia l’illusione della giovinezza eterna. Propongono invece un patto generazionale nuovo, dove chi ha esperienza accetta di reinventarsi e chi è più giovane riconosce il valore di quella reinvenzione. E’ probabilmente l’unico modo per far funzionare organizzazioni complesse dove convivono un sempre più alto numero di generazioni diverse. Ti lascio con una domanda: se la tua carriera fosse una parabola e non una retta, come cambierebbe quello che stai costruendo oggi?
👀 Data Science. Dal CSV a Parquet e DuckDB: una guida che ti salva tempo
“Il formato CSV, con tutti i suoi difetti, è ancora uno dei formati più diffusi per lo scambio di dati. Ci sono modalità di gestire questi file ed eccezionali strumenti, che possono rendere molto semplice, efficace e rapido il loro utilizzo. Anche quando sono di grandi dimensioni.”
Questo è l’incipit del link più cliccato nell’edizione 83 di questa newsletter. Ce l’aveva segnalato nell’intervista Giuseppe Sollazzo e, a pari merito tra i più cliccati, c’era anche il link verso OnData: un’associazione che promuove l’apertura dei dati pubblici per renderli accessibili a tutte e tutti. Come si legge dalla home del loro sito, OnData è fatta di giornalisti, sviluppatori, funzionari pubblici, professionisti ma soprattutto attiviste e attivisti che vivono e operano in Italia e all’estero.
Cosa lega (scusa il gioco di parole) questi due link? Andrea Borruso: uno dei principali animatori di OnData, membro del consiglio direttivo, e anche autore dell’altro contenuto. E qui arrivo al punto: Andrea scrive chiaramente che non è un tutorial su “come lavorare con i CSV”. Penso anche che non sia il classico post da blog. Io la metterei così: è un lungo concentrato di cose utili che, se lette e messe in pratica, hanno fatto, fanno e faranno risparmiare ore a qualunque intelligenza che lavori con i dati. Sì, dico “intelligenza” perché, per mia esperienza, anche le intelligenze artificiali fanno parecchia confusione (e perdono un sacco di tempo, almeno sulla loro scala) quando devono leggere CSV. Proprio per questo, l’articolo non è invecchiato male: al contrario, è diventato ancora più utile. Come il buon vino.
E non si parla solo di CSV: c’è il tema di come renderli il più standard possibile (che da solo farebbe risparmiare molto tempo a chi li usa), di come compattarli (qui puoi trovare una masterclass sulle diverse tipologie di strumenti di compressione) e di come affiancarli ad altri strumenti ormai imprescindibili, come Parquet (di cui ti ho parlato l’ultima volta qui) e il sempre più utile DuckDB. Buona lettura e soprattutto buona archiviazione: perché è molto probabile che, in futuro, ti torni utile. 😉
👅Etica & regolamentazione & impatto sulla società. Quando i dati possono migliorare la salute: European Health Data Space e Open Data Directive: cosa promettono e cosa manca per farli funzionare realmente
“La buona salute è un obiettivo personale, ma anche il fondamento di una società resiliente. In tutta l’UE, i sistemi sanitari non si limitano a curare le malattie, ma mirano ad aiutare le persone a vivere più a lungo e meglio. Negli ultimi anni questo obiettivo ha acquisito slancio grazie a iniziative quali il piano europeo di lotta contro il cancro, l‘Unione europea della salute e lo spazio europeo dei dati sanitari, che promuovono una prevenzione più efficace, diagnosi precoci e un migliore accesso alle cure in tutti gli Stati membri. Ma mentre i sistemi sanitari europei devono affrontare nuove pressioni, vale la pena chiedersi: stiamo investendo le nostre risorse dove sono più necessarie? Come sono distribuiti gli investimenti tra cure preventive e curative? Quali sono le principali cause di morte prematura nell’UE e in che misura alcune di esse potrebbero essere prevenute attraverso cure tempestive o stili di vita più sani? Infine, perché alcune persone hanno ancora difficoltà ad accedere alle cure? Utilizzando dati aperti, questo articolo esplora tali questioni, offrendo spunti di riflessione su come un migliore allineamento tra spesa, esigenze e risultati potrebbe portare a miglioramenti duraturi.”
Questo è l’incipit di uno dei due approfondimenti che ti consiglio oggi, se vuoi capire, dati alla mano, cosa funziona e cosa no nella salute pubblica europea.
Chi vive in Europa beneficia (quasi sempre) di sistemi sanitari tra i migliori al mondo, ma non ce ne rendiamo sempre conto. E leggere qualche numero aiuta a rimettere a fuoco le priorità: per esempio, sapere che solo il 5,5% della spesa sanitaria finisce in prevenzione fa un po’ pensare (e sì: è un’area dove c’è margine per fare meglio). Ancora più interessante è il tema della mortalità “evitabile”: in UE, tra i decessi considerati evitabili, circa due terzi sono prevenibili con politiche e stili di vita migliori e il rimanente terzo trattabili con cure tempestive ed efficaci.
C’è poi un altro dato che resta “migliorabile”: il 3,8% delle persone nell’UE dichiara che negli ultimi 12 mesi non è riuscito a fare visite o trattamenti necessari. Però qui vale la pena guardare anche il bicchiere mezzo pieno: non solo la quota è relativamente contenuta, ma soprattutto questi dati esistono, sono comparabili e ti permettono di capire dove intervenire. E se sei italiano: per una volta, in questi indicatori, siamo messi meglio della media UE 🙂
Se invece vuoi capire più specificamente cosa sta facendo l’Europa sul fronte dei dati sanitari, nel secondo approfondimento si raccontano due iniziative interessanti.
La prima è l’European Health Data Space (EHDS): un regolamento pubblicato a marzo 2025 che, in sintesi, punta a far “viaggiare” i tuoi dati sanitari con te in tutta Europa (uso primario: cura) e a permetterne il riuso in forma protetta per ricerca e politiche pubbliche (uso secondario).
La seconda è la Open Data Directive (ODD), che dal 2019 spinge gli Stati membri a rendere disponibili dati sanitari aggregati (spesa, coperture vaccinali, performance ospedaliere, ecc.). L’idea è che, combinando dati protetti (EHDS) e dati aperti (ODD), si creino sinergie concrete: per esempio, un paziente italiano potrebbe usare dati aperti per individuare un ospedale austriaco con liste d’attesa più brevi e decidere di farsi operare lì. Oppure un ricercatore francese potrebbe incrociare dati ambientali (tipo l’inquinamento acustico) con prescrizioni di sonniferi per studiare l’impatto del rumore sul sonno ed è proprio il tipo di approccio del progetto Green Data for Health.
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!






Bell'articolone con tante cose interessanti. Io mi sono occupato per alcuni anni di age management nelle PMI del Veneto e in Europa, che non sono corporation gigantesche. Mah... alla fine non ne vogliono sapere, queto è. facciamocene una ragione. Ragionando da psicologo cambierei approccio: che cosa puoi cambiare in realtà? Principalmente stesso. Le persone che sono vicine al TOP delle loro carriere professionali dovrebbero orientarsi in modo autonomo alla fase calante. L'unico modo per non essere, progressivamente emarginati è esser proprietari di qualcosa. Se nessuno ti ha assunto nessuno ti licenzia. Mi sono convinto che questo cambiamento va preparato in anticipo e non è semplice, anzi. Devi cogliere i segnali deboli e capire che cosa puoi diventare. Il passaggio chiave non è "che cosa posso fare" ma "come diventare ciò che sono" È la rivincita della sapienza greca sul turbo liberismo. Non mi pare che questo approccio sia molto discusso, ma penso che lo sarà.
La prima parte del post mi preoccupa molto e farà sì che scoppi inevitabilmente la bolla dell' AI (che ovviamente continuerà il suo progresso comunque). Le aziende non stanno investendo, vuoi un contesto geopolitico non favorevole in questo momento, vuoi che cambiare approccio e trasformare i processi per integrarci'AI richiede alcuni passi 'faticosi' come un' architettura il più strutturata possibile (meglio se in Cloud), una struttura dati e una qualità del dato di un buon livello, documenti ecc...questo fa si che tanti manager invece di avviare un percorso di innovazione del processo e di una governance più strutturata preferiscono continuare come hanno sempre fatto (tanti andando avanti con l'intramontabile AS400)... però il tema che oggi viene vista come "l'AI " e non come un mezzo per innovare ed efficientare i processi è verissimo e credo che sia un grande bias che caratterizza la distanza che c'è sempre stata tra IT e Business...solo che questa distanza ormai è sempre più sottile, quasi tutto nelle aziende è digitale, quasi tutto si riconduce a un dato da trasformare in informazione, tutti vogliono essere data driven a parole ma il problema forse è che lato IT manca qualcuno che spieghi, con il linguaggio del business, come arrivarci