LaCulturaDelDato #200
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao!
sono Stefano Gatti e questo è il duecentesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. La duecentesima puntata è un’edizione speciale perché, come ti avevo condiviso (e l’idea ha riscosso l’approvazione del 70% di chi ha espresso un parere nella survey), sarà diversa da tutte le altre e divisa in tre parti:
👅 Nella prima parte, AMA (Ask Me Anything), risponderò a una serie di domande dopo una breve ri-presentazione per chi non mi conosce o legge la newsletter da poco tempo. Per selezionare le domande mi sono fatto aiutare da ChatGPT 5.2 Thinking: gli ho dato tutte le domande che mi avete fatto più spesso negli ultimi due anni, più quelle che mi avete scritto nella survey, e alla fine le abbiamo divise in tre blocchi a seconda dei contenuti. A questo punto ne ho scelte 12, tra quelle che ho ritenuto più importanti, e ho risposto senza usare ChatGPT 🙂.
Se non trovi la domanda che mi hai fatto, non disperare 🙂, e cerca di arrivare fino in fondo a questa newsletter …
🖐️ Nella seconda parte, una sorta di HOW-TO show, ti racconterò come realizzo questa newsletter e soprattutto come uso dati e intelligenza generativa nel realizzarla. Questa sezione è anche un aggiornamento su come è cambiata dal numero zero al numero cento, e ora al numero duecento.
👥 La terza parte invece è dedicata a voi, community di lettori fedelissimi. È una sintesi di come è formata la community, o di come ho percepito che sia formata. Ho cercato di rendere questa analisi la meno soggettiva possibile, usando il più possibile dati dalle survey e qualunque informazione che, nel corso del tempo, mi avete dato.
Cominciamo…
👅 AMA (Ask Me Anything)
Ripresentati
Stefano Gatti. Il mio primo lavoro non è stato in una grande corporate, ma in Salvas Sub: stampaggio di materie plastiche per la subacquea. Ero responsabile dei test e del laboratorio, oltre che della qualità. Lì ho preso confidenza con l’idea che “funziona” è una parola che va dimostrata.
Poi sono arrivato in Pirelli, in Qualità e Organizzazione: cioè in un posto dove capisci presto che il mondo reale non fa sconti e che i “sistemi perfetti” esistono soprattutto nelle slide. Da lì mi sono spostato nel mondo dei servizi, inseguendo una fissazione: usare tecnologia e dati per prendere decisioni migliori.
In Cerved, come Head of Innovation & Data Sources, ho fatto un po’ di tutto: costruire team di data expert (compresi i primi team di data scientist), far crescere progetti big data e tenere il radar acceso verso l’esterno con open innovation, startup e investimenti in area tech & data.
Oggi sono in Nexi come Head of Data & Analytics: mi occupo di far sì che i dati entrino nelle scelte di business e nei prodotti e, soprattutto, di far crescere e proteggere tutti i ruoli che iniziano con “Data…”, perché senza persone, responsabilità e processi anche il modello più brillante resta una demo che esiste solo su PowerPoint.
Nel frattempo insegno anche all’Università Cattolica di Milano, faccio advisory per alcune organizzazioni e startup, e ho scritto tre libri su dati e intelligenza artificiale. Continuo a studiare, sperimentare e farmi domande, spesso in pubblico.
Scrivo per cercare di capire meglio il mondo e, nel mio piccolo, aiutare anche gli altri a farlo.
Foto: courtesy of federica scarrione
Dati, AI, scenari e “cosa sta succedendo davvero”
❓ Cosa è cambiato nel mondo dei dati e dell’AI negli ultimi 12 mesi e negli ultimi 5 anni?
Negli ultimi 5 anni molto più di quanto mi sarei aspettato 6 anni fa. Negli ultimi 12 mesi molto meno di quanto mi sarei aspettato 18 mesi fa.
Penso che la storia dell’AI non striscia ma salta. E i due eventi recenti più importanti che l’hanno fatta “saltare” siano stati: a novembre 2022 l’uscita di ChatGPT e a settembre 2024 (o1-preview) l’arrivo dei reasoning model.
Per quanto riguarda i dati, la storia negli ultimi 5 anni ha più “strisciato”, nel senso che sempre più persone, in maniera graduale, hanno preso coscienza dell’importanza dei dati anche per far funzionare in maniera positiva l’AI. E l’ultimo meme, lanciato da Andrej Karpathy, del context engineering ne è la concreta testimonianza.
❓ Che ne pensi dell’AI open source, e dove la vedi forte o debole rispetto ai modelli chiusi?
Penso che sia uno stream di valore enorme, ma che abbia bisogno ancora di un po’ di tempo per esprimersi in modo davvero “concreto”. L’unico dubbio è che, come ho scritto più volte, il concetto di open source, per gli LLM, è molto più complesso dello stesso concetto applicato al mondo del software. E quindi dobbiamo essere ancora più pazienti e contribuire ad esso in maniera ancora più caparbia.
❓ In quali settori o attività l’AI farà la differenza nel breve, e in che modo concreto?
I tre ambiti dove penso che l’AI stia facendo (e farà sempre più) la differenza sono questi:
il mondo dello sviluppo software, sull’intero ciclo di vita, trasformando (non sostituendo) i ruoli delle intelligenze umane in questo settore.
il mondo dell’apprendimento, trasformandolo più lentamente e in maniera più opaca rispetto a quello che sarebbe necessario e giusto, soprattutto per i più giovani.
la produttività personale o meglio: come, a livello individuale, realizziamo quasi ogni attività a contenuto intellettuale.
❓ Quando scoppierà la “bolla AI”, e cosa resterebbe se scoppiasse davvero?
Nessuno lo sa, perché l’economia oggi è un sistema troppo complesso per fare previsioni con un buon livello di confidenza. Non sono convinto che, se scoppierà, lo farà allo stesso modo della bolla internet, perché è un fenomeno, quello dell’AI, profondamente diverso. Credo che se succederà avrà un impatto bassissimo a livello consumer, probabilmente qualche impatto maggiore nei servizi verso le aziende e soprattutto sul sistema economico nella sua globalità e probabilmente anche su tematiche geopolitiche.
Dati e AI in azienda: progetti, responsabilità, organizzazione
❓ Quale assetto organizzativo funziona meglio per l’AI & Data “enterprise” (architettura, data science, prodotto, governance)?
Non esiste, a mio modo di vedere, un assetto organizzativo migliore degli altri valido per qualunque tipo di organizzazione e livello di maturità. Detto questo, per la mia conoscenza delle organizzazioni (almeno nel mondo occidentale), vedo nel modello Hub & Spoke quello che consente il miglior bilanciamento per la maggioranza delle aziende, soprattutto per quelle medio-grandi. Questo perché il team centrale (l’hub) garantisce: definizione della strategia tecnologica, economie di scala e massa critica per realizzare progetti di grandi dimensioni che toccano grandi parti dell’azienda. Gli spoke (i team dati nelle unità più operative delle organizzazioni), più a contatto con i clienti e con la parte commerciale, riescono a essere efficaci sui progetti più legati ai prodotti e ai clienti stessi. Come ogni modello che richiede equilibrio fra parti dell’organizzazione, non è semplice da attuare e soprattutto richiede continui adattamenti: dal punto di vista “fisico” è un equilibrio instabile.
❓ AI e responsabilità: chi risponde quando un output AI finisce in un processo aziendale (e fa danni o crea valore)?
Questo è un tema centrale ed è, come l’adozione non ancora su larga scala della guida autonoma ci insegna, uno dei punti chiave della lenta adozione dell’AI nelle organizzazioni, soprattutto quella AI che si definisce agentica. La responsabilità di quello che fa l’AI è e sarà centrale nella sua adozione futura. A rispondere non può che essere la persona che è (e sarà) l’owner del processo. E questa presa di responsabilità non è semplice, proprio perché l’uomo fatica ad avere fiducia in quello che non capisce e non conosce bene. Poi nasceranno, e in parte stanno già nascendo, anche sistemi che assicureranno certi tipi di danni, ma sono meccanismi molto complicati da costruire.
❓ Come implementare progetti AI: agile, waterfall, ibrido… e quando ogni modello fallisce?
Il mio cuore, e la mia esperienza diretta, battono per i modelli agili e per la preferenza per MVP (minimum viable product ovvero piccolo parte del progetto funzionante in produzione nelle normali condizioni di uso) rispetto a POC (proof of concept ovvero progetto test eseguito non nelle normali condizioni di uso, spesso in un ambiente di laboratorio o equivalente), soprattutto quando si parla di dati e AI. Sono anche conscio che i progetti agili, storicamente, non hanno sempre fornito grandi risultati quando il progetto è di grandi dimensioni, coinvolge molti team e le dimensioni dell’azienda aumentano. Credo che vada sempre fatto un tentativo per rendere il più piccolo possibile ogni progetto: spezzarlo in fasi, diminuire il rischio di fallimento e, nel caso, accelerare il fallimento, così da riuscire ad applicare più agevolmente pratiche agili.
❓ Come democratizzare la lettura dei dati in azienda con un pubblico eterogeneo (senza fare solo “dashboardoterapia”)?
Mi verrebbe una risposta semplice: è quello che ho cercato di fare e studiare negli ultimi 10 anni. Serve cultura del dato. Il rischio è che “cultura” diventi un concetto astratto, anche se nella definizione che preferisco è molto concreta. Provo a dire tre cose che mi sono servite per provare a democratizzare questa lettura:
una descrizione semantica accessibile a tutti dei dati oggetto della democratizzazione, scritta in maniera semplice e non troppo tecnica.
uno strumento con cui fare lettura/esplorazione dei dati semplice e senza barriere alla distribuzione (per esempio costi eccessivi e legati alle utenze).
una conoscenza statistica di base (non concetti complessi), che si può raggiungere con micro-corsi di due ore al massimo.
Ci sarebbero altre cose, ma la newsletter non è un libro 🙂
Carriere, studio, scelte personali
❓ Università: Come dovrebbe evolvere? E’ ancora rilevante?
Sì, se saprà preferire:
il lavoro in team piuttosto che quello individuale
le competenze piuttosto che le conoscenze
i progetti e il problem solving piuttosto che lo studio enciclopedico
l’insegnamento di come usare al meglio le intelligenze artificiali nel proprio dominio
Se resta solo un posto dove ascolti e prendi appunti, perde. Se diventa un posto dove fai, sbagli, collabori e usi strumenti moderni, torna centrale.
❓ Cosa suggerire ai figli che stanno decidendo ora il percorso di studi
Sarebbe troppo semplice, o meglio semplicistico, dire “fate quello di cui siete più appassionati”. Anche se è importante che l’oggetto del proprio percorso di studi piaccia.
Io mi sentirei (anzi, l’ho fatto e lo continuo a fare con i miei figli) di consigliare:
un percorso di studi più generalista che iper-specialistico
l’inserimento, nel percorso di studi, di conoscenze di base di tipo economico
di perseguire anche side project durante il proprio percorso, anche a scapito della velocità del percorso di studi primario
di curare il network di intelligenze umane fin dal percorso di studi
di alternare percorsi di apprendimento in presenza a quelli digitali
di allenarsi a cambiare idea che nella modernità non non è un fallimento, è una competenza.
❓ Carriere nel mondo dati nei prossimi anni, al netto della bolla AI
La bolla AI, se ci sarà, toccherà pochissimo le carriere nel mondo dei dati. Prevedo anzi ancora più centralità per chi ha reali competenze e conoscenze nel mondo dei dati. Tutto questo a patto che si cerchi di rafforzare due caratteristiche del proprio ruolo:
usare tool AI che aumentino il proprio lavoro con i dati e la capacità di facilitare altre persone a farlo nella propria organizzazione
aumentare la comprensione di quello che i dati rappresentano: una foto del mondo e, nel caso delle aziende, quindi di prodotti, servizi, clienti e processi aziendali. In altre parole: aumentare la comprensione di quello che i dati raccontano e del loro impatto sul mondo stesso
Non basta più saper interrogare i dati. Bisogna saperli interpretare.
❓ Cosa fa un manager del mondo dati in una corporate, nella settimana “vera”
Budget, People, Meeting. Budget, People, Meeting. Budget, People, Meeting. Budget, People, Meeting. Budget, People, Meeting. Budget, People, Meeting. Budget, People, Meeting. 🙂
E di notte e nei week-end: leggere, scrivere qualche riga di codice e… scrivere in linguaggio naturale..
E periodicamente: scelte strategiche.
🖐️ HOW-TO show
Come scrivevo nella puntata 100, non è facile raccontare in un breve paragrafo come scrivo, ogni settimana da ormai quattro anni, una newsletter. Questa volta provo a raccontarlo per fasi, pur con la limitazione dovuta al fatto che non è un processo completamente sequenziale. So che i modelli e le sequenze, pur non essendo rappresentativi al 100% della realtà, aiutano la comprensione e la comunicazione tra intelligenze umane (e anche con quelle artificiali).
Ecco i 6 passaggi chiave del processo:
A – Selezione delle fonti
B – Selezione dei contenuti di ciascuna sezione della specifica newsletter
C – Processo di definizione delle singole puntate
D – Esplorazione, scrittura e revisione della singola sezione
E – Processo di revisione della puntata
F – Diffusione dei contenuti e gestione della community
Per ciascuna fase proverò anche a descriverla e raccontare com’è cambiato il modo di realizzarla dalla puntata 1 alla 100, fino alla 200, e anche gli strumenti che uso.
A - Selezione delle fonti
Innanzitutto non ho un vero database di fonti da cui leggo newsletter o articoli. Ho solo uno strumento che uso come to-read list ed è molto boomer: la mail. Uso la mail perché la fonte principale delle cose da leggere sono gli abbonamenti (gratuiti e a pagamento) alle newsletter, oppure le segnalazioni di letture dai lettori o da amici e conoscenti. Quindi è il luogo più naturale, per me, per aggregare tutte le fonti. Se poi mi arriva qualcosa da qualche altro canale (WhatsApp, Telegram o LinkedIn sono i più probabili) preferisco leggere subito o generare una mail che si accoda alla inbox.
La seconda regola che uso, collegata alla prima, è una rigorosa inbox zero, a cui tendo ogni mese. Ho dei livelli di allerta (30 mail da leggere e/o su cui fare un’azione è la media, 60 la prima soglia da non superare, 100 superabile solo in periodo di vacanza) a cui corrisponde del tempo da dedicare soprattutto nel weekend o la sera.
Per quanto riguarda le fonti, che sono un mix di persone e argomenti che mi interessano, le ho divise in 4 gruppi principali:
1) Di persone di cui leggo sempre ogni post o sento ogni intervento pubblico, anche se lungo. In questo caso non uso mai nessuna intelligenza artificiale per alcun tipo di sintesi: al massimo per approfondimenti, se necessario. In questo cluster, per farti un esempio, ci sono i “magnifici quattro” che abbiamo consigliato con Alberto nell’ultimo libro che abbiamo scritto: Andrej Karpathy, Cassie Kozyrkov, Ethan Mollick e Andrew Ng. Ce n’è un’altra decina come questi, ma tendenzialmente scrivono meno frequentemente rispetto ai “magnifici”.
2) Di argomenti che mi interessano molto e che sono scritti da fonti (persone o organizzazioni) che reputo autorevoli. Anche in questo caso leggo i contenuti senza alcun ausilio di intelligenze esterne alla mia. Esempi concreti: State of AI di Nathan Benaich, oppure Peter Attia che analizza nuovi studi di farmaci su malattie ad alto impatto sociale. Ma ci sono decine di accoppiate (argomento/fonte) a cui dedico la mia attenzione totale, anche in questo caso senza alcuna AI.
3) Di letture su argomenti che non sono in alta priorità (per me e per la community) o che arrivano da fonti che non conosco, o che non hanno un’autorevolezza massima. In questo caso uso tipicamente Claude.ai (Sonnet 4.5) per risparmiare tempo, chiedendogli quattro cose: il concetto più originale nell’articolo, una sintesi, punti potenzialmente critici dell’esposizione e punti di approfondimento. Se è un argomento che voglio approfondire in maniera specifica uso una delle poche chiamate a ChatGPT Pro che il mio contratto attuale mi consente al mese.
4) Di tematiche che reputo di estrema innovazione per il futuro del mondo, a prescindere dai miei interessi specifici. In questo caso uso, a seconda delle tematiche, ChatGPT 5.2 Thinking o Gemini 3.0 e chiedo tre cose: spiegarmi in maniera semplice il contesto, farmi una sintesi dell’articolo e fornirmi altro materiale su questa tematica. In questo cluster possono andare temi molto tecnici e futuristici come il continuous learning nelle reti neurali o punti di vista economico-sociali sul problema del calo demografico nei prossimi 100 anni.
Esistono poi tante altre letture/approfondimenti che faccio e che non entrano nei 4 cluster (libri / video / podcast / paper), ma su questi non uso approcci specifici, se non approfondire con Google o con una delle tre famiglie di LLM (ChatGPT, Gemini, Claude) quando ne ho necessità.
B - Selezione dei contenuti di ciascuna sezione della specifica newsletter
Quando la lettura di un contributo ritengo sia degna di essere condiviso nella newsletter, lo aggiungo in un foglio di lavoro Google.
È un foglio in cui ho raggruppato, normalmente per le successive 16 settimane, le tematiche da affrontare, suddivise nelle 5 sezioni della newsletter: di fatto ho un rolling di circa 80 tematiche attive, incluse le puntate ricorrenti tipo intervista e start-up del mese.
Quando inserisco un nuovo approfondimento:
se vedo che la tematica è già coperta, lo aggrego a una puntata esistente;
altrimenti creo una nuova sezione in coda.
C - Processo di definizione delle singole puntate
Creo due episodi della newsletter alla volta. È la dimensione che trovo più comoda, anche per gestire le sezioni ricorrenti (per esempio: l’intervista è presente una volta ogni due puntate). Per ogni puntata inizializzo un foglio di lavoro Google (non scrivo direttamente su Substack) e rivedo tematiche e contenuti scelti per ciascuna sezione. Capita spesso che alcuni approfondimenti non li ritenga più all’altezza, oppure che inserisca, rispetto alla tematica specifica, nuovi approfondimenti che mi sono arrivati o che avevo già in mente.
A questo punto lavoro sui 10 contenuti (due newsletter × cinque sezioni) in maniera separata nei successivi 14 giorni.
Ho quindi un backlog di 10 sezioni da scrivere, e ogni giorno scelgo su cosa lavorare in base all’inclinazione, all’umore e a volte anche in base a quello che faccio al lavoro durante il giorno. È molto efficace, per me, concedermi questa libertà: scelgo l’argomento su cui riflettere, e lo faccio nei modi e nei tempi che la mia mente preferisce.
Sul tema del giorno rifletto e ragiono diverse volte nella giornata, in modi e tempi veramente casuali, soprattutto nello slot che dedico giornalmente all’attività fisica.
D - Esplorazione e scrittura della singola sezione
Anche qui ci sono 4 macro-cluster di situazioni:
Conosco molto bene l’argomento e ho un’opinione abbastanza specifica sull’approfondimento che presento. È il caso più semplice: scrivo la sezione in meno di 10 minuti, senza l’aiuto di qualunque AI, perché di fatto l’ho già scritta nella mia mente ed è quasi un processo di “sbobinatura per punti”.
È un argomento che conosco, ma su cui non ho un’esperienza personale forte. Mi faccio aiutare dall’AI ad approfondire il contesto e mi faccio suggerire le persone che condividono più conoscenza su quel tema. Tipicamente, per questo uso ChatGPT 5.2 Thinking. Poi scrivo un template della sezione (argomenti e struttura) e mi faccio fare una bozza da Claude.ai, usando una skill che ho raffinato negli ultimi mesi. Lavoro sulla bozza finché sono soddisfatto. Processo tipicamente più lungo del precedente: circa 20–30 minuti per sezione.
È una tecnologia o un progetto che ho provato (magari anche in un piccolo progetto personale) e che voglio raccontare alla community. In questo caso uso più frequentemente Gemini 3.0, con un gem raffinato nel tempo, per farmi aiutare ad arricchire la mia esperienza e anche a fare challenge alle mie convinzioni. Qui il tempo medio di scrittura della sezione va dai 15 ai 20 minuti.
Sezioni speciali: intervista, start-up of the month, back to (sezione che riprende l’approfondimento più cliccato,secondo le statistiche Substack, di una newsletter di 3 prima). Queste le faccio su template standard o usando un ChatGPT personalizzato (per esempio per il database di start-up) che ho “allenato” nel corso del tempo.
Ovviamente ci sono situazioni a cavallo di questi quattro cluster, in cui uso approcci misti. Come passaggio finale, in tutti e quattro le casistiche, faccio correggere a un ChaGTPs, opportunamente addestrato, per evitare errori di scrittura o avere suggerimenti di miglioramenti sintattici
E - Processo di revisione della puntata
Quando sono finite le 5 sezioni e ho quindi tutta la puntata in draft , mi prendo circa 15 minuti di rilettura sequenziale della newsletter. Questa è la fase a maggior valore aggiunto per la leggibilità del tutto, perché tipicamente faccio due operazioni fondamentali:
Elimino alcune parti, tipicamente alcune frasi o parti di esse. Questo perché sia io (e me lo avete fatto notare: grazie!) sia le AI generative siamo molto verbosi 🙂. Faccio cioè decluttering.
Aggiungo link per aumentare la leggibilità per chi non conosce l’argomento, oppure elimino alcune parti e le sostituisco con link per chi, al contrario, vuole approfondire ulteriormente oltre la sezione.
F - Diffusione dei contenuti e gestione della community
Il venerdì sera prima dell’uscita (il sabato mattina alle 7:29) rileggo ulteriormente la puntata con un triplice scopo:
Decluttering residuale: non mi capita di frequente, ma cerco di applicare ancora la regola “less is more”.
Aggiornamento last minute: visto che la puntata la chiudo da 2 a 4 settimane prima, posso aggiungere o modificare contenuti nel caso sia cambiato qualcosa nell’ambito di cui parlo (e non è così raro in questi ultimi frenetici anni della tecnologia).
Scrivo 4 post di lancio, sulla base dei contenuti, che coprono tutti e cinque gli argomenti trattati: due script sono più lunghi e li adatto per il lancio del sabato e della domenica mattina su LinkedIn, Facebook e Substack; gli altri due sono più brevi e li pubblico negli stessi giorni su X, Threads e Bluesky.
Il sabato posto anche su Instagram l’immagine di copertina della newsletter. Instagram, piattaforma che non frequento molto e dove ho praticamente zero follower, la uso (e se vuoi puoi farlo anche tu) come indice di tutte le puntate. E l’effetto che alterna persone e argomenti mi piace e mi è utile, a volte, come sistema visuale di “search”.
Resta tutta la parte di community, che è stato sicuramente il valore più importante di questi 4 anni di scrittura della newsletter. Grazie alle interazioni che ho con molti di voi, soprattutto via mail, ho conosciuto o approfondito la conoscenza con tantissimi professionisti di diversi settori che non avrei sicuramente raggiunto. Ho avuto modo di fare tante discussioni e approfondimenti in diverse modalità: diurne, notturne, a distanza, in presenza … usando a volte colazioni, pranzi, cene e pause caffè. Le interviste sono state anche un modo per approfondire le tematiche più svariate, a volte in maniera più serendipica e casuale di quanto avrei pensato. È sicuramente la parte più dispendiosa in termini di tempo, ma anche quella a più alto valore aggiunto. Per me e spero anche per te. A volte mi rendo conto di non riuscire a dedicare il tempo necessario a tutti, e di questo mi dispiaccio: ma purtroppo il tempo è di gran lunga la risorsa più scarsa che abbiamo!
In brevissimo: cosa è cambiato nella costruzione della newsletter
Nella puntata 1: non esisteva ancora alcun servizio di AI generativa (aprile 2022). Usavo solo la ricerca Google, DeepL per alcune traduzioni complicate dall’inglese e un correttore ortografico evoluto. Usavo intelligenze umane (moglie, figli, amici) come correttori di bozze finali. La newsletter era molto più breve.
Nella puntata 100: esistevano già le AI generative (febbraio 2024) ma non ancora i modelli di reasoning. Avevo già realizzato un ChatGPTs che funzionava come correttore di bozze al posto delle intelligenze umane. La ricerca e gli approfondimenti erano ancora guidati prevalentemente dalla ricerca di Google. Usavo quasi solo ChatGPT di OpenAI (anche se stavo incominciando a provare anche Claude.ai in modalità sperimentale).
Oggi, come ho raccontato sopra, uso tre famiglie di LLM (OpenAi, Anthropic e Google) che ho molto personalizzato in funzione dell’attività e delle loro capacità. Le uso anche per il mio processo di apprendimento personale e anche per mettere in discussione quello che scrivo e per allargare le mie riflessioni.
👥 Non solo numeri… dalla Community
In questa terza parte cercherò di “restituirti” il più possibile, senza filtri, i numeri e una fotografia della community che legge e mi aiuta a costruire la newsletter. Ho cercato di mettere insieme alcune informazioni che mi avete aiutato a raccogliere tramite la survey con altri che sono a disposizione su Substack, e con altri segnali o caratteristiche che percepisco dalle tantissime e diverse interazioni che ho con voi: quotidianamente sui social, ma anche nel mondo reale.
Incominciamo…
Numero di iscritti
Il 30 Dicembre 2025 (quando ho scritto questa parte) risultavano iscritti alla newsletter 5.055 indirizzi email, con una delivery rate di circa 94%. Non ho mai fatto alcuna pulizia degli iscritti, quindi è abbastanza normale che ci siano, in quattro anni, circa 300 indirizzi email non più attivi. Non ho mai fatto pulizia perché ho visto che, seppur in numero limitato, ci sono state email che sono risultate raggiungibili dopo qualche settimana. Meno interessante, a mio giudizio, il numero di follower su Substack, che si attesta a circa 5.800.
Metriche di engagement della community
Le metriche più interessanti sono:
open rate: da qualche mese stabile a circa 40%. Interessante che circa la metà delle persone la apre entro le prime 4 ore dalla consegna (entro le 11.30 del sabato mattina) e l’altra metà nelle 4 settimane successive.
engagement rate (metrica calcolata da Substack su diversi parametri di interazione degli iscritti con il post): attorno al 9,5%
click-through rate (percentuale di iscritti che hanno aperto un link nella newsletter): anche questo attorno al 9,5%
Se consideriamo anche chi legge la newsletter senza essere necessariamente iscritto, il numero più interessante è quello delle visualizzazioni totali, che viaggia in un range tra 4.000 e 4.500, con un picco di quasi 6.000 visualizzazioni per newsletter particolarmente lette 🙂. La sorgente principale di letture, al di fuori di Substack stesso, è LinkedIn, che è circa il doppio (come dimensione) rispetto a Google e sei volte superiore a Facebook. Poi segue una coda lunghissima di altre provenienze.
Qualche dimensione degli iscritti
Sempre dalle statistiche di Substack, la newsletter ha lettori da 61 nazioni diverse, con l’Italia che (con 89%) la fa da padrone. Le altre quattro nazioni con più lettori sono, in ordine di dimensione: Francia, USA (la California è lo stato americano più rappresentato), Germania e Svizzera. Ma ci sono lettori de “La Cultura del Dato” anche in Danimarca (e in tutti i Nordics 🙂), Canada, Cina, Inghilterra, India, Russia, Australia, Nigeria e altre 44 nazioni.
La sovrapposizione di audience più elevata ce l’ho con queste 6 altre newsletter italiane:
Ti spiego il dato - ogni settimana (21%)
All About Data (14%)
Il venerdì di [mini]marketing (11%)
Digital Journalism (10%)
Scrolling Infinito (10%)
Ellissi (10%)
Qualche numero dalla survey + un po’ di analisi
Ed ora, per finire, qualche numero emerso dalla survey e dall’analisi dei dati fatta anche con l’AI. Ho usato tutte e tre le AI generative che utilizzo più di frequente (Gemini, Claude e ChatGPT), ma la maggior parte degli insight di questo tipo sono arrivati dall’output (personalmente verificato) di ChatGPT Pro.
Avete risposto alla survey in 65 (1,3% degli iscritti e 1,5% di quelli che hanno letto almeno una newsletter in cui avevo pubblicato la survey).
L’età media emersa dalla survey si attesta attorno ai 47 anni, mentre quella stimata seguendo pattern di email (metodo, personalmente, abbastanza consolidato ma con bias) attesta un’età media di circa 35 anni. Avendo entrambe le metodologie polarizzazioni, penso che l’età media si possa collocare in una fascia attorno ai 40–43 anni. La fascia 35–44 sembra essere quella con il livello di partecipazione più alto alla condivisione e lettura dei contenuti.
A livello di genere Claude mi ha aiutato a fare una buona stima della sua distribuzione che è sbilanciata al 73% sul sesso maschile contro il 27% di genere femminile. Andrea e Chiara i nomi più diffusi e la zona di Torino quella con più equilibrio di genere (si sfiora il 60-40). Anche io posso migliorare questo bilanciamento aumentando le donne intervistate che ad oggi sono circa il 25% (19 su 77 interviste). Aiutatemi segnalandomele!
È difficile, nonostante le risposte che avete dato, identificare una “professione tipica” dei lettori. Mettendo insieme le vostre risposte con molte informazioni che ho raccolto dalle interazioni con tanti lettori, posso stimare che ci siano 6 cluster diversi:
a) Nerd tech (data engineer, data scientist, data architect)
b) Manager, Imprenditori e CX-level tech
c) Esperti in ambito digitale (marketing in primis)
d) Investitori (VC e Angels) e founder dell’ecosistema italiano di start-up (anche all’estero)
e) Specialisti in ambiti verticali (legal, docenti, HR, giornalisti tra i più assidui lettori)
f) Data lover senza un ruolo specifico in organizzazioni (studenti e pensionati in primis)
Mi avete anche dato nella survey un sacco di spunti utili per la sezione interviste: tanti nomi che cercherò di intervistare e qualche consiglio su come farla evolvere. Grazie 🙏
🏆 Bonus
Se sei arrivato fino a qui meriti un premio 🙂. Ho risposto qui a (quasi) tutte quelle domande che mi avete fatto e che erano abbastanza verticali: troppo, per mantenere la lunghezza della newsletter in una dimensione gestibile. Buona lettura!
🙏 E alla fine… non potevano mancare i ringraziamenti
Innanzitutto a tutti voi lettori che dai 249 della prima puntata siete diventati 3.200 nella numero 100 e ora, come scrivevo sopra, siete diventati più di 5.050 alla puntata 200. Grazie per gli stimoli, per le critiche, per i consigli e anche per tutti i complimenti che mi avete fatto.
Se sono arrivato alla puntata 200 è anche grazie a voi e soprattutto perché, come avevo scritto nei ringraziamenti del libro “La Cultura del Dato”:
“Scrivere per me è un viaggio.
Nel passato, nel presente e nel futuro.
Nel passato perché mi consente di metabolizzare le esperienze fatte, esorcizza la paura di perderle e fornisce ulteriore valore ad esse nel presente e nel futuro.
Nel presente perché lo arricchisce e mi consente di capirlo meglio.
Nel futuro perché mi aiuta a provare a ipotizzare scenari e mitigare le ansie del futuro che ci aspetta.”
Poi devo ringraziare, in ordine rigorosamente cronologico di presenza, come ospiti intervistati nelle puntate dalla 102 alla 199:
Francesco Branda, Paola Bonomo, Isaia Invernizzi, Stefano Fiorucci, Mafe de Baggis, Dott. Nicola Triglione, Alberto Puliafito, Luigi Laura, Virginia Padovese, Marco Altini, Massimo Chiriatti, Santina Giannone, Alberto Sanino, Alessandro Molina, Claudia Morelli, Francesco D'Isa, Giuseppe Mayer, Andrea Palladino, Federica Fragapane, Giorgio Taverniti, Michele Cermele, Luca Sambucci, Massimiliano Turazzini, Simone Di Somma, Cosimo Accoto, Giulia Lanzillotta, Michele Grotto, Andrea Nelson Mauro | Dataninja.it, Marco Vinciguerra, Paolo Testa , Matteo Roversi, Francesco Maria De Collibus, Stefano Maestri, Alessandro Maserati , Alberto Danese, Raffaele Mauro, Filippo Capriotti, Valentina Calore, Claudio Saurin , Manuel Pedron , gabriele venturi, Andrea Girolami, Enrico Deusebio, Leonardo Ubbiali, Pier Paolo Ippolito, Andrea Tironi, Antonello Mantuano, Niccolò Sanarico, Luigi Congedo, Fabrizio Fantini.
Infine alcune persone speciali che sono state molto importanti in questo viaggio di 200 tappe:
Mafe de Baggis, con cui ho costruito le fondamenta
Alberto Danese, con cui ho scritto gli ultimi tre libri e non solo
I miei figli, che non vogliono essere citati esplicitamente per questioni di privacy (non esistono più i giovani di una volta 🙂) e che mi ricordano ogni settimana che Marcello Ascani ha 1 milione di follower.
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!





Caro Stefano, sono io che ringrazio te per i mille-mila suggerimenti, spunti, riflessioni, contenuti, risorse che hai regalato a tutti noi, ma anche a me personalmente quando ci incontriamo. Perdona la sviolinata, ma te lo meriti: giro ai miei figlio le tue dritte sull'università! :-)
Ciao Stefano, vedo che tra i vari strumenti AI non usi NotebookLM. Come mai?
Io lo trovo eccezionale e l'unico strumento AI davvero affidabile oggi usabile professionalmente gratis... il motivo principale è che gli fornisci tu le fonti (testo, link a pagine web, pdf, file audio, video, cartelle GDrive) e poi fai le domande e lui si attiene al contenuto delle fonti praticamente senza allucinazioni. Ora lo hanno arricchito con la generazione di slide, infografiche, video presentazioni. Le infografiche le trovo particolarmente utili per esprimere in modo visuale i concetti estratti dalle fonti.