LaCulturaDelDato #209
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il duecentonovesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Ecco i cinque spunti del duecentonovesimo numero:
👃Investimenti in ambito dati e algoritmi. Il tuo mercato non è “50-500 dipendenti”: è un bisogno (e un comportamento)
Ho passato anni, una parte significativa della mia vita professionale, a lavorare in aziende che vendevano dati, algoritmi e, più in generale, prodotti basati su dati. Prodotti che aiutavano banche, assicurazioni e imprese a capire con chi avevano a che fare: persone giuridiche e persone fisiche. Tutte informazioni che spesso, in inglese, vengono definite firmographics e demographics come settore, fatturato, numero di dipendenti, localizzazione, forma giuridica molto utili per capire cosa fa e com’è fatta un’azienda, ma che non sempre sono sufficienti a capire perché compra.
Questa distinzione mi torna in mente ogni volta che sfoglio un pitch deck di startup. La slide sul TAM (mercato totale raggiungibile), sul SAM (mercato indirizzabile disponibile) e sul SOM (mercato ottenibile) è quasi sempre la più creativa… e non in senso positivo. “Il mercato globale dell’email è da 30 miliardi di dollari”: ok, ma questo non ti dice nulla su quanti clienti compreranno il tuo prodotto. Il TAM calcolato su demographics (”PMI europee con più di 50 dipendenti nel settore X”) è un esercizio rassicurante per chi presenta, ma raramente predittivo per chi investe. È un numero grande che fa sentire tutti meglio, senza spiegare chi ti comprerà davvero e perché. L’approfondimento che ti consiglio oggi spiega questo concetto molto meglio di come l’ho fatto io e fornisce vie alternative, o forse complementari, per affrontare al meglio questo tema. Jason Cohen, fondatore di WP Engine e voce spesso fuori dal coro nel panorama tech, ha scritto un pezzo che mette a fuoco proprio questo problema (Your target market isn’t demographic). Le dimensioni tradizionali, scrive Cohen, come settore, dimensione aziendale e geografia, spesso non descrivono il tuo mercato reale. Quello che conta sono i bisogni, i casi d’uso e i comportamenti dei clienti. L’esempio che Cohen porta è il suo: WP Engine era posizionato per piccole imprese con siti WordPress. Eppure, grandi banche, catene di fast-food e colossi del software compravano lo stesso prodotto. Non perché fossero “PMI mascherate”, ma perché singoli team dentro grandi organizzazioni avevano le stesse esigenze di un piccolo imprenditore: qualità enterprise-grade, flessibilità open source, pricing accessibile. Il target market reale non era “PMI”, era “chi ha un sito WordPress a cui tiene e vuole che funzioni bene, a un prezzo ragionevole”.
La parte più operativa dell’articolo è una tabella con dimensioni alternative per segmentare il mercato. Alcune sono illuminanti per chi valuta startup: il tipo di processo decisionale (ore, settimane o trimestri?), la tolleranza al rischio dell’organizzazione, lo stile di lavoro (sincrono o asincrono?), la fase nel ciclo di adozione tecnologica alla “Crossing the Chasm”, il tipo di budget (fisso annuale o “troviamo i soldi quando serve”), il livello di acume tecnico del buyer. Nessuna di queste dimensioni compare mai in un pitch deck, eppure ciascuna spiega il comportamento d’acquisto molto meglio di “aziende tra 50 e 500 dipendenti nel settore manifatturiero”. E la vignetta che accompagna l’articolo di Cohen, tratta da andertoons , è veramente calzante!
🖐️Tecnologia (data engineering). Se gli agenti cominciano a gestire i dati: i 4 consigli di Ben Lorica per i data engineer (e non solo)
“Mentre la comunità dell’intelligenza artificiale è in fermento per il potenziale degli agenti autonomi, mi sono posto una domanda meno affascinante ma fondamentale: cosa significa questo per la nostra infrastruttura dati? Stiamo progettando sistemi intelligenti e autonomi basati su database creati per interazioni prevedibili e guidate dall’uomo. Cosa succede quando un software che scrive software provvede anche alla fornitura e alla gestione dei propri dati? Si tratta di un disallineamento architettonico inevitabile, che richiede una nuova generazione di strumenti.” Questo è l’incipit di Ben Lorica del primo di una combo di articoli (che ho trovato molto interessanti) in cui lo stesso Lorica disegna i cambiamenti in corso nella tecnologia dei database, per adattarli anche all’utilizzo da parte degli agenti.
Ti confesso che, da boomer, mi sono adattato abbastanza bene all’ultimo (a mio avviso) cambio di paradigma: dai database relazionali ai (anche) database NoSQL. Questa nuova traiettoria, devo confessarti, mi sembra davvero tanto radicale 🙂.
Nonostante la velocità di questi cambiamenti dipenda molto dalla rapidità di adozione su larga scala, credo che il percorso delineato da Lorica nel primo articolo vada letto con attenzione da tutti quelli che lavorano con i dati e con l’AI. Ecco i 4 consigli di Lorica per i data engineer:
Considerare i database come risorse effimere e specifiche per determinate attività, non come elementi permanenti.
Dare priorità all’isolamento, con modelli di database per attività o per utente, per qualsiasi applicazione multi-agente o multi-tenant.
Unificare lo stack di memoria su piattaforme che combinano dati relazionali e ricerca vettoriale, per semplificare l’architettura.
Valutare dove la convergenza operativa-analitica è importante per il proprio caso d’uso. Se gli agenti necessitano di accesso in tempo reale sia allo stato transazionale che alle informazioni analitiche, esplorare piattaforme che unificano questi livelli.
Se poi il primo approfondimento ti ha interessato, nel secondo Lorica analizza quattro esempi già usabili di questo nuovo approccio: AgentDB, Tiger Data, Lakebase e Bauplan.
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. Il modello migliore (di AI) non è quello #1 in classifica: è quello giusto per le tue esigenze (e va monitorato)
“Quindi, nel complesso, il benchmarking ha un valore reale, ma i pochi benchmark individuali affidabili si concentrano su matematica, scienze, ragionamento e programmazione. Se si desidera misurare la capacità di scrittura, l’analisi sociologica, la consulenza aziendale o l’empatia, le opzioni disponibili sono molto limitate. Penso che questo crei un problema, sia per gli individui che per le organizzazioni. Le aziende decidono quali IA utilizzare sulla base dei benchmark e le nuove IA vengono lanciate con grande clamore sulle prestazioni dei benchmark. Ma ciò che interessa davvero è quale modello sia il migliore per le VOSTRE esigenze. Per capirlo da soli, dovrete intervistare la vostra IA.”
Uno dei temi più complessi nell’adozione e nella scelta, sul piano personale e aziendale, dei modelli di AI generativa da usare è come riuscire a misurarli sulle attività per cui pensiamo di usarli e, soprattutto (e questo sfugge a molti), come continuare a monitorarli nel tempo. Proprio su questo tema si concentra l’approfondimento che ti consiglio oggi, scritto da Ethan Mollick. Mollick usa una metafora molto azzeccata e pratica: scegliere con tecniche molto simili a quelle che si usano (o si dovrebbero usare) con intelligenze umane in fase di assunzione. Cioè: metterli alla prova su progetti e attività molto simili a quelli che dovranno fare nella realtà. In questo senso, Mollick suggerisce e si ispira anche a un bellissimo paper uscito recentemente sul tema “gdpval: evaluating ai model performance on real-world economically valuable tasks”. Consigliatissima la lettura, appendice inclusa, ma dopo aver letto per intero Mollick.
Come scrivevo all’inizio, ti aggiungo (per esperienza personale) di usare, verso le AI che utilizzi, un monitoraggio periodico della qualità del loro lavoro perché, soprattutto se usi modelli closed source erogati in cloud, hai poco controllo su alcuni parametri che, soprattutto dall’“era reasoning” in poi, influenzano la qualità delle risposte a parità di modello. Non ne ho la certezza assoluta, ma sicuramente le risorse (computazionali e informatiche) e il tempo che si fornisce al chatbot hanno un’influenza sulla qualità del risultato finale. E queste risorse possono dipendere dinamicamente anche dal carico degli utenti e dalle politiche di gestione dei costi dei provider stessi.
PS (voce dell’IA - ho chiesto a ChatGPT 5.2 thinking un’opinione schietta sul mio ultimo paragrafo e la riporto fedelmente): È una metafora comoda pensare che io “renda meglio” quando il provider mi dà più risorse, come il cibo per il cervello umano. Ma occhio: io non percepisco quanta potenza mi assegnano e, in molti casi, a parità di modello la computazione per token è abbastanza costante. La variabilità che noti spesso nasce più da fattori “soft” (casualità, prompt leggermente diverso, contesto più lungo, filtri di sicurezza, aggiornamenti o routing invisibili) che da una dieta di GPU. Morale: invece di inseguire l’idea del compute ballerino, conviene standardizzare test e prompt, ripetere le prove più volte e monitorare nel tempo con una mini-rubrica di casi reali. 🙂
👀 Data Science. Interpretabilità meccanicistica: smontare un LLM neurone per neurone ha senso?
Se hai costruito o contribuito a un progetto di machine learning “classico” (se ha senso usare questo aggettivo), sei abituato a un altro concetto di “interpretabilità”. Pensa al credit scoring: costruisci un modello per decidere se concedere un prestito, e poi puoi dire al cliente “il tuo rapporto debito/reddito è troppo alto” oppure “la tua storia creditizia è troppo breve”. Questa è interpretabilità locale: spieghi quella decisione, a quella persona, con variabili che hanno un significato nel mondo reale per la decisione specifica.
Mentre l’interpretabilità globale ti dice quali fattori pesano di più, in generale, nel modello, a prescindere dalla singola decisione. I modelli di questo tipo hanno una struttura abbastanza definita, data da un numero di variabili in ingresso che può essere molto ampio ma comunque noto.
L’approfondimento che ti consiglio oggi, invece, affronta il tema, decisamente più complesso, della mechanistic interpretability di un LLM: cioè il tentativo di capire come “ragiona” un LLM provando a fare reverse engineering dei singoli neuroni e dei circuiti interni del modello. Dan Hendrycks (Center for AI Safety) ha scritto un pezzo che fa lo stato dell’arte di questi tentativi. L’analogia che usa Hendrycks nel pezzo è efficace. Gli LLM sono sistemi complessi, come il cervello umano, come l’atmosfera terrestre. I meteorologi non tracciano ogni singola molecola d’aria per prevedere il tempo. Gli psicologi non mappano ogni sinapsi per spiegare perché hai scelto quel parcheggio invece di quello accanto. Eppure è esattamente questo l’approccio bottom-up della mechanistic interpretability: partire dal livello più basso e ricostruire il comportamento dal basso verso l’alto. Nei sistemi complessi il tutto è più della somma delle parti. Le proprietà emergenti, quelle che rendono un LLM capace di ragionare, scrivere, tradurre, non “abitano” nei singoli neuroni: sono distribuite nell’organizzazione tra i componenti. Tant’è che puoi rimuovere interi layer da un modello e il comportamento complessivo cambia poco. Questo ti dice quanto sia fragile l’idea di spiegare il sistema partendo dai pezzi singoli. Hendrycks non conclude però che dobbiamo rinunciare a capire gli LLM. Propone di cambiare livello di analisi: invece di guardare i neuroni, studiare le rappresentazioni ad alto livello. È quello che fa il Representation Engineering (RepE), che ha già dato risultati concreti per rendere i modelli più onesti, più robusti e più sicuri. È quello che ha fatto (e sta cercando di portare avanti) per esempio proprio il team di Anthropic.
Anche l’approccio top-down ha però un limite strutturale. Comprimere il ragionamento di un modello da terabyte in un diagramma di flusso comprensibile a un essere umano significa necessariamente perdere le sfumature. E le sfumature stanno proprio nei corner cases: quei casi limite dove il modello si comporta in modo inatteso e dove si nascondono i rischi veri. Come scrive Bob Rehder (NYU): cercare spiegazioni generali porta a trascurare le eccezioni, e le eccezioni sono proprio il punto critico. Quindi puoi avere una “risonanza magnetica per l’AI” (la metafora è di Dario Amodei, CEO di Anthropic), ma non aspettarti che ti dia il tracciato pensiero per pensiero del modello. Come una vera risonanza ti mostra quali aree del cervello si attivano, non cosa stai pensando!
Ma il tema è comunque affascinante e, anche se portasse risultati parziali, credo che abbia un valore assoluto per tutti!
👅Etica & regolamentazione & impatto sulla società. Dollaro, Gini e media/mediana: la mia checklist per leggere il Global Wealth Report
Nel numero 87 di questa newsletter, più di due anni e mezzo fa, l’approfondimento più cliccato era stato il Global Wealth Report 2023 pubblicato congiuntamente da UBS e Credit Suisse, che si riferiva a fine 2022. Considero il Global Wealth Report uno dei report più importanti da leggere per capire veramente l’andamento economico e sociale del mondo. Pur con tutte le limitazioni, è un aggregato di dati enorme ed è realizzato con un’attenzione nel fornire una vista a più livelli di granularità che lo rende veramente leggibile da un pubblico molto vasto, anche con livelli di conoscenza differenti su questi temi. Ogni anno dedico due ore alla sua lettura e mi prendo tempo per approfondire alcuni aspetti che emergono. L’edizione attuale si riferisce a fine 2024: non tiene ancora conto delle eventuali variazioni o dei trend del 2025.
È inutile farti una sintesi perché la puoi avere leggendo la prima parte del capitolo 1 del report. Preferisco usare la tua attenzione per descriverti alcuni punti chiave alla lettura e i 5 segnali che ho tratto dal report leggendolo. Il tempo che ti rimane, dedicalo alla lettura del report.
Prima di leggerlo, sappi che, come avevo scritto già due anni fa:
“Tutti i dati si riferiscono ai patrimoni e non alle entrate annuali di ciascun individuo, un dettaglio cruciale dato che, per esempio, l’indice di Gini, misura delle disuguaglianze, varia notevolmente tra diverse aree del mondo a seconda che si consideri il patrimonio o il reddito.”
Ed ecco i cinque punti che personalmente ritengo significativi:
Crescita molto alta della ricchezza soprattutto nel continente americano, Stati Uniti in testa. Crescita molto contenuta invece in Europa (Est escluso) e nell’Est del mondo. Poni attenzione al fatto che tutto è misurato in dollari americani e nel 2024 (a differenza del 2025) il valore del dollaro è stato stabile.
Guarda con attenzione la media e la mediana della ricchezza e fatti un’idea, per ogni stato, del rapporto media/mediana. Non è un indicatore preciso come l’indice di Gini ma è molto più veloce da calcolare e fornisce indicazioni di situazioni in essere. Per esempio, il rapporto è circa 2 per Italia e Francia e 5 per gli Stati Uniti.
L’indice di Gini sta aumentando in Europa e sta diminuendo nel continente americano. Il valore assoluto è ancora molto più basso in Europa ma negli ultimi anni (fino al 2024 … attento) si è visto un fenomeno di riequilibrio su base globale.
Nel 2025 il dollaro ha subito una pesante svalutazione rispetto all’Euro e ad alcune delle principali valute estere. Qualcosa attorno al 15%, e questo si farà sentire nel report del prossimo anno, a sfavore degli stati americani.
Le previsioni che emergono dal report sono di continua crescita nei prossimi anni, ma le variabili in gioco per temi geopolitici sono tante e poco prevedibili. Prendiamolo come scenario più probabile ma ben lontano dall’avere più del 50% di probabilità di accadere. E guerre in corso e l’AI, bolle comprese ma non solo, avranno un grosso impatto anche sulla distribuzione della ricchezza globale, non solo sui redditi. Una fetta dei patrimoni globali sono su asset di tipo finanziario.
📅 Nel Mio Calendario (passato, presente e futuro)
Sabato 7 marzo sono stato ospite insieme a Donata Columbro all’evento organizzato a Rovereto dalla community digitale trentina Speck&Tech per festeggiare i suoi 10 anni di attività. Se vuoi vedere il mio intervento e quello di Donata Columbro lo puoi trovare su Youtube qui .
E’ uscito da qualche giorno un mio articolo, sul sito di Artser, su passato, presente e futuro dei database dal titolo abbastanza provocatorio: “Mai sottovalutare un database” :-). Se vuoi leggerlo lo trovi qui.
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!


Di interpretazione meccanicistica ne ho parlato in una intervista di Risorse Artificiali a gennaio, con il bravissimo Emanuele Fabbiani. Si trova facilmente sulle principali piattaforme. Oppure se volete una lezione monotematica sull'argomento trovate su YouTube i talk di Fabbiani registrati da varie conferenze. Sia in italiano che in inglese. Credo che la sua esposizione sia chiara e alla portata di tutti, benché tecnica e profonda senza essere semplicistica
Super interessante come sempre! Domanda un po' sciocca ma in linea con la prima parte dell' articolo: dove si trovano certi dati legati al mercato per un pitch per startup? Non capisco mai se siano deduzione/ stime grossolane o se siano basate su dati oggettivi..hai qualche idea a riguardo?