LaCulturaDelDato #212
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il duencentododicesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Ecco i cinque spunti del duencentododicesimo numero:
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. Jacopo Paoletti: progettista di decisioni
Presentati. Jacopo Paoletti. Forse qualcuno mi conosce per il mio blog o negli anni avrà letto qualche mio post sui social, in particolare su Linkedin. Ho sempre avuto un rapporto un po’ complicato con le etichette: ammetto che mi stanno strette. Se però devo trovare un filo che almeno per me tiene insieme tutto, è questo: mi interessa il momento in cui una tecnologia smette di essere “una cosa da addetti ai lavori” e diventa cultura, economia, comportamento. È lì che (almeno secondo me) succedono le cose davvero importanti: non quando un’innovazione viene annunciata, ma quando entra nelle decisioni quotidiane, nei processi, negli incentivi, nel modo in cui le persone si fidano (o smettono di fidarsi).
Ho una formazione in economia digitale e ingegneria informatica, e da oltre vent’anni lavoro all’incrocio tra marketing, comunicazione e tecnologia. Un’altra cosa che mi ha formato, forse più dei titoli e dei ruoli, è stata una specie di educazione sentimentale al digitale: sono online dal 1997. Ho visto il web prima dei social, i social prima degli smartphone, gli smartphone prima che “l’algoritmo” diventasse una parola comune. E ho imparato una lezione (forse) semplice: quasi mai la trasformazione arriva come una nuova funzione; arriva come una nuova normalità. Prima ti sembra una comodità, poi ti accorgi che è un’infrastruttura.
Oggi sono Founder & Chairman di Exegesis, una holding che investe in PMI e startup del digitale con un approccio molto operativo: mi interessa costruire e far crescere cose reali, non solo discuterne. Lavoro anche nel gruppo Zucchetti, nel team di Inrecruiting, dove l’innovazione tecnologica si misura su un terreno delicato come quello delle persone e delle organizzazioni. In parallelo scrivo e faccio formazione, perché mi interessa costruire ponti tra chi produce tecnologia e chi la deve far vivere dentro vincoli reali, con persone reali.
Ho scritto AI Economy (FrancoAngeli) proprio per questo (NdR, c’è anche il contributo di Stefano e di oltre 70 esperti fra accademici, imprenditori e manager): non per aggiungere un altro commento al rumore sull’AI, ma perché almeno a me sembrava mancasse un pezzo alla conversazione.
Il mio ruolo tra 10 anni sarà… (continua la frase come fossi GPT-10).
Uhm… forse sarà quello di “progettista di decisioni”. In realtà mi vedo a fare tre cose, intrecciate come un unico mestiere. La prima: continuare a costruire imprese e prodotti in cui l’AI non è un reparto, ma un modo diverso di progettare processi e servizi. La seconda: lavorare su una nuova alfabetizzazione della decisione; non “imparare a usare lo strumento”, ma imparare a governare un sistema che ti risponde in tempo reale, senza confondere velocità con verità. La terza: fare governance in senso pratico, quasi artigianale: rendere “auditabili” scelte che si muovono a velocità software, costruire fiducia quando la catena causa-effetto diventa più opaca, evitare sistemi che ottimizzano in modo perfetto la metrica sbagliata.
Se devo proprio riassumere: tra dieci anni non mi interesserà essere “più vicino alla tecnologia”, perché la tecnologia è e sarà sempre di più ovunque; mi interesserà essere vicino a ciò che resta umano in senso alto: la capacità di scegliere bene, di spiegare le scelte, di assumersene le conseguenze. L’umano è lì.
Qual è la sfida più importante che il mondo dei dati e algoritmi ha di fronte a sé oggi?
La sfida più importante è che dati e algoritmi hanno smesso di essere strumenti di supporto e stanno diventando attori. Per anni abbiamo parlato di data-driven come se fosse solo un tema di reportistica: misuro, capisco, decido. Ora siamo entrati chiaramente in un’altra fase: sistemi che raccomandano, orchestrano, ottimizzano, e in certi casi agiscono. E quando un sistema agisce, entrano in gioco organizzazione, reputazione, compliance, potere. Non è più solo un problema di prestazioni: è a tutti gli effetti un problema di legittimità.
Questo produce una frattura che vedo sempre più spesso nelle aziende: da una parte chi costruisce modelli e pipeline, dall’altra chi deve prendersi la responsabilità di business. In mezzo, troppo spesso, c’è un vuoto di linguaggio comune. Il risultato è uno di due estremi: o l’AI resta laterale e non entra mai davvero nella stanza delle decisioni; oppure entra troppo velocemente e diventa un alibi (“lo dice l’algoritmo”), che è il modo più rapido per perdere fiducia interna ed esterna.
Segnalaci il progetto o la risorsa nel mondo dei dati di cui non potresti fare a meno…
Ti risponderei così: più che una risorsa, non potrei fare a meno di un gesto. Andare alla sorgente. Nel mondo dei dati e dell’AI la superficie è sempre più rumorosa: l’hype arriva prima della comprensione, e spesso arriva con parole che suonano bene ma spiegano poco. L’unico antidoto stabile che mi sono costruito è una disciplina: quando qualcosa sembra importante, scendere di un livello. E poi di un altro. Finché non incontri la parte dura: ipotesi, metodo, limiti, condizioni. Se devo indicare un luogo singolo che incarna quel gesto, dico arXiv. Non lo vivo come un feticcio accademico: lo uso come bussola. Ha una qualità che oggi vale oro: ti mette davanti a ciò che sta accadendo prima che diventi narrazione. E ti costringe a due virtù che, nel lavoro con dati e algoritmi, dovrebbero essere obbligatorie: umiltà (perché capisci quanto velocemente si muove la frontiera) e precisione (perché sei costretto a separare risultati, promesse, e marketing).
👃Investimenti in ambito dati e algoritmi. Non tutte le grandi exit sono ottimi investimenti: ecco l’EVI
Nel venture capital ci siamo abituati a giudicare una exit dal numerone finale. Un’acquisizione da qualche miliardo o una IPO scintillante fanno subito notizia, ma raccontano solo una parte della storia. La domanda giusta, secondo me, è un’altra: quanta efficienza c’è voluta per arrivare fin lì? Se per costruire quella exit hai bruciato tantissimo capitale e, soprattutto, tantissimi anni, il risultato cambia parecchio. L’approfondimento che ti suggerisco oggi si basa proprio su un KPI che prova a evidenziare numericamente questo concetto. In questo post su LinkedIn, John Rikhtegar di RBCx ha provato a colmare il gap introducendo l’Exit Velocity Index (EVI), un indicatore calcolato su 3.317 exit VC nordamericane superiori a 10 milioni di dollari, tra il 2010 e il 2025.
La formula è semplice:
EVI = (Exit Value / Total Equity Raised) × (1 / Exit Age)
In pratica: prendi il multiplo sull’equity raccolta (efficienza del capitale) e lo dividi per gli anni impiegati a uscire (velocità). Ottieni un numero che misura quanto valore hai costruito per ogni euro/dollaro investito, nell’unità di tempo. Non quanto in assoluto, ma quanto bene e quanto velocemente. Mi piace perché mette insieme, in un solo numero, tre dimensioni che quasi sempre vengono lette separatamente: dimensione dell’exit, efficienza del capitale e tempo. Ed è proprio il tempo, oggi, la parte più preziosa del ragionamento. In un ecosistema che cambia velocemente, il tempo non è solo durata: è anche una proxy del rischio. Più si allunga il percorso verso l’exit, più aumentano le probabilità di incontrare crisi macro, mercati chiusi, concorrenza aggressiva, cambi di tecnologia e round diluitivi. Nel toolkit standard del venture ci sono già strumenti affidabili: il MOIC (Multiple on Invested Capital) misura il multiplo totale, ma ignora il tempo; l’IRR incorpora il fattore temporale, ma è sensibile alle ipotesi di reinvestimento e difficile da comunicare ai non tecnici; il DPI (Distributions to Paid-In) misura solo i ritorni già distribuiti, utile per gli LP ma non per giudicare la qualità di una singola exit. L’EVI combina efficienza e velocità in un numero solo, leggibile e comparabile. È più vicino a un concetto di “potenza” che di “energia”: non quanto hai guadagnato, ma a quale ritmo lo hai fatto.
Per questo gli esempi del post colpiscono. Alcune exit famosissime come Yahoo, StubHub, Reddit, Procore o ServiceTitan diventano meno “belle” appena inserisci nella valutazione gli anni impiegati. Lo stesso vale per aziende note come Uber o Postmates: brand fortissimi, ma meno efficienti di quanto il solo valore finale lasci immaginare. Al contrario, casi come Mir, 400 milioni di exit in due anni con appena 2 milioni raccolti, o persino WhatsApp, che con pochissimo capitale ha generato una exit gigantesca in tempi relativamente rapidi, mostrano che un sottoinsieme molto ristretto di aziende riesce davvero a creare valore fuori scala senza divorare anni e capitale.
Non trasformerei però l’EVI in una religione. Ha almeno tre limiti. Primo: rischia di confrontare in modo un po’ ingiusto settori diversissimi, perché un SaaS leggero e una biotech regolata non possono avere la stessa relazione con il tempo. Secondo: dipende molto dalla qualità del dato sul capitale raccolto, e già la scelta di escludere debito e secondario orienta il risultato. Terzo: non dice nulla sulla quota effettivamente posseduta dagli investitori all’exit, che alla fine è ciò che muove davvero i ritorni. Anche per questo va letto insieme ad altre metriche, non al posto loro.
Detto tutto questo, l’EVI mi sembra un KPI molto utile proprio per il momento storico che stiamo vivendo: in tempi così dinamici, sembra un numero molto utile, veloce e facile da misurare.
🖐️Tecnologia (data engineering). Tre salti, un filo rosso: come la comprensione del contesto sta cambiando l’AI
Anche se la sensazione come utilizzatori di intelligenze artificiali è che da novembre 2022, quando ChatGPT si è palesato al mondo, ci sia stato un miglioramento graduale e quasi lineare di questi strumenti, secondo me ci sono stati dei momenti. o meglio dei cambiamenti, che hanno allargato il loro utilizzo e aumentato la qualità dell’output in maniera non lineare.
Finora questi momenti sono stati due, ma potremmo essere sul punto di viverne un terzo. Il primo è stato nella prima parte del 2023, quando fu aggiunta a ChatGPT la possibilità di cercare sul web. Il secondo quando a inizio settembre 2024 OpenAI rilasciò i primi sistemi di reasoning basati sulla metodologia Chain of Thoughts. In entrambi i casi, gradualmente tutti gli altri sistemi, closed source e open source, si accodarono e i miglioramenti diventarono esponenziali.
Il terzo momento di discontinuità potrebbe essere in corso adesso, meno legato a sviluppi tecnologici specifici (del resto la capacità raggiunta dai modelli è ancora largamente sottoutilizzata) e più all’adozione su larga scala di standard che faciliteranno l’uso di questi sistemi in modo efficace, soprattutto nelle organizzazioni. Qualcosa di simile alla containerizzazione per i trasporti più di 50 anni fa.
C’è un filo rosso che lega questi tre momenti: il modo in cui forniamo contesto a questi strumenti. Il web ha dato loro il contesto in tempo reale del mondo. Il reasoning ha permesso di capire meglio il contesto e di cercarlo in maniera iterativa. Gli standard stanno creando il modo più scalabile per fornire agli LLM la nostra esperienza e il nostro contesto specifico, in modo adattabile e migliorabile dagli LLM stessi in maniera progressiva.
Se questa chiave di lettura ti convince, quello che segue è un percorso in quattro tappe, breve ma intenso, che ho costruito sulla base della mia esperienza per orientarti nell’evoluzione di questo processo.
Parto dalla risorsa migliore in assoluto: il “Frontier handbook” di David Kimai sul context engineering. È una via di mezzo tra un corso e un libro, parte dalla definizione di Karpathy e arriva fino a sistemi di automiglioramento degli LLM su cui oggi ci sono quasi solo speculazioni. Ci ho ragionato parecchio e mi piace molto. Ho anche realizzato due artefatti con Claude che provano a semplificarne e visualizzarne i concetti chiave: te li condivido qui e qui, fammi sapere cosa ne pensi 🙂
Il prompt engineering sembra superato ma non lo è: saperlo maneggiare bene ti dà ancora vantaggi reali. Qui ti lascio tre risorse complementari: l’anatomia di un prompt per Claude di Massimiliano Nicotra (il più pratico dei tre), la guida ufficiale di OpenAI (la più completa) e la libreria di prompt di Andrea Girolami.
Poi ci sono gli skill, e per me questo è il pezzo più importante. Sono file Markdown che codificano competenze riusabili per gli LLM, e Anthropic li sta spingendo più di chiunque altro. Io personalmente sto “traducendo” tutto quello che avevo creato: ChatGPT custom, Gemme Gemini, in skill utilizzabili ovunque, anche come semplici prompt. Se ne esplori uno solo (di link che ti suggerisco), parti dal sito dello standard. Poi, se hai altro tempo, vai sulla documentazione ufficiale di Claude e sul progetto skills di HuggingFace. Ti aggiungo anche un pezzo di AI Supremacy che è pieno di link pratici e di esempi concreti su questa tematica
Chiudo con il livello di astrazione più alto: il protocollo agents.md, che definisce come un agente AI dovrebbe comportarsi all’interno di un progetto o di un’organizzazione. Il sito ufficiale agents.md è il punto di partenza. Da lì la guida di Builder.io su claude.md ti mostra l’applicazione pratica, e Goose di Block è, di fatto, un esempio di implementazione reale. Il segnale più forte? La Linux Foundation ha appena lanciato l’Agentic AI Foundation: quando un’infrastruttura così la prende in carico la Linux Foundation, vuol dire che non è più sperimentazione: sta diventando probabilmente uno standard.
👀 Data Science. “Explorable explanation” in pratica
Nel numero 90 della newsletter il link più cliccato era stato questo. E credo sia ancora molto attuale. Come descrive sinteticamente lo stesso autore “il sito è una raccolta di visualizzazioni interattive dedicate all’approfondimento di concetti relativi all’elaborazione dei segnali, all’informatica e alla vita” :-). L’autore è Laszlo Korte: un web designer e sviluppatore di Amburgo. Non è un data scientist nel senso accademico del termine, ma è uno di quei profili eclettici che incontri raramente: sa programmare bene, sa fare grafica, e, cosa più rara, sa insegnare visivamente concetti matematici difficili. Il link che ti ho segnalato ma anche Il suo sito sono una collezione di widget interattivi che spiegano, senza quasi usare testo, concetti come:
la geometria del Teorema di Bayes (probabilità dipendenti visualizzate come aree)
come si stima una distribuzione gaussiana a partire da un campione
come funziona un classificatore binario ottimale derivato da due ipotesi
Non è un corso. Non è una documentazione. È più vicino a uno strumento di intuizione matematica: ci giochi cinque minuti e capisci qualcosa che una formula da sola non ti avrebbe mai dato. Korte si è ispirato esplicitamente a Bret Victor e alla sua filosofia del “Drawing Dynamic Visualizations” e che ha reso popolare il concetto di Explorable Explanation. L’idea che la matematica debba essere esplorata interattivamente, non solo letta. Ha sviluppato parte degli strumenti come tesi di laurea magistrale su framework JavaScript per animazioni in informatica. Il risultato è un sito che non somiglia a nessun tutorial che tu abbia mai visto. Buona esplorazione serendipica 🙂
👅Etica & regolamentazione & impatto sulla società. Di cosa parliamo quando parliamo di intelligenza artificiale (?)
L’approfondimento che ti consiglio oggi in questa sezione della newsletter è stato scritto in uno dei blog (sì, è giusto chiamarlo ancora così?) ancora attivi, con una delle profondità storiche più ampie almeno in Italia. È anche firmato da uno dei giornalisti che stimo di più e che, probabilmente in modo meno rumoroso di altri, ha influenzato l’evoluzione del giornalismo italiano: sto parlando di Luca Sofri e del suo blog Wittgenstein, attivo dalla fine del 2001. E, per dare ancora meglio la misura della sua influenza sul giornalismo italiano, basta pensare alla sua impresa imprenditoriale, Il Post, di cui oggi è direttore editoriale, ma di cui è stato anche il padre fondatore: una delle poche iniziative editoriali economicamente sostenibili a livello globale nel settore dell’informazione.
A metà novembre dello scorso anno Sofri ha scritto un lungo ma interessante articolo, “Intelligenze artificiali” tra virgolette, che mostra quanto sia complesso, anche solo dal punto di vista semantico, soprattutto per una persona non tech il termine intelligenza artificiale, nella sua declinazione singolare o, come sai preferisco, plurale. L’articolo, per certi versi, è un flusso di pensieri in cui Sofri prova a navigare e a penetrare, con diversi aiuti esterni, ciò che intendiamo quando usiamo la parola intelligenza artificiale nei diversi contesti in cui la tiriamo in ballo. L’incipit è netto, chiaro e richiama anche una missione del Post, cioè “spiegare bene” 🙂: “C’è un problema, con le “intelligenze artificiali”, che mi pare venga prima di tutti gli altri problemi con le “intelligenze artificiali” di cui stiamo parlando intensamente da quando è arrivato ChatGPT in poi, tre anni fa. Lo descrivo sbrigativamente così: la maggior parte di noi non sa di cosa sta parlando.“ Gli incisi e le analogie non mancano, e quella del doping è tra le migliori. Si arriva così a un finale in cui Sofri non trova, ovviamente, una definizione corretta o definitiva, ma dal nome del blog sarebbe difficile aspettarsi il contrario, quanto piuttosto un invito a essere più precisi quando usiamo questo termine e, forse, a usarlo anche un po’ meno. In fondo, il punto non è solo tecnico: è prima di tutto linguistico e culturale. “Ma in realtà non intendo sostenere niente: se non che la conversazione pubblica intorno alle “intelligenze artificiali” sia molto superficiale e ignorante, e abbia bisogno di fare un po’ d’ordine e di rispondere intanto alla domanda “di cosa stiamo parlando?”.”
Penso anche che, da addetti ai lavori, dovremmo cercare di comunicare meglio e in maniera più trasparente che cosa stiamo effettivamente usando e come. Dall’altra parte, chi non conosce nulla del tema potrebbe, soprattutto se ha ruoli decisionali o comunicativi, provare a scendere almeno di qualche livello sotto il semplice termine intelligenza artificiale. In primis intuire, se non comprendere, che sotto questa etichetta finiscono sistemi, approcci e usi molto diversi tra loro: dai modelli generativi ai sistemi predittivi, fino ad automazioni che di “intelligente”, in realtà, hanno soprattutto il modo in cui vengono raccontate. Sofri chiede “di cosa stiamo parlando?“. La risposta onesta, anche per chi ci lavora dentro, è: di troppe cose insieme. E finché non le separiamo, nel linguaggio e nella testa, continueremo a prendere decisioni confuse su qualcosa che meriterebbe precisione.
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!




Grandissimo numero dell cultura del dato grande @stefanogatti