LaCulturaDelDato #189
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il centoottantanovesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Ecco i cinque spunti del centoottantanovesimo numero:
🖐️Tecnologia (data engineering). Pier Paolo Ippolito: tra ingegneria e divulgazione, così costruisco ponti tra IA e persone
Presentati Pier Paolo Ippolito. Ho sempre pensato al mio ruolo nel mondo tech come un equilibrio tra due anime. Da un lato, quella dell’ingegnere che, in contesti internazionali come il Regno Unito e la Svizzera, ha costruito e implementato soluzioni complesse. Dall’altro, quella del divulgatore, spinto dalla necessità di tradurre questa complessità in conoscenza che possa essere utile a tutti. Queste due facce non sono in conflitto, ma si alimentano a vicenda: costruire mi dà qualcosa di concreto da raccontare, e raccontare mi costringe a capire più a fondo ciò che costruisco. Oggi, come Senior GenAI Solutions Architect in Google, metto a frutto questa esperienza per aiutare i clienti a sviluppare applicazioni di IA Generativa all’avanguardia. Parallelamente, credo fermamente nel potere della condivisione della conoscenza. Dedico molto tempo alla divulgazione attraverso il mio blog, PPI Consulting, dove i miei articoli hanno superato 1.5 milioni di visualizzazioni. Questa attività mi ha aperto le porte a collaborazioni con il mondo accademico, inclusi atenei di prestigio come ETH e INSEAD, e mi ha dato l’opportunità di presentare i miei progetti in conferenze internazionali. Sono anche un convinto sostenitore del software libero e contribuisco attivamente su GitHub con progetti su IA e visualizzazione dati, che hanno raccolto l’interesse di centinaia di sviluppatori. La mia missione è creare un ponte tra il potenziale teorico dell’IA e le sue applicazioni pratiche, trasformando dati complessi in prodotti innovativi e accessibili, sempre unendo le competenze tecniche a una visione strategica d’impresa.
Il mio ruolo tra 10 anni sarà ... (continua la frase come fossi GPT-10) ...un catalizzatore nell’ecosistema delle giovani imprese innovative, focalizzato sullo sviluppo di prodotti basati nativamente sull’IA. Dedicherò il mio tempo a guidare gruppi di prodotto e a fare da mentore a nuove realtà imprenditoriali, aiutandole a trasformare tecnologie complesse in soluzioni accessibili e utili per le persone. Il mio obiettivo sarà creare un ponte tra la ricerca d’avanguardia e il mercato, promuovendo un’innovazione che sia non solo potente, ma anche responsabile e mirata a risolvere problemi concreti, contribuendo attivamente alla crescita della prossima generazione di aziende tecnologiche.
Quale è la sfida più importante che il mondo dei dati e algoritmi ha di fronte a sé oggi? La sfida più importante oggi è guardare oltre l’attuale euforia per i Large Language Models (LLM) e chiederci se siano davvero l’unica via verso l’Intelligenza Artificiale Generale (AGI). Sebbene i loro progressi siano sbalorditivi, credo che gli LLM da soli non basteranno. La loro abilità nel processare il linguaggio è una componente, ma non l’intera architettura dell’intelligenza. La vera frontiera, a mio avviso, risiede nello sviluppo di modelli fondazionali altamente specializzati, progettati per compiti specifici e complessi. Stiamo già vedendo emergere questa tendenza con sistemi che vanno oltre la semplice generazione di testo. Pensiamo a modelli come GraphCast, che rivoluziona le previsioni meteo, o ad AlphaFold, che continua ad accelerare la scoperta scientifica. Questi non sono LLM generici, ma IA costruite con uno scopo preciso per comprendere il nostro pianeta e l’universo scientifico. Inoltre, la futura AGI dovrà interagire con il mondo. Per questo, l’integrazione di diverse modalità è cruciale. L’intelligenza non è solo conversare, ma è anche agire, creare e simulare. Lo vediamo in ambiti come la robotica, dove i modelli devono tradurre la comprensione linguistica in azioni fisiche, o in sistemi come Genie, capaci di creare interi mondi interattivi da un singolo input. Perciò, la sfida non è solo rendere gli LLM più grandi, ma esplorare architetture ibride che combinano la fluidità linguistica con la capacità di ragionamento simbolico, la comprensione di dati complessi come le serie storiche (ad esempio con TimesFM), e una vera interazione con l’ambiente. È in questa sintesi tra modelli generalisti e specialisti che si trova il percorso più promettente verso un’intelligenza artificiale veramente generale.
Segnalaci il progetto o la risorsa nel mondo dei dati di cui non potresti fare a meno …
La mia risorsa indispensabile è il mio repository su GitHub, “Keeping-Learning”. È una raccolta personale e costante evoluzione di link, articoli, corsi e paper su Intelligenza Artificiale, dati e cloud. In un settore che si muove a una velocità vertiginosa, questo progetto è il mio strumento principale per rimanere aggiornato, organizzare le conoscenze e approfondire nuovi concetti. È più di un semplice elenco: è la mia mappa personale per navigare la complessità del mondo tecnologico e continuare a imparare ogni giorno.
👃Investimenti in ambito dati e algoritmi. Start-up of the month Settembre 2025: Lexroom.ai
Con settembre si chiude anche il terzo quarto dell’anno e iniziano a delinearsi meglio i trend di medio periodo degli investimenti VC a livello mondiale. Come sempre, questo puntuale approfondimento di Crunchbase evidenzia in modo chiaro i movimenti principali. In super sintesi:
📈 Il terzo quarto ha visto investimenti superiori rispetto al precedente e nettamente sopra allo stesso periodo dell’anno scorso, come si vede dall’immagine qui sotto.
🚀 La crescita è fortemente polarizzata sui mega round in ambito generative AI (vedi Anthropic, Mistral, xAI)
🌱 Si nota anche una crescita nei valori investiti nei seed round rispetto allo stesso periodo dell’anno precedente, ma una leggera decrescita rispetto al secondo quarter 2025.
Zoomando sulla vista, parziale ma coerente, del mio personale database registro a settembre 2025 un +40% nei volumi investiti rispetto ad agosto, ma un -10% nel numero dei deal. Le aziende taggate AI & data sono più del 60% di quelle che hanno avuto un investimento
Passando alla start-up del mese, la mia scelta va su un’azienda italiana: Lexroom.ai. In 18 mesi ha chiuso tre round consecutivi e sta portando l’AI “dentro” gli studi legali.
Nata in Italia, oggi punta a scalare in Europa con un assistente AI che:
risponde a quesiti giuridici in linguaggio naturale
cita le fonti
aiuta nella ricerca, analisi documentale e redazione degli atti
Dietro c’è un trio di founder molto complementare: Paolo Fois (CEO), Martina Domenicali e Andrea Lonza. I tre si incontrano nell’ecosistema di Vento, venture builder finanziato da Exor, e nel 2023 danno vita a una piattaforma “AI-first” pensata per studi e uffici legali.
Per i clienti enterprise è prevista una libreria privata che isola i dati e non li usa per addestrare i modelli. I clienti e i casi d’uso spaziano da grandi studi internazionali a team legali corporate. Tra i Clienti: Osborne Clarke, Fastweb, Satispay, Mediolanum.
📊 Il percorso di funding è bello serrato:
Pre-seed: €500k (16 gen 2024) da angel + Vento Ventures
Seed: €2M (11 mar 2025) guidato da Entourage, con Verve Ventures, Banyan Ventures, Joe Zadeh (angel), e ancora Vento Ventures e X-Equity
Series A: €16M a fine settembre, guidato da Base10 Partners con Acurio Ventures, View Different, Diego Piacentini, Riccardo Zacconi e altri investitori già presenti nei round precedenti
I nuovi capitali saranno usati per rafforzare il prodotto e scalare in Germania e Spagna. Il segmento Legal AI è internazionale, affollato e super capitalizzato. In questo scenario, Lexroom gioca una carta chiara:
👉 verticalizzazione sul civil-law europeo
👉 qualità e trasparenza delle fonti
👉 sicurezza dei dati by design
Una strategia sensata per differenziarsi dagli incumbent anglo-americani, più generalisti, mentre si costruisce una presenza locale nelle nuove giurisdizioni. Se ce la faranno lo dirà, come sempre… il tempo. Ma tra prodotto centrato sul lavoro reale dei legali, founder solidi, early traction e un A-round di peso, Lexroom.ai è una delle scommesse europee da tenere d’occhio nel 2026! 💼🤖
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. Il vero blocco (nelle aziende) oggi? Decidere cosa fare!
“L’invenzione di strumenti di scrittura moderni come la macchina da scrivere ha reso la scrittura più facile, ma ha anche portato all’ascesa del blocco dello scrittore, in cui decidere cosa scrivere è diventato il collo di bottiglia. Allo stesso modo, l’invenzione di assistenti di scrittura del codice ha portato a un nuovo blocco nella costruzione di prodotti, in cui l’impasse consiste nel decidere cosa costruire. Lo chiamo il collo di bottiglia del Product Management. Il Product Management è l’arte e la scienza del decidere cosa costruire. Poiché la codifica altamente agentica accelera la scrittura del software in base a una specifica di prodotto data, decidere cosa costruire è il nuovo collo di bottiglia, soprattutto nei progetti nelle fasi iniziali. Man mano che i team con cui lavoro sfruttano i coder agentici, attribuisco un valore crescente ai product manager (PM) che hanno un’elevatissima empatia verso l’utente e sanno prendere decisioni di prodotto rapidamente, così che la velocità della presa di decisioni di prodotto eguagli la velocità della codifica. I PM con alta empatia verso l’utente possono decidere d’istinto e spesso risultano corretti. Man mano che arrivano nuove informazioni, possono continuare a perfezionare i loro modelli mentali di ciò che piace o non piace agli utenti, e quindi affinare il proprio istinto, e continuare a prendere decisioni rapide di qualità crescente.”
Questo è l’inizio dell’editoriale di Andrew Ng nella sua newsletter 310 . E devo dire che sono d’accordo al 100% con quanto scrive.
Il Product Management fatto bene era già un grosso collo di bottiglia anche in tempi in cui gli assistenti di codice erano molto meno performanti di oggi o nemmeno esistevano.
Ho visto questa dinamica diventare critica soprattutto in start-up che dovevano scalare rapidamente, e in cui il founder, spesso il vero product manager nella fase iniziale, ha avuto grosse difficoltà a trovare qualcuno che lo sostituisse o che riuscisse ad accelerare ulteriormente lo sviluppo dei prodotti.
E questo, nella mia esperienza, è uno dei punti più delicati da risolvere per quasi tutte le start-up dopo aver ricevuto un investimento, se vogliono davvero scalare.
Ma l’editoriale di Andrew Ng non si limita a descrivere questo punto di vista: ci racconta anche, con esempi pratici, quanto sia centrale il ruolo del product manager e quanto siano diversi e sfaccettati i modi in cui può essere interpretato ed esercitato con efficacia e in modo moderno!
👀 Data Science. Cosa ci insegna Kevin Murphy sul Reinforcement Learning (senza farci perdere la testa 😅)
Il Reinforcement Learning è una branca del machine learning, insieme all’apprendimento supervisionato e non supervisionato, dedicata ai compiti di decisione sequenziale. In questi problemi, un agente deve imparare a scegliere azioni in un ambiente esterno per massimizzare una ricompensa cumulativa nel tempo. A ogni passo, l’agente osserva lo stato corrente (o un segnale da cui può inferirlo) e seleziona un’azione; l’ambiente risponde con una nuova osservazione e un reward (segnale di ricompensa), che indica quanto è desiderabile la transizione di stato causata dall’azione scelta. L’obiettivo finale è apprendere una politica ottimale, cioè una strategia di azione che massimizza il rendimento atteso nel lungo termine, in pratica la somma delle ricompense future, dando un po’ meno peso a quelle molto lontane nel tempo. A differenza dell’apprendimento supervisionato (in cui si impara da esempi etichettati), il Reinforcement Learning è più complesso: l’agente deve esplorare l’ambiente e scoprire, attraverso tentativi ed errori, quali azioni portano a ricompense. Il reward è spesso ritardato nel tempo, quindi in pratica devi bilanciare tra provare cose nuove o sfruttare ciò che già funziona, e capire a quale azione passata attribuire il merito della ricompensa.
Il Reinforcement Learning è importante perché fornisce un quadro generale per affrontare problemi in cui non si sa a priori come raggiungere un obiettivo: l’agente deve imparare dalle proprie interazioni. Lo si usa sempre più spesso per compiti complessi e non facilmente inquadrabili, come insegnare a un robot a svolgere un’attività specifica, addestrare un agente a giocare a un videogioco, ottimizzare la temperatura in un sistema di raffreddamento di un data center o addestrare un chatbot a dare risposte utili e sicure, anche con tecniche che imparano dalle preferenze delle persone. Nel mondo business trovi anche sistemi che testano diverse opzioni e imparano quale funziona meglio per ciascun utente o contesto, e strategie di prezzo che si adattano al momento, il tutto rispettando regole di sicurezza e vincoli operativi.
L’approfondimento che ti consiglio questa settimana è proprio sul reinforcement learning e, come dice il titolo, “Reinforcement Learning: An Overview”, fornisce un quadro unificato e aggiornato del campo... ma è anche piuttosto tosto 😅
L’ha scritto Kevin P. Murphy, ricercatore a Google e già professore all’Università della Columbia Britannica. È noto per aver scritto testi fondamentali sul machine learning, che ti avevo già consigliato qui e qui.
Il Reinforcement Learning, come ti dicevo, è un ambito davvero complesso, dove la matematica e gli algoritmi di ottimizzazione la fanno da padroni. Non è un paper da leggere tutto d’un fiato: già solo sfogliare il sommario e leggere l’introduzione può essere un esercizio prezioso (e impegnativo) 💪.
👅Etica & regolamentazione & impatto sulla società. Conoscere l’IA per davvero: tra Ethan Mollick, scuole cinesi e rivoluzioni digitali per salvare (forse) il mondo …
Siamo davvero agli albori dell’interazione tra esseri umani e intelligenze artificiali, almeno su larga scala (miliardi di individui al giorno). Ma si cominciano già a intravedere pattern interessanti su cui vale la pena riflettere. In questa sezione della newsletter ti condivido alcuni spunti che ho trovato stimolanti sull’argomento, tutti legati, almeno secondo me, da un minimo comune denominatore: l’importanza di conoscere queste intelligenze artificiali, praticarle e, perché no, cercare di capirle. Quasi come dovremmo fare anche con le intelligenze umane 😀.
I suggerimenti di approfondimento sono tre: il numero perfetto 🙂.
Partiamo dal commento di Ethan Mollick su un recente paper ancora in stato di pre-pubblicazione, dal titolo e dai contenuti molto interessanti: “Quantifying Human-AI Synergy”. Leggerlo è utile ma anche piuttosto complesso. L’ho fatto, ma ti assicuro che il post su LinkedIn che ti riporto di Mollick cattura il 95% del significato del paper:
“Alcuni risultati importanti di questo studio sul lavoro umano con l’IA:
1) Lavorare con l’IA aumenta le prestazioni nel risolvere quesiti di matematica, scienze ed etica.
2) Il miglioramento più marcato si osserva sui problemi più difficili.
3) Chi ha già performance elevate rimane al vertice anche usando l’IA; chi parte da livelli più bassi però guadagna di più, fino a un certo limite.
4) Le persone più competenti nell’uso dell’IA ottengono i benefici maggiori. Non è del tutto chiaro che cosa significhi “essere bravi con l’IA”: lo studio lo definisce “teoria della mente” (Theory of Mind). Non sono sicuro che sia il costrutto che userei, ma sembra implicare un’intuizione di come l’IA “pensa”.”
Poi, ti segnalo questo numero di Legge Zero di Ernesto Belisario , che parla di AI Literacy e di cosa si sta facendo in giro per il mondo su questo fronte. Mi ha colpito in particolare che:
“dal 1° settembre di quest’anno … inizierà una piccola grande rivoluzione sui banchi delle scuole cinesi: per la prima volta, gli studenti - dalle elementari alle superiori - seguiranno almeno otto ore annue di lezione sull’intelligenza artificiale. I più piccoli impareranno attraverso attività pratiche e giochi a base di chatbot e robotica, mentre i più grandi approfondiranno machine learning, etica dell’IA e applicazioni avanzate. L’obiettivo dichiarato di questo primo esperimento è coltivare le competenze chiave degli innovatori di domani. Il Ministro dell’Istruzione Huai Jinpeng non ha dubbi e ha definito l’IA la “chiave d’oro” per il futuro dell’istruzione del Paese.”
Infine, il contributo di Mafe de Baggis che nel numero 200 (auguri! ☺️) della newsletter Koselig scrive:
“Dovrei dirlo più spesso, con più forza e più chiarezza: io insegno a conoscere le piattaforme digitali, AI compresa, non per usarle come previsto, ma per usarle come strumenti per fare la rivoluzione. Internet così com’è adesso è un mezzo di produzione del sapere espropriato per la sua stessa natura, come se tutti adesso avessimo una rotativa in tasca. Hai mai pensato che la possibilità di pubblicare il tuo pensiero quasi gratis è un diritto? Io sì, perché è un diritto che ho avuto troppo tardi. Prova a pensare di non averlo più, da domani.”
… e poi parla anche di intelligenza artificiale e ancora di rivoluzione (ma senza fucili o droni!)
Non so francamente se sarà una rivoluzione, un’ora di intelligenza artificiale al giorno o un gruppo di imprenditori illuminati a salvare il mondo. Non so neppure se il mondo si salverà. Spesso, tra l’altro, penso che salvare il mondo sia una prospettiva troppo antropocentrica. Quello che penso, però, è che per contribuire a stare meglio nel mondo, insieme a tante altre intelligenze, umane e artificiali, la conoscenza e il nostro impegno ad acquisirla e a democratizzarla, il più possibile, siano un passo necessario. Anche se non sufficiente. A meno che non lo si faccia in maniera veramente collettiva.
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!



Grazie dottore. Non essendo un addetto ai lavori a volte la seguo con difficoltà ma trovo i suoi sunti e rimandi agli altri substack e la sue valutazioni veramente preziose e interessanti.
Saluti