LaCulturaDelDato #197
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il centonovantasettesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Ecco i cinque spunti del centonovantasettesimo numero:
👃Investimenti in ambito dati e algoritmi. Da Napoli alla Silicon Valley e ritorno: il viaggio di Luigi Congedo nell’AI con DataMasters e non solo …
Presentati: Luigi Congedo. Sono attratto dall’incrocio tra tecnologia e imprenditorialità, che mi ha portato a costruire il mio futuro in Silicon Valley. Napoli mi ha insegnato resilienza e relazioni autentiche: dopo Economia Aziendale alla Federico II e esperienze all’estero in Spagna ed Irlanda ho scelto di spingermi oltre l’Europa. Non è stata solo ambizione: era fame di conoscenza, desiderio di imparare dai migliori del mondo del tech e immergermi nell’ecosistema più innovativo del pianeta. In California ho lavorato in varie aziende (Samsung, RadiumOne, AngelHack) e nel 2015 sono poi entrato in un Venture Capital, BootstrapLabs (acquisito poi da Ares Capital), con cui ho investito in oltre 35 startup di AI e Machine Learning tra IPO, exit e qualche fallimento. In un ambiente iper-competitivo come quello Californiano, dove la velocità è tutto, la capacità di creare rapporti veri è stata una delle mie armi più forti. Grazie a questo ho conosciuto investitori, founder, ricercatori e visionari che hanno arricchito il mio percorso e stimolato nuovi modi di vivere imprenditorialità e innovazione. Ed ora sono anche angel investor supportando diverse startup in fase early stage e affiancando i founder come advisor. Oggi con DataMasters.it cerco di riportare questo know-how in Italia per aiutare professionisti e imprese a usare l’AI con coraggio, curiosità e responsabilità. È il mio modo di restituire valore: mettere l’esperienza maturata negli Stati Uniti al servizio di chi vuole costruire il futuro qui. Credo profondamente che l’innovazione non sia solo tecnologia, ma un atto di coraggio, curiosità e responsabilità. Ed è con questo spirito che continuo il mio percorso.
Il mio ruolo tra 10 anni sarà ... (continua la frase come fossi GPT-10) : Tra dieci anni mi vedo impegnato su tre livelli: personale, professionale e sociale. Spero di conservare la mia curiosità, il motore che mi spinge a imparare, mettermi in discussione e sostenere founders più giovani. Vorrei contribuire a un’Italia più meritocratica, aperta all’innovazione e più capace di valorizzare il talento, indipendentemente dal punto di partenza. Mi immagino punto di riferimento internazionale nell’AI applicata a formazione e impresa, costruendo ponti tra Stati Uniti e Italia. Sogno anche di lanciare un mio fondo d’investimento e, con Data Masters, aiutare migliaia di persone e aziende a usare l’AI in modo concreto e consapevole. Uno degli insegnamenti più importanti ricevuti in Silicon Valley è quello di essere un paranoico ottimista: sempre attento ai rischi, ma convinto che con le persone giuste, la visione giusta e tanta dedizione al lavoro si possano costruire soluzioni anche quando sembrano impossibili. Questa è la mentalità che voglio portare avanti anche tra dieci anni.
Quale è la sfida più importante che il mondo dei dati e algoritmi ha di fronte a sé oggi? La sfida dell’AI oggi è più culturale che tecnica: l’innovazione va più veloce della nostra capacità di integrarla. Serve imparare in fretta, sperimentare, fare ricerca applicata che trasformi esperimenti in soluzioni reali. Entriamo nell’era dei “super humans”, con l’AI compagno cognitivo nel lavoro e nelle decisioni. Le grandi sfide: educare milioni di persone, portare l’AI davvero in produzione nelle aziende e garantire sicurezza, governance e affidabilità, anche su robot e dispositivi autonomi. Bisogna democratizzare le competenze e integrare ora l’AI in processi creando valore economico e sociale.
Segnalaci il progetto o la risorsa nel mondo dei dati di cui non potresti fare a meno … Nel mio percorso, ho capito che quasi nulla è fuori dalla nostra portata e che il fulcro di tutto sono sempre le relazioni umane che crei. Le informazioni oggi sono accessibili in pochi click; ma il mio vero vantaggio è il network reale e continuativo che ho costruito, dai mentor di BootstrapLabs alle persone che guidano l’AI. Confrontarmi con loro mi aiuta ad anticipare i trend e portare in Italia una visione più matura e internazionale dell’innovazione. Ho visto nascere i primi chatbot e modelli generativi, lavorando accanto a giovani founder, diventati poi leader. Porto con me i loro insegnamenti sul modo di vedere il mondo e costruire valore.
PSS (Post Scriptum di Stefano): Luigi è un personaggio poliedrico e straordinario con cui mi sono sentito diverse volte in questi ultimi anni e che ha allargato diverse volte la mia prospettiva. E’ difficile cogliere il suo valore in una breve intervista come ci consente il format standard di questa newsletter. Per questo se ti è piaciuta questa versione breve della sua intervista ti condivido qui anche la versione più lunga ma di grandissimo valore: buona lettura! Fammi sapere se il formato più lungo di piace magari anche di più 🙂
🖐️Tecnologia (data engineering). LangFlow: il mattoncino visuale per costruire i tuoi agenti RAG
LangFlow è uno dei mattoncini più interessanti all’interno dei framework per agenti e RAG: un ambiente visuale, open source e Python-based che ti permette di costruire pipeline AI collegando blocchi drag and drop e poi pubblicandoli come API o server MCP.
L’ho provato recentemente in un piccolo progetto personale e mi è piaciuto molto per la semplicità e la capacità di arrivare a un primo prototipo e capire e misurare la consistenza del caso d’uso. Come sempre devi avere chiare le idee su quello che vuoi ottenere e su come riesci a misurare il risultato, a seconda delle configurazioni che puoi provare con LangFlow.
La soluzione nasce in Logspace, startup brasiliana focalizzata sull’integrazione di modelli ML nei processi aziendali, come “strato visuale” sopra tool come LangChain per ridurre la scrittura di codice e rendere leggibili i flussi anche a chi lo conosce meno. Nel 2024 DataStax ha acquisito Logspace per usare LangFlow come cuore visuale del proprio stack GenAI e RAG, integrato con Astra DB e un ecosistema di componenti riutilizzabili. Dal punto di vista del modello di sviluppo resta però un progetto aperto: il repository è pubblico, licenza MIT, centinaia di contributors e migliaia di stelle su GitHub. Puoi installarlo in locale, in container o come app desktop, oppure puoi appoggiarti al cloud gestito, mantenendo la stessa esperienza di sviluppo tra versione open source e versione hosted.
La documentazione del prodotto mostra pattern già pronti per chat aziendali su policy e manuali interni, chatbot per l’e-commerce che interrogano un product store, sistemi di analisi documentale per PDF e contratti, generatori di contenuti guidati, oltre a flussi multi-agente che combinano ricerca, retrieval e orchestrazione di strumenti esterni.
Per chi vuole approfondire in dettaglio le varie componenti di cui è composto, RAG in testa, segnalo come approfondimento questo articolo di David Andrés nella sua newsletter mlpills, dedicato alla costruzione di un “no-code customer service agent” basato su LangFlow:
Se stai valutando piattaforme per co-pilot interni o RAG, LangFlow è un candidato serio da mettere in short list accanto ai framework più code-driven, almeno per vedere se il tuo caso funziona e quali sono, LLM in testa, i componenti da usare nel progetto finale.
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. Dal sogno di Keynes alla leva di Channing Allen: come l’AI “alza” l’asticella
Nel 1930 Keynes prevedeva che l’automazione ci avrebbe regalato settimane lavorative da 15 ore. Il futuro di cui parlava Keynes non è ancora arrivato e non è detto che neppure il nuovo trend della generative AI ci porti a questo traguardo 🙂
L’approfondimento che ti suggerisco in questa sezione della newsletter inquadra questo tema attraverso quello che Channing Allen, co-founder di Indie Hackers, chiama il paradosso della leva (leverage paradox). Il paradosso della leva spiega perfettamente questa dinamica: ogni nuova tecnologia riduce lo sforzo per ogni singolo task, ma siccome tutti hanno accesso agli stessi strumenti, il livello di competizione si alza vertiginosamente. Prima dovevamo salire una scala a piedi, ora abbiamo le scale mobili: peccato che vadano verso l’alto all’infinito e che tutti corrano sopra.
Channing Allen propone due strategie per non farsi travolgere: l’”hundred-shot approach” (non accontentarsi del primo output dell’AI, ma rifinirlo 100 volte) e la “purple cow” di Seth Godin (essere diversi, non solo migliori). A mio giudizio, però, c’è una terza via che diventerà dominante: puntare su tutto ciò che l’AI non può (ancora) “commoditizzare”.
Tre investimenti anti-paradosso che ti consiglio:
Esperienze dal vivo non falsificabili: workshop, conferenze, mentoring diretto; l’unico contenuto che richiede presenza fisica autentica.
Servizi e prodotti con interazione umana tangibile: consulenza personalizzata, artigianato digitale, tutto ciò che richiede giudizio contestuale e responsabilità.
Personalizzazione profonda: non template customizzati, ma soluzioni costruite sulla storia specifica di un’organizzazione.
Organizzazioni e persone, se vogliono continuare a essere rilevanti in futuro, dovranno andare anche in questa direzione… al contrario della leva 🙂
👀 Data Science. La confusion matrix: capire davvero cosa sbaglia il tuo modello (e perché conta)
Se hai avuto a che fare con un problema di classificazione ( per esempio malattia presente/malattia non presente in un paziente), hai incontrato la confusion matrix.
È uno degli strumenti più potenti per capire dove il tuo algoritmo sbaglia, non solo quanto. E, soprattutto, per decidere quale tipo di errore sei disposto a tollerare. Il cuore della questione sta in due metriche spesso non comprese fino in fondo: sensitivity (o recall) e specificity. La sensitivity misura quanto il modello è bravo a identificare i veri positivi: su tutte le persone che hanno una certa condizione, quante vengono correttamente individuate dal tuo modello? La specificity, al contrario, misura quanto il modello è bravo a scartare i veri negativi: su tutte le persone sane, quante vengono correttamente classificate come tali?
L’approfondimento di oggi è tratto da un progetto di divulgazione, “Statistics by Jim”, che ti avevo già segnalato e che, in questo post, approfondisce proprio queste due metriche in maniera molto pragmatica e con esempi concreti. Come spiega bene Jim Frost nel post, queste due metriche non si sommano a uno. Anzi sono in tensione o meglio in trade-off.
Un esempio illuminante viene dalla medicina. Immagina un test diagnostico per il cancro con sensitivity al 100%: non perde nessun malato. Sembra perfetto… ma, se ha specificity bassa, genererà un’ondata di falsi positivi: persone sane che ricevono una diagnosi positiva, con tutto il carico di ansia, esami invasivi e costi che ne conseguono. Il panico collettivo è garantito. Viceversa, un test con specificity altissima ma sensitivity bassa rischia di mandare a casa persone malate con un falso senso di sicurezza. Decidere dove posizionarsi su questo trade-off è una scelta di business e di etica, non solo di data science.
Lo stesso vale nel mondo aziendale. Nel fraud detection, ad esempio, preferisci bloccare qualche transazione legittima in più (falsi positivi, clienti bloccati magari in coda alle casse del supermercato) o lasciar passare qualche frode (falsi negativi, perdite economiche)? Nel credit scoring, è meglio rifiutare clienti buoni o approvare clienti che non pagheranno? Non esiste una risposta giusta in assoluto. Esiste la risposta giusta per il tuo contesto e anche per l’approccio etico che vuoi mantenere.
Tre consigli pratici:
Non guardare solo l’accuracy: su dataset sbilanciati (numero di casi positivi percentualmente molto più piccolo del numero di casi negativi) può essere fuorviante.
Definisci prima quale errore ti costa di più, poi calibra la soglia del modello di conseguenza. Su questo tema ne aveva scritto in maniera eccellente Colin Fraser in un articolo che ti avevo segnalato nel numero 27 della newsletter.
Per approfondire, parti dalla pagina Wikipedia sulla confusion matrix, chiara e ricca di metriche derivate.
Capire confusion matrix, sensitivity e specificity non è un esercizio solo accademico. È il modo più concreto per trasformare un modello in una discussione seria su rischi, benefici e conseguenze in tutti i tipi di decisioni che devi prendere.
👅Etica & regolamentazione & impatto sulla società. Danimarca, AI e dati biometrici: riflessioni su un possibile approccio normativo che arriva da nord
Chi mi legge da un po’ sa quanto, per lavoro e non, frequenti e ami la Danimarca, dal welfare all’hygge, passando per il loro pragmatismo, anche in fatto di innovazione. Proprio per questo, quando la Danimarca diventa laboratorio normativo, per giunta, in questo caso, sull’AI, guardo il tutto con molta attenzione.
Per contrastare i deepfake, il governo danese ha elaborato un’idea forte e controversa. La proposta è pionieristica perché intende trasformare i tratti somatici e la voce delle persone in una sorta di proprietà intellettuale (copyright) per combattere i deepfake generati dall’intelligenza artificiale. Cosa cambia: oggi, per rimuovere un video deepfake, bisogna spesso dimostrare un danno alla reputazione o una violazione della privacy (un processo lento). Con questa legge, l’uso non autorizzato della tua immagine o voce verrebbe trattato come una violazione del diritto d’autore, consentendo una rimozione molto più rapida e la richiesta di danni senza dover provare intenti diffamatori.
Chi protegge: la tutela si estenderebbe a tutti i cittadini (non solo alle celebrità) per la durata della vita più 50 anni dopo la morte.
Eccezioni: rimarrebbero legali i contenuti creati per satira, parodia o critica sociale, per tutelare la libertà di espressione.
In sintesi, la Danimarca sta cercando di essere la prima nazione al mondo a dare ai cittadini il “copyright” sul proprio corpo digitale, ma la legge è ancora in fase di perfezionamento e di vaglio europeo prima di diventare realtà.
L’approfondimento che ti suggerisco su questo tema, tra i tanti che ho letto, è quello di un legale italiano specializzato su questi temi, Andrea Monti, che ha scritto di questo su MIT Technology Review Italia. Andrea Monti contesta alla radice questa impostazione: i dati biometrici non sono creati ma scoperti, quindi non sono opere dell’ingegno. Trattarli come copyright, sostiene, significa trasformare in merce l’identità informazionale dell’individuo e rendere i dati vendibili, licenziabili e difficili da recuperare una volta ceduti. C’è poi un altro confine delicato: il testo esclude in teoria caricatura, satira, critica del potere e parodia, ma solo finché il deepfake non rischia di creare disinformazione grave. In un ecosistema dove le piattaforme sono incentivate a rimuovere “per prudenza”, la tentazione sarà filtrare automaticamente qualunque contenuto ambiguo, con il risultato che una legge pensata contro gli abusi dell’AI potrebbe diventare, nei fatti, uno strumento di censura collaterale su satira e dissenso politico.
Per una volta mi sento di esprimere perplessità su questa scelta danese, ma la legge è ancora in discussione al Parlamento e difficilmente sembra possa essere approvata prima del secondo trimestre del 2026, dopo anche la supervisione europea. Stay tuned!
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!





Stefano, this article arrives perfectly, showing even my pilates journey needs the resilience Luigi found navigating the AI ecosystem, minus the exits, thankfully.
Che dire: contenuto bellissimo, come sempre. Ma soprattutto potente la tua interrogazione su chi essere tra 10 anni. Solo da lì possiamo capire come contribuire all’evoluzione della tecnologia grazie al pensiero umano.