LaCulturaDelDato #208
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il duecentoottesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Ecco i cinque spunti del duecentoottesimo numero:
👃Investimenti in ambito dati e algoritmi. Etna Research, PugliaTechs e il futuro: la visione di Marco Jean Aboav su dati, algoritmi e innovazione
Presentati: Marco Jean Aboav. Ingegnere con un dottorato di ricerca in Industrial Engineering al Politecnico di Milano, ho maturato oltre quindici anni di esperienza tra ricerca accademica, finanza quantitativa e tecnologie dei dati tra Londra e l’Italia. Dopo aver iniziato la mia carriera come quantitative researcher e portfolio manager nel settore finanziario, ho fondato Etna Research, società specializzata nello sviluppo di soluzioni AI per supportare la costruzione di strategie di investimento. Etna nasce con l’obiettivo di unire innovazione, ingegneria e applicazioni concrete nel campo delle strategie quantitative e della ricerca finanziaria avanzata. Parallelamente, da appassionato di tecnologia e imprenditorialità, ho cofondato PugliaTechs APS, una associazione no profit focalizzata nel trasformare la Puglia in un global tech hub.
Il mio ruolo tra 10 anni sarà ... (continua la frase come fossi GPT-10) Il mio ruolo tra 10 anni sarà essere al centro dell’innovazione finanziaria, contribuendo allo sviluppo di nuove applicazioni basate su dati e intelligenza artificiale per trasformare il modo in cui vengono costruite strategie e servizi nel settore. Allo stesso tempo, voglio avere un impatto concreto sulle nuove generazioni, soprattutto sui temi dell’imprenditorialità e della capacità di creare valore attraverso la tecnologia. Mi piace lavorare con i giovani e con chi sta muovendo i primi passi nelle organizzazioni, perché credo che renderli operativi, curiosi e motivati su ambiti strategici sarà sempre più importante. Non sarà più possibile essere protagonisti nel mondo del lavoro senza saper collaborare con dati e AI. Per questo l’apprendimento e la cultura dell’innovazione saranno ancora più centrali rispetto a oggi.
Quale è la sfida più importante che il mondo dei dati e algoritmi ha di fronte a sé oggi? La sfida più importante che il mondo dei dati e degli algoritmi ha oggi di fronte, soprattutto in ambito finanziario e tecnologico, è colmare il divario tra innovazione tecnica e impatto reale sul business. Troppo spesso si sviluppano modelli sempre più sofisticati senza una piena comprensione della qualità, dell’origine e del significato dei dati, oppure senza un legame diretto con i problemi concreti da risolvere. Il rischio è costruire soluzioni teoricamente avanzate ma poco adottabili. Serve un cambio di prospettiva reciproco: il business deve acquisire una maggiore familiarità con data science e AI, mentre chi lavora su algoritmi deve essere più vicino al contesto operativo e alle esigenze degli utenti finali. Solo integrando dati, infrastruttura e decisioni strategiche l’innovazione potrà generare valore sostenibile.
Segnalaci il progetto o la risorsa nel mondo dei dati di cui non potresti fare a meno …Senza dubbio una combinazione di strumenti che oggi stanno cambiando il modo in cui un AI scientist lavora e sviluppa soluzioni tecniche. In particolare, modelli come Anthropic Claude sono diventati partner quotidiani per ragionare su architetture, prototipare codice e trasformare rapidamente idee in implementazioni concrete. Un altro tool straordinario è Wispr Flow, che abilita l’interazione vocale e permette di “pensare parlando”, accelerando la fase di progettazione e debugging anche in mobilità. Questi strumenti non sostituiscono la competenza, ma amplificano la capacità di esplorare, comunicare e costruire sistemi complessi. Integrati con l’ecosistema Python e le piattaforme di ricerca, rappresentano oggi una risorsa imprescindibile per chi vuole sviluppare innovazione data & AI-driven in modo rapido, iterativo e scalabile.
🖐️Tecnologia (data engineering). Meno storytelling, più fisica: la robotica secondo Ken Goldberg e il “data gap” da 100.000 anni
È da tempo che parlo di robotica come una delle next big things dell’AI. Ho anche spesso ospitato voci molto ottimiste. Però ho imparato, sbagliando, che vanno ascoltate anche le voci contrarie alle teorie più “mainstream”, soprattutto se chi le supporta è qualcuno che ha esperienza nell’ambito e argomenta bene la sua posizione.
L’approfondimento che ti consiglio oggi è stato pubblicato da Berkeley News e va esattamente in questa direzione. La voce “contraria” qui è Ken Goldberg. È professore a UC Berkeley, PhD in Computer Science a Carnegie Mellon, e ha una storia lunghissima in robotica “seria”, inclusa una delle cose più sottovalutate della disciplina: capire come rendere l’automazione affidabile ed economica, non solo “possibile” in laboratorio. Infatti il suo lavoro è anche immerso nella parte industriale: sul suo sito si presenta anche come co-founder e chief scientist di Ambi Robotics (robot per il sorting dei pacchi) e co-founder di Jacobi Robotics. La tesi dell’intervista è brutale ma utile: i robot stanno avanzando, sì, ma non con la stessa velocità con cui stanno avanzando i chatbot. Goldberg definisce “hype” l’analogia facile “se l’AI ormai parla e vede, allora fra un attimo avrà anche un corpo umanoide che fa tutto”, e prova a “resettare le aspettative” per evitare la classica dinamica da bolla. Quando gli chiedono se sia plausibile vedere robot che superano i chirurghi umani in cinque anni, risponde secco: no. E rincara: non lo vede nei prossimi 2, 5, nemmeno 10 anni. Il motivo principale non è la mancanza di “intelligenza”, ma la mancanza di destrezza: prendere un calice senza romperlo, cambiare una lampadina, fare micro-aggiustamenti con le dita. Qui entra anche Moravec: ciò che per noi è banale (mani, percezione, contatto), per le macchine è tremendamente difficile.
Poi arriva l’argomento forte: il “data gap” da 100.000 anni. Goldberg fa un calcolo volutamente provocatorio ma chiarissimo: la quantità di testo su cui si addestrano gli LLM corrisponde, a spanne, a 100.000 anni di lettura umana. Quella scala di dati, nel mondo fisico, non esiste. E, anzi, dice che per addestrare robot serviranno ancora più dati, perché il mondo reale è più complesso della lingua. L’idea “prendiamo i video di YouTube e impariamo a fare le cose guardando gli umani” non basta: dal 2D al 3D è dura, e nei video non hai le micro-traiettorie, le forze, i contatti, gli errori corretti al millimetro.
Ma Goldberg non sta dicendo “non investite nella robotica”, sta dicendo “investite bene”. Parla di una frattura in corso nel settore: da un lato i “data-only” (basta scalare i dati e arriva l’umanoide generalista), dall’altro i “good old-fashioned engineering” (fisica, modelli, vincoli, progettazione). La sua proposta è ibrida: usare ingegneria e modelli per rendere i robot abbastanza utili da essere comprati e messi al lavoro, così da raccogliere dati reali e migliorare nel tempo. E mentre tutti discutono di LLM che rubano lavori “white-collar”, lui dice una cosa controintuitiva: i mestieri manuali sono (per ora) molto più “sicuri” dei lavori d’ufficio ripetitivi. Questo non è un invito a rilassarsi, è un invito a investire con meno storytelling e più fisica 🙂.
👀 Data Science. Qiusheng Wu non si è fermato: da Google Earth Engine a DuckDB, GeoAI e 3 libri in 2 anni
“Questo libro, accessibile gratuitamente, del professore Qiusheng Wu, associato al Dipartimento di Geografia e Sostenibilità dell’Università del Tennessee, è l’ideale. Con pochi clic, dopo esserti registrato al progetto con l’account Google, potrai sperimentare l’emozione di accedere (anche via Colab) a tutte le risorse del Earth Engine con poche righe di Python.“
Questo è quello che avevo scritto presentando il libro su Google Earth Engine e Geemap di Qiusheng Wu, che era stato il link più cliccato della newsletter 86. Da quel momento, Wu non ha rallentato. Anzi, ha accelerato in una direzione che incrocia perfettamente alcuni temi a noi cari: DuckDB, i dati geospaziali e l’intelligenza artificiale applicata all’osservazione della Terra. Oltre al libro su Earth Engine che avevi apprezzato, Wu ha pubblicato Spatial Data Management with DuckDB a novembre 2025: una guida pratica che parte dalle basi SQL e arriva all’analisi geospaziale avanzata con DuckDB. Il libro è disponibile in 6 lingue (inglese, spagnolo, cinese, francese, tedesco e PDF su Leanpub), con tutto il codice open source su GitHub. A questo si aggiunge Introduction to GIS Programming una guida Python per chi parte da zero nel mondo geospaziale. Ma il progetto più interessante di Wu è probabilmente GeoAI, un pacchetto Python pubblicato nel 2026 sul Journal of Open Source Software che semplifica l’applicazione di modelli di machine learning a immagini satellitari. Come dice Wu in un’intervista recente: il suo obiettivo non è creare ogni modello, ma rendere più facile per gli altri costruire i propri. Nel frattempo Wu è passato dal ruolo di visiting a quello di Amazon Scholar a tutti gli effetti, ha vinto lo Spatial Impact Award 2025 e il suo ecosistema open source su GitHub (geemap, leafmap, segment-geospatial, geoai) ha superato le 8.500 citazioni su Google Scholar. Il suo canale YouTube con tutorial gratuiti continua a crescere. Quello che mi colpisce di Wu è la coerenza tra ricerca, didattica e produzione open source. È un modello di “open knowledge” che funziona e che produce grande impatto.
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. “Kodak moment” per la consulenza? Reuters + Retterath spiegano perché l’AI può cambiare le regole
L’approfondimento che ti consiglio di leggere oggi, “AI Is Killing Consulting - Slowly, Then Suddenly“, è stato scritto a fine ottobre 2025. Eppure non solo non è invecchiato male: è diventato ancora più attuale.
Più attuale perché, se andiamo a guardare l’andamento in borsa di alcune delle più importanti aziende di consulenza mondiali, la traiettoria sembra ancora più ribassista rispetto alla situazione di fine ottobre riportata anche da Retterath nel suo post. E lo vedi anche nell’altro consiglio di lettura di oggi su questo tema: l’articolo di Reuters “AI sets up Kodak moment for global consulting”.
La tesi di Andre Retterath è questa: in un’industria matura che cresce solo del 2–5% annuo, è difficile aumentare drasticamente l’output (cioè il numero di progetti). Di conseguenza, i guadagni di produttività dell’IA si traducono in una riduzione dell’input (cioè le risorse umane). E il tutto si poggia su tre punti principali:
Il problema strutturale: le aziende stanno licenziando (o assumendo molto meno) i junior, poiché l’IA è già in grado di generare report e slide (il tipico lavoro dei neo-assunti).
Il paradosso dei costi: licenziare i junior riduce di molto il numero di dipendenti ma di poco i costi totali, poiché gli stipendi più alti sono quelli dei partner senior.
L’impasse dei partner: le società di consulenza sono partnership dove è quasi impossibile licenziare i soci senior per tagliare i costi. Questo rende le strutture pesanti e poco competitive rispetto ai nuovi player.
L’andamento, in un senso o nell’altro, delle quotazioni in borsa non sempre riflette l’andamento di un’azienda, ma è molto più probabile nel caso in cui l’andamento sia più generalizzato al settore. È anche vero che l’impatto dell’IA costringe tutte le aziende a un ripensamento radicale e, nel passato, questi momenti sono stati favorevoli all’industria della consulenza. E’ difficile però che succeda anche questa volta. Non so se vivrà proprio un momento “Kodak”, anzi credo di no soprattutto per quanto riguarda le tempistiche: il cambiamento non è quello di una tecnologia ma di un modo di lavorare. Ci vorrà più tempo, ma succederà.
👅Etica & regolamentazione & impatto sulla società. Quando le macchine leggono (male) e gli umani non leggono abbastanza: tre lezioni su AI, testo e fiducia
C’è un filo che collega tre risorse che ho letto nelle ultime settimane: come facciamo a fidarci di quello che leggiamo, se chi scrive è sempre più spesso una macchina e chi legge, macchina o umano, non ha tutti gli strumenti per accorgersene?
Partiamo dal pezzo più ambizioso. Andrea Nelson Mauro | Dataninja.it , data journalist e imprenditore, segnala nella sua newsletter un progetto del Reuters Institute for the Study of Journalism che merita attenzione: il News Atom. L’idea, sviluppata dalla giornalista indiana Sannuta Raghu, è relativamente semplice: rendere il giornalismo leggibile dalle macchine senza che perda i suoi segnali epistemici. In pratica, si tratta di uno schema di 15 campi di metadati che “avvolge” ogni singola frase di un articolo giornalistico con informazioni su che tipo di conoscenza contiene, come è stata verificata, da chi proviene e come può essere riutilizzata. Il punto di partenza è il fatto che i fatti giornalistici oggi vengono “appiattiti” dagli LLM, che li usano spesso privandoli di attribuzione, temporalità e contesto. Il News Atom prova a codificare proprio quello che l’AI tende a eliminare: la provenienza, il grado di certezza, la tracciabilità.
Ora prendiamo questa stessa preoccupazione e portiamola in un’aula universitaria. Nick Potkalitsky, educatore che si occupa di AI literacy nelle scuole, propone un ribaltamento interessante: smettere di insegnare agli studenti a chiedersi solo “è vero o falso quello che l’AI ha scritto?” e iniziare a chiedersi come l’AI costruisce e presenta l’informazione. Per farlo, prende in prestito dalla teoria letteraria il framework di James Phelan sui narratori inaffidabili e lo adatta all’output degli LLM lungo tre assi: reporting (i fatti sono corretti?), interpreting (come vengono inquadrati?) e evaluating (quali valori e prospettive sono incorporati?). Il fact-checking classico copre solo il primo asse. Il secondo e il terzo, come l’AI interpreta e quali giudizi impliciti codifica, restano invisibili se non li cerchi attivamente.
E qui entra in gioco il terzo pezzo del puzzle, forse il più pratico di tutti. Dal 2023, gli editor volontari di Wikipedia hanno lanciato il WikiProject AI Cleanup e hanno prodotto una delle guide più dettagliate che esistano per riconoscere la scrittura generata dall’AI. Non parliamo di tool automatici (che, i ricercatori dicono esplicitamente, essere praticamente inutili), ma di un catalogo di pattern linguistici osservati su migliaia di testi AI sottomessi a Wikipedia: l’uso eccessivo di em dash (—), l’enfasi generica sull’importanza di qualsiasi argomento, il linguaggio promozionale mascherato da tono enciclopedico, le clausole con participi presenti che aggiungono vaghezza.
I tre approfondimenti sono tre strati della stessa sfida: in un mondo dove le macchine producono testo a costo quasi zero, il valore si sposta su chi sa strutturare l’informazione, chi sa fare fact-checking e chi sa capire chi l’ha scritta 🙂.
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!


