LaCulturaDelDato #196
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il centonovantaseiesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Ecco i cinque spunti del centonovantaseiesimo numero:
👅Etica & regolamentazione & impatto sulla società. Se ChatGPT può farlo da solo, cambialo: appunti sparsi per insegnare (meglio) nell’era della AI
“Il futuro dell’istruzione non consiste nel competere con l’IA o nell’impedire agli studenti di usarla. Si tratta piuttosto di capire che cosa rende l’apprendimento qualcosa di distintamente umano e di creare le condizioni perché questo tipo di apprendimento possa fiorire. Quando lo facciamo, non ci limitiamo a preparare gli studenti a un futuro incerto: diamo loro le basi intellettuali di cui hanno bisogno per contribuire a crearne uno migliore.”
Questo è un piccolo estratto di un post di Nick Potkalitsky che mi piace molto e che sta guidando le mie riflessioni sul tema relativo a come sta cambiando e cambierà il settore dell’educazione con l’avvento dell’AI. Questo è il periodo dell’anno in cui faccio la progettazione del mio corso in Cattolica e cerco di capire come cambiarlo e, in certi casi, ripensarlo in funzione sia dei feedback che mi hanno dato gli studenti sia di come l’AI può rendere necessario un adattamento. Per farlo al meglio sto leggendo molto e cercando di capire quali tra le cose che sto leggendo mi convincono di più. Sfrutto questa sezione della newsletter per condividere quelle che mi hanno ispirato di più, sperando che i tuoi commenti e i tuoi (altri) consigli di lettura mi aiutino ad adattare al meglio il mio corso e anche le altre attività di divulgazione che sto programmando.
Il post che più mi ha fatto riflettere è questo: ”Could ChatGPT Do This Overnight?” If Yes, Redesign It.” proprio di Nick Potkalitsky.
L’articolo propone sei filtri per trasformare compiti/esercitazioni “vulnerabili” in esperienze di apprendimento dove l’AI diventa partner invece che scorciatoia:
(1) Human/Place Anchor - ancorare il lavoro a persone reali, luoghi fisici o esperienze vissute;
(2) Visible Process - rendere visibile il processo (la brutta, per parlare in termini di scuola dello scorso millennio 🙂) di ragionamento, non solo il risultato finale;
(3) Multimodal Output - richiedere comunicazione attraverso più formati (visivo, orale, fisico, digitale);
(4) Collaboration & Negotiation - co-creare il significato e negoziarlo con altri in tempo reale;
(5) Ethical Reflection - includere riflessione sulle implicazioni etiche, sociali ed emotive del tema o dell’uso stesso dell’AI;
(6) Competency Lift - rafforzare capacità umane essenziali (lettura profonda, pensiero quantitativo, contestualizzazione culturale, pensiero sistemico, comunicazione multimodale).
Questi filtri non sono limitazioni, ma modi creativi per fare dell’AI uno strumento che amplifica l’apprendimento invece di aggirarlo.
Se sei un insegnante e pensi di essere superata/o dall’AI, in questo altro pezzo, sempre Nick Potkalitsky, spiega molto bene perché l’insegnante può fare ancora, forse più di prima, la differenza. Il tutto generalizzando, nell’articolo, proprio il paradosso dell’asimmetria di conoscenza che sfida la tesi abbastanza diffusa che l’AI sia un livellatore e democratizzatore di conoscenza e abiliti a prescindere …
Facendo un salto in Italia e suggerendoti i miei “musi” ispiratori locali, non posso non citare le 10 tesi per la scuola AI-Native di Matteo Roversi nella versione inglese, all’interno del playground dove sta facendo interessanti sperimentazioni sull’AI come sistema operativo delle organizzazioni, oppure in versione italiana più verbosa in un post di Work After.
Infine se stai proprio progettando un corso da zero, questo post di Adriano Devita è assolutamente da leggere perché, in maniera molto pratica, evidenzia come usare l’AI non voglia dire automaticamente progettare nel futuro, mettendo al centro le competenze che serviranno ai nostri giovani a vivere bene in un mondo con tante intelligenze artificiali.
Commenti e altri suggerimenti graditissimi. 🙃
👃Investimenti in ambito dati e algoritmi. L’anatomia di un modello subscription spiegata benissimo da Matteo Aliotta
Il modello di business a subscription è sicuramente quello più amato da chi investe in start-up e, di conseguenza, quello più perseguito dalle start-up stesse, ma non è assolutamente facile da implementare e, soprattutto, la maggior parte delle aziende non pone sufficiente attenzione ad alcuni aspetti chiave.
Ho lavorato a stretto contatto con molte start-up negli ultimi 15 anni e ho investito in alcune di esse. Ho visto tantissimi errori (a posteriori) che queste aziende hanno commesso proprio nell’implementazione di questo modello di business. Sicuramente mi era sempre più evidente, vedendo i casi di insuccesso, che si ponesse troppa attenzione al momento dell’acquisizione, ma non avevo fino in fondo razionalizzato l’importanza dei passaggi critici successivi. Per questo ho avuto il mio aha-moment quando ho letto il “solito” super articolo di Matteo Aliotta proprio sul tema e, in particolare, questo schema di flusso di quella che lui giustamente chiama “L’anatomia di un subscription model”.
Risulta chiarissimo, dopo averlo sentito spiegare da Matteo nell’articolo, quanto sia importante curare la fase di attivazione del cliente per avere una lunga retention. Non è però scontato, almeno nella mia esperienza, definire per servizio o prodotto i corretti KPI di activation e retention. Leggere, sempre nell’articolo, i consigli di Matteo su come sceglierli e quali strumenti usare per monitorarli al meglio è un deciso passo avanti.
E proprio nei business che si definiscono “growth”, cioè ad alta crescita, avere chiara la differenza tra un esperto di crescita e un esperto di marketing non è scontato. E in questo articolo, sempre Matteo Aliotta lo spiega come meglio non si potrebbe, con esempi e rimandi a un sacco di utili approfondimenti. Buona lettura!
🖐️Tecnologia (data engineering). Firecrawl: lo strumento che trasforma il web in cibo per le AI
In queste settimane ho testato, per un piccolo progetto personale, Firecrawl, un’API pensata per trasformare il web in dati “AI ready”: gli dai degli URL e lui restituisce markdown pulito, HTML o JSON strutturato, già pronto per RAG, agenti e training set. Devo dire che, abituato in passato a usare soluzioni meno sofisticate, mi ha veramente impressionato in termini di velocità, qualità e versatilità.
La storia dell’azienda è veramente interessante e porta con sé anche qualche lezione sui processi, spesso serendipici, dell’innovazione. Infatti, Firecrawl nasce come tool interno del team Mendable, una delle prime piattaforme di RAG gestito per aziende. Quando si accorgono che il pezzo di infrastruttura per leggere il web interessa più del prodotto finale, lo “promuovono” a prodotto autonomo. Oggi, infatti, Firecrawl è la società che trovi nella directory YC, legata al batch S22 da cui tutto è nato. Ad agosto 2025 l’azienda annuncia un round Series A da 14,5 milioni di dollari, guidato da Nexus Venture Partners, con la partecipazione di Y Combinator, del CEO di Shopify Tobias Lütke e di altri fondi e angel. L’idea dichiarata è costruire l’infrastruttura standard per dare in pasto il web alle AI, con in roadmap, sembra, un marketplace che remuneri i publisher quando i loro contenuti vengono usati.
Sul piano tecnico, Firecrawl espone pochi endpoint ma ben mirati: scraping per singole pagine, crawl per interi siti, map per mappare solo le URL, più una funzione che unisce crawling e LLM per restituire direttamente dati strutturati secondo uno schema definito dall’utente. Gli SDK ufficiali (Node, Python) nascondono tutta la complessità di polling, paginazione, reverse proxy, caching e gestione dei limiti. Firecrawl è ottimale per AI e RAG per almeno tre ragioni. Primo, l’output è già in formato LLM-friendly (Markdown strutturato, JSON, HTML ripulito) senza bisogno di post-processing manuale. Secondo, l’estrazione può essere guidata da schema: definisci cosa ti serve (es. “lista di prodotti con nome, prezzo, rating”) e Firecrawl usa un LLM interno per estrarre esattamente quei campi, riducendo rumore e token sprecati. Terzo, gestisce la complessità tecnica (autenticazione, paginazione, JavaScript, CAPTCHAs) che normalmente richiederebbe tempi lunghi di engineering.
Esiste ovviamente però un caveat legale fondamentale: lo scraping è legale in molti casi (dati pubblici, fair use, ricerca), ma non sempre. Rispettare robots.txt e Terms of Service è essenziale, e Firecrawl lo fa di default, ma sei tu responsabile di verificare la legalità dello scraping per il tuo use case specifico. Se stai costruendo un prodotto commerciale, consulta un legale. L’uso per addestramento di modelli AI è in zona grigia in molte giurisdizioni, e alcuni editori stanno iniziando a fare causa.
Esistono anche alternative open source. Una citata spesso è Crawl4AI, che punta a fare qualcosa di simile lato crawling ed estrazione, ma richiede più lavoro di setup e gestione dell’infrastruttura. Altre strade sono stack self-hosted basati su ScrapeGraphAI, Playwright, Scrapy o combinazioni simili.
Come sempre, non c’è una soluzione che va bene per tutti i progetti e per tutte le aziende e il trade-off tra soluzione open e chiusa va valutato sempre con grande attenzione.
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. Trasformazione con l’AI: meglio controllare tutto o puntare all’output?
Anche prima dell’ultimo boom dell’AI generativa, quando si parlava, dentro le organizzazioni, di trasformazione digitale, gli approcci possibili erano più o meno due.
Da una parte c’è l’approccio più analitico, o se vuoi meno dirompente: prima capisco come lavorano davvero le persone, mappo processi, eccezioni, trucchi del mestiere... e poi, con l’aiuto del software, provo a migliorare questi processi.
Dall’altra parte, invece, c’era la logica più radicale: non provo nemmeno a codificare il caos organizzativo. Definisco cosa vuol dire ottenere un buon output e ridisegno tutto da zero, partendo direttamente dai nuovi strumenti. Due strade, due filosofie di trasformazione.
L’approfondimento che ti consiglio oggi riprende proprio questa tensione tra due visioni, ma riletta in chiave AI o, per dirla in modo più cool, in chiave agentica 🙂. Lo ha scritto in questo articolo con il solito acume e una solida conoscenza dei processi di innovazione Ethan Mollick, professore alla Wharton e super esperto di come si innova nelle aziende.
Più ancora che in altre trasformazioni, l’approccio più tradizionale (che nell’articolo Mollick avvicina allo strumento AI Manus) risulta rassicurante per chi gestisce organizzazioni complesse. Anche perché promette controllo: so cosa fa l’agente, so come lo fa, posso integrarlo nei ruoli e nelle responsabilità esistenti. Il prezzo da pagare? Tempi di adozione più lenti e una certa fragilità rispetto ai cambiamenti del contesto.
L’approccio “output first”, invece, è quasi il suo opposto: invece di sezionare il processo, definisco esempi di “buon lavoro finito” e lascio che un sistema di agenti, addestrato via feedback sugli esiti, impari da sé il modo migliore per arrivarci. Mi interessa che la risposta al cliente sia efficace, che il report sia corretto, che la sintesi dei rischi sia utile... anche se il percorso interno dell’agente resta un po’ opaco. È una logica che somiglia più ai moderni motori scacchistici intelligenti che ai vecchi manuali di procedure. Richiede meno ingegneria di processo e molta più attenzione a: metriche di qualità, dataset di esempi, meccanismi di valutazione continua.
Il trade-off non è solo tecnico: è politico e culturale. E Mollick lo racconta recuperando alcuni tra i paper e gli studi più interessanti nella storia della teoria organizzativa. Utile per scegliere il futuro, ma anche stimolante dal punto di vista culturale.
👀 Data Science. Python, la lingua franca dell’AI che resiste al tempo
Torno sull’approfondimento più seguito del numero 75, in cui avevo intervistato Serena Bonaretti, che ci aveva parlato del suo progetto aperto Learn Python with Jupyter. A distanza di mesi, Python non solo mantiene la sua supremazia, ma si rafforza: secondo il TIOBE Index di novembre 2025, uno dei migliori ranking sull’utilizzo dei linguaggi di programmazione, domina con un impressionante 23,37%, distanziando il secondo linguaggio di programmazione di oltre 15 punti percentuali. È il divario più ampio mai registrato nella storia dell’indice.
Python continua a essere così rilevante in azienda non solo per la sintassi semplice, ma anche per le librerie di machine learning. È la lingua franca dell’AI: quando data scientist, ingegneri e analisti devono collaborare su progetti di intelligenza artificiale, Python è il terreno comune su cui tutti si muovono con naturalezza. E, proprio per la sua larga diffusione nei progetti OpenAI, molto del codice con cui sono stati addestrati gli LLM è in Python. Ed è probabilmente uno dei linguaggi che gli LLM usano di più e su cui commettono meno errori. Mentre linguaggi più veloci come Rust o Go guadagnano terreno in nicchie specifiche, Python resta il punto di accesso universale per chiunque voglia lavorare con i dati.
Il libro gratuito di Bonaretti, che ti avevo segnalato, rappresenta perfettamente questa filosofia: imparare facendo, condividere sapendo. Non è solo un manuale di programmazione, ma un manifesto dell’Open Science, dove la conoscenza si costruisce collettivamente attraverso i Jupyter notebook che integrano codice, narrativa e visualizzazioni. Questo approccio ha letteralmente cambiato il modo di pensare al lavoro, come sottolineava la stessa Bonaretti, rendendo il processo di analisi più rigoroso e documentato. Se devo darti un consiglio pratico, è questo: non inseguire solo l’ultimo framework JavaScript o il linguaggio più performante del momento. Investi su Python e sui suoi strumenti open source: è lì che si sta costruendo, con le intelligenze artificiali, il futuro dell’analisi dei dati e dell’AI aziendale.
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!



Bellissima puntata come sempre. Grazie per la citazione!