LaCulturaDelDato #194
Dati & algoritmi attraverso i nostri 5 sensi
For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il centonovantaquatresimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Come ti ho scritto già la settimana scorsa sto preparando il numero 200 de La Cultura del Dato e vorrei approfittarne anche per migliorare la newsletter insieme a te. Ho messo online una micro-survey, se non lo hai già fatto, mi dedichi 90 secondi? Grazie!
Ecco i cinque spunti del centonovantaquatresimo numero:
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. Adozione dell’AI in azienda. Tante domande qualche previsione …
L’uso sempre più marcato dell’AI nelle organizzazioni non è in discussione, ed era iniziato anche prima dell’attuale ondata di AI generativa. È indubbio però che l’AI generativa abbia accelerato il trend e allargato il dominio di adozione. Quello su cui permangono grandi dubbi è la velocità di questa adozione e, soprattutto, le modalità con cui avverrà.
Sulla velocità, ne ho già parlato, è davvero difficile fare previsioni: regolamentazione ed evoluzione della tecnologia sono poco prevedibili e assolutamente non lineari. In aggiunta, la velocità dipenderà più di quanto pensiamo dalle intelligenze umane e da come sono organizzate o si riorganizzeranno.
Sul tema del “come avverrà” (make or buy), francamente mi sto formando, a grana molto grossa, un’opinione, supportata dalla mia esperienza in prima persona con l’AI e da quanto sento e leggo fare in giro per il mondo. Cercando di semplificare, penso che:
Per quanto riguarda i processi core (più legati al servizio/prodotto che eroga l’azienda), l’adozione o l’inserimento nel processo di produzione non potrà che essere endogeno: l’azienda dovrà riprogettare (meglio) o reingegnerizzare i suoi processi. E più lo farà in maniera autonoma, meglio lo farà e maggiore vantaggio competitivo otterrà sul mercato. Ci saranno anche molte aziende che non lo faranno e, a meno di non cambiare il proprio posizionamento, saranno destinate a una lenta agonia. Tanto più lenta quanto più regolamentato è il loro mercato.
Per i processi non core (es.: acquisti, legal, HR e tanti altri), invece, la strada del buy, con un livello minimo di personalizzazione di dominio, credo sarà quella maggiormente seguita dai casi di successo. In questo caso la selezione del prodotto più adatto, attraverso differenti attributi, non sarà affatto banale né scontata. Sarà ancora più complessa, per dinamicità di mercato e dinamismo tecnologico, rispetto a quanto è stato in passato con il SaaS 1.0.
Gli approfondimenti che ho selezionato in questa sezione cercano di aiutarti (a me sono stati utili) a farti un’opinione, probabilmente diversa dalla mia, su questo tema decisamente complesso. Eccoli:
Questo contributo di Ben Lorica, di cui ti lascio una piccola sintesi visiva sotto, prova a fare il punto sugli obiettivi degli AI use case nelle aziende.
Per avere una panoramica non veloce ma decisamente approfondita sull’evoluzione dell’AI nelle varie direzioni, “The State of AI”, scritto da Nathan Benaich e dal suo fortissimo team di Air Street Capital, è un documento unico. Nelle oltre 300 slide del documento (ma è forse più veloce ed efficace vedere la presentazione) sono riassunte tutte le tematiche del mondo dell’AI: dalla ricerca all’industria e dalla politica alla sicurezza. Non mancano previsioni puntuali sul prossimo futuro che hanno spesso buona probabilità di verificarsi. Anche in questo pezzo della famosissima newsletter di Lenny trovi consigli interessanti di chi l’AI la sta usando su larga scala.
Infine, visto che l’acquisto di soluzioni già pronte è una strategia spesso vincente, e non a caso supportata anche dalla prima wave di casi in produzione, credo che vedere quali sono i tool più usati dalle startup oggi per andare più veloci sia un esercizio interessante. Forse più interessante che analizzare i siti che erogano servizi di AI con più traffico web. Nel dubbio, in questo pezzo trovi entrambi e molto altro.
A meno che tu non voglia usare un approccio ancora più radicale e, con l’AI, progettare un nuovo sistema operativo aziendale, come sta provando a fare il mio amico Matteo Roversi in Cosmico e non solo .
👃Investimenti in ambito dati e algoritmi. L’AI Act visto da chi ci investe (nell’AI)
Mi piace avere, e darti, diverse prospettive, che reputo interessanti, sugli argomenti di cui parlo in questa newsletter. Non perché sia necessario presentare sempre tutti i punti di vista allo stesso modo, né perché il contraddittorio a tutti i costi sia un valore assoluto, ma perché spesso le tematiche complesse non possono essere semplificate in maniera eccessiva.
Ti avevo presentato, proprio nell’ultima puntata, nella sezione dedicata alla regolamentazione e all’etica, lo stato di avanzamento dell’entrata in vigore (anche se l’espressione non è felicissima) dell’AI Act in Europa. La prospettiva che ti avevo dato era piuttosto tecnico-legale, con alcuni suggerimenti di approfondimento normativo.
Oggi invece voglio fornirti la prospettiva di chi è un investitore: Air Street Capital (quelli che realizzano il magnifico report “The State of AI” di cui ti ho parlato sopra), proprio nel settore dell’AI. Chiaramente è un punto di vista con una sua polarizzazione, non certo benevola verso l’AI Act come quella di un giurista, ma degna di essere letta, perché ben argomentata e con un ottimo confronto con quello che succede in altre geografie non europee.
“L’Europa ha il potenziale per diventare leader nell’intelligenza artificiale. Non attraverso la microgestione, ma creando un ambiente in cui l’innovazione possa prosperare accanto a un sistema sociale davvero encomiabile. L’Europa deve concentrarsi sugli incentivi (abilitazione) piuttosto che sulle restrizioni (controllo). Può così definire un approccio regolatorio che rispetti i propri valori, pur restando competitiva nei confronti di Cina e Stati Uniti. L’AI Act dell’Unione Europea, con tutta la sua ambizione architettonica, incarna la sfida idealistica del continente: tenta la missione quasi impossibile di bilanciare un’ammirevole adesione ai principi etici con le realtà pratiche di un ordine tecnologico globale altamente competitivo. Ma se l’Europa non riuscirà a sincronizzare il proprio ritmo normativo con la velocità dello sviluppo, rischierà di trasformarsi in un elaborato archivio burocratico: intento a catalogare con cura le innovazioni di ieri, mentre gli strumenti di domani vengono costruiti a Silicon Valley e a Shenzhen, lontano dalla terra dell’Illuminismo. Un destino più adatto a un museo di storia naturale che non all’arena contemporanea.”
Queste sono le conclusioni di un articolo che vale davvero la pena leggere integralmente, per la capacità di arrivare a queste riflessioni con coerenza e profondità.
PS: e a proposito di innovazione e di iniziative che la supportano e che hanno a che fare con dati e investimenti anche quest’anno si terrà a Torino Impact Deal ,un programma di accelerazione basato sui dati per imprese europee ad alto impatto sociale
🖐️Tecnologia (data engineering). Karpathy, l’uomo che vede il futuro dell’AI (senza hype)
Dopo aver ascoltato l’ultima intervista di Andrej Karpathy con Dwarkesh Patel, che ti stra-consiglio di sentire integralmente, nel probabile eccesso di entusiasmo sono arrivato a pensare che si potrebbe seguire l’evoluzione della tecnologia legata all’AI semplicemente seguendo quello che dice e fa proprio Andrej Karpathy. Ovviamente questa posizione è un’eccessiva semplificazione, ma credo davvero che Karpathy sia stato una delle figure più importanti degli ultimi 15 anni di intelligenza artificiale. L’occasione per ricordarcelo arriva dal fatto che il suo intervento, quasi tre anni fa, alla conferenza annuale Microsoft (quando era ancora in OpenAI), era stato l’approfondimento che vi era piaciuto di più nella newsletter #73.
Karpathy ha ricoperto il ruolo di direttore dell’AI di Tesla per 5 anni e ha avuto diversi ruoli di primo piano in OpenAI, organizzazione che aveva contribuito a fondare nel 2015. Prima ancora, aveva avuto ruoli significativi nel mondo accademico americano, in primis a Stanford, con studi importanti sulle reti neurali convoluzionali. Ora si sta dedicando a un progetto-azienda legato alla formazione chiamato Eureka Labs. Ha anche un sito personale tra i più minimalisti, efficienti e belli che io abbia mai visto, e attraverso il quale puoi seguire anche i suoi interventi più significativi.
Secondo me (e secondo Alberto Danese , che commenta spesso i suoi interventi, in particolare in questo post, che ho trovato particolarmente interessante), ha una rarissima capacità di leggere il presente dell’evoluzione tecnologica dell’AI e, senza hype ma restando molto vicino al codice, riesce a interpretare il prossimo futuro del nostro mondo. E quando lo fa, riesce anche a essere sintetico ma non semplicistico. Come nel 2017, quando già raccontava un nuovo modo di scrivere codice che chiamava Software 2.0 , poi diventato Vibe Coding, oppure più recentemente, quando ha cominciato a parlare dell’importanza del context engineering più che del prompt engineering, per rendere più efficaci le interazioni con gli LLM. E qualche settimana fa, nell’intervista che ti ho suggerito all’inizio, ha spiegato in modo ampio e dettagliato perché, secondo lui, ci troviamo, nel 2025, nel decennio degli agenti e non semplicemente “nell’anno degli agenti”, come qualcuno vorrebbe farci credere.
Potrei parlarti per pagine di tutto quello che fa e dice Karpathy, ma mi fermo qui, lasciandoti con un consiglio su questo piccolo-grande progetto di divulgazione che si chiama nanoGPT che, come si definisce nella prima riga su GitHub, “è un’implementazione full-stack di un LLM come ChatGPT in un’unica repository di codice pulita, minimale, hackerabile e con poche dipendenze”. 🚀
👀 Data Science. Addio alle vecchie SERP? Come cambia il modo in cui troviamo (e capiamo) le informazioni con Google
Come sta cambiando il modo in cui cerchiamo informazioni sul web è un tema che mi affascina. E sono sempre più convinto che riguardi non solo la conoscenza, ma anche la politica e il futuro del mondo. Ha un grande impatto anche sull’economia e sulle aziende, se pensiamo che l’e-commerce, che non è certo l’unico ambito del commercio influenzato da come cerchiamo, rappresenta una quota sempre più rilevante dei nostri acquisti.
Te ne parlo periodicamente, e nonostante io sia convinto, e i numeri iniziano a darmi ragione almeno per gli USA, che in futuro cercheremo un po’ meno con Google, almeno nel mondo occidentale, Google resta ancora il canale più significativo, numericamente, per cercare informazioni. Il suggerimento di approfondimento in questa sezione è un pezzo molto tecnico sui cambiamenti in corso proprio in casa Google, scritto da uno dei massimi esperti italiani del tema: Marco Quadrella, che lavora insieme a Giorgio Taverniti (che era stato ospite di questa newsletter qualche tempo fa). Anche se l’articolo è di qualche mese fa, racconta molto bene, e con i puntamenti giusti per approfondire da un punto di vista tecnico, l’attuale “convivenza” con tre tipi di risposta dal motore di ricerca Google:
👉 La SERP (Search Engine Result Pages) tradizionale, a cui siamo abituati da anni, che ci presenta i link alle pagine in ordine di maggiore pertinenza.
👉 L’AI Overview, cioè una risposta sintetica e automatica generata dall’intelligenza artificiale, basata sui modelli Gemini. Appare direttamente all’inizio della pagina dei risultati di ricerca (sopra i link organici) ed è attivata da Google per le query che beneficiano di un riepilogo rapido. Fornisce informazioni essenziali e, in molti casi, link alle fonti, senza necessità di ulteriori interazioni. L’obiettivo è dare risposte veloci e semplici alle domande informative quotidiane.
👉 L’AI Mode, una modalità di ricerca interattiva e separata, che l’utente deve attivare tramite un tab dedicato. Offre un’esperienza di tipo chatbot conversazionale: puoi fare domande complesse, approfondire con follow-up e gestire un dialogo continuo. Pensata per attività di ricerca più approfondite, pianificazione o risoluzione di problemi articolati. Può anche incorporare input multimodali, come immagini.
Ad oggi, l’esperienza di ricerca per un utente italiano viene guidata da Google in una delle prime due modalità, a seconda del tipo di query.
L’articolo di Quadrella è interessante anche perché prova a stimare l’impatto di queste modalità nei vari settori industriali, con editoria ed e-commerce in cima alla lista, e propone alcune azioni utili per monitorare costantemente questa transizione. Una transizione che credo sarà più lunga di quanto pensassi solo sei mesi fa, da una ricerca attiva a una ricerca conversazionale, a cui ci abitueremo sempre di più. L’articolo (e i link consigliati) mette bene in luce come questo campo di studio avrà sempre più a che fare con l’analisi dei dati, cosa non certo nuova per chi si occupa di SEO, e anche, e qui sta un po’ più di novità, con la comprensione di come le intelligenze artificiali consumano e valutano la conoscenza generata da intelligenze umane e artificiali… 🤖
👅Etica & regolamentazione & impatto sulla società. Quando l’AI guarda la Terra: l’embedding planetario di Google
“Ogni giorno, i satelliti catturano immagini e misurazioni ricche di informazioni, offrendo a scienziati ed esperti una visione quasi in tempo reale del nostro pianeta. Sebbene questi dati abbiano avuto un impatto straordinario, la loro complessità, multimodalità e frequenza di aggiornamento pongono una nuova sfida: collegare set di dati eterogenei e riuscire a sfruttarli tutti in modo efficace. Oggi presentiamo AlphaEarth Foundations, un modello di intelligenza artificiale (AI) che funziona come un satellite virtuale. Il modello caratterizza in modo accurato ed efficiente l’intera superficie terrestre e le acque costiere del pianeta, integrando enormi quantità di dati di osservazione della Terra in una rappresentazione digitale unificata, che i sistemi informatici possono elaborare facilmente. Questo permette al modello di offrire agli scienziati una visione più completa e coerente dell’evoluzione del nostro pianeta, aiutandoli a prendere decisioni più informate su temi cruciali come sicurezza alimentare, deforestazione, espansione urbana e risorse idriche. Per accelerare la ricerca e sbloccare nuovi casi d’uso, Google ha rilasciato una raccolta degli embedding annuali di AlphaEarth Foundations come Satellite Embedding Dataset all’interno di Google Earth Engine. Nell’ultimo anno, il team ha collaborato con oltre 50 organizzazioni per testare questo dataset in applicazioni reali.”
Questa è la parte iniziale della presentazione di un progetto davvero figo, che ci ricorda (e ogni tanto ne sento proprio la necessità 🙂) che la tecnologia e i dati possono aiutarci a capire meglio dove viviamo, la nostra Terra e il suo stato di salute.
AlphaEarth Foundations (AEF) è, di fatto, un modello di AI geospaziale che agisce come un “satellite virtuale”, integrando grandi quantità di dati di Osservazione della Terra (ottici, radar, LiDAR, modelli climatici, ecc.) in una rappresentazione unificata (embedding) della superficie terrestre. L’obiettivo è rendere più semplice e coerente la mappatura e il monitoraggio su scala globale.
Il concetto di embedding è (quasi) una magia matematica, all’intersezione tra conoscenza del mondo (dati e testo), sua rappresentazione geometrica ai fini di una compressione ed elaborazione di questa conoscenza. Te ne avevo già parlato, ma proprio in questo articolo trovi una spiegazione molto efficace fatta dal team di Google. E il Satellite Embedding Dataset ne è un esempio concreto e affascinante.
Quanto questo modello verrà sfruttato per progetti ad alto impatto non è ancora chiaro, anche perché è stato rilasciato solo da pochi mesi e l’inerzia di utilizzo nella distribuzione di dataset così complessi è sempre alta. Tuttavia, oltre 50 organizzazioni, tra cui FAO, Harvard Forest, MapBiomas e diverse università, lo hanno già testato in applicazioni reali come la classificazione degli ecosistemi, l’agricoltura e il monitoraggio ambientale.
L’articolo cita già casi d’uso molto interessanti, come quello in Brasile, dove viene utilizzato per monitorare i cambiamenti climatici e l’impatto dell’agricoltura sul territorio. 🌎
Come ti ho scritto già la settimana scorsa sto preparando il numero 200 de La Cultura del Dato e vorrei approfittarne anche per migliorare la newsletter insieme a te. Ho messo online una micro-survey, se non lo hai già fatto, mi dedichi 90 secondi? Grazie!
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!





A proposito di processi non core, tutti i fornitori mi hanno sottolineato una profonda ignoranza degli uffici legal e compliance (anche di grandi aziende) su come funziona l’AI e quindi su come potrebbe essere di aiuto. Siamo ancora al “come scrivere un prompt”.
Grande Stefano 🚀