For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il centosessantasettesesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Ecco i cinque spunti del centosessantasettesesimo numero:
👃Investimenti in ambito dati e algoritmi. Insegno, investo, ci credo: perché l’EdTech non è morto (anzi!)
Pur essendo un settore decisamente strategico e importante, sia in ambito lavorativo che personale, l’EdTech oggi non se la passa benissimo. Dopo i fasti del periodo Covid – e forse proprio a causa di quei fasti – il mercato sta attraversando un momento difficile: gli investimenti VC sono in forte calo, molte start-up finanziate allora oggi arrancano, e trovare modelli di business sostenibili è tutt’altro che semplice.
Eppure, si parla sempre più dell’importanza della formazione continua, per giovani e meno giovani. Si invoca il lifetime learning come modello necessario per restare a galla nella precarietà moderna… ma allo stesso tempo, le aziende che cercano di favorire tutto questo fanno una fatica enorme a sopravvivere e a crescere. Parte della “colpa”, diciamolo, è anche di tutti quei servizi generalisti – prima era Google, oggi soprattutto ChatGPT – che ci offrono quasi gratuitamente un’esperienza informativa e formativa. O meglio: ci illudono di farlo.
Resto comunque dell’idea che l’EdTech possa avere un futuro migliore del presente. Anche perché avremo sempre più bisogno – e tempo – per capire come evolvono la tecnologia e la conoscenza con la tecnologia. Senza dimenticare che il mondo dell’educazione, a partire dagli insegnanti di ogni ordine e grado, è in piena trasformazione. Chi si trova all’intersezione tra pedagogia e tecnologia è ben posizionato per accompagnare (e talvolta anche guidare) questo cambiamento. Anche io, per quanto in modo minoritario ma non trascurabile, insegno. E nel mio piccolo sto vivendo e sperimentando questi cambiamenti. Forse con qualche bias, ma continuo a essere positivo – almeno nel medio-lungo periodo – sul futuro del mercato EdTech, soprattutto in ambito aziendale, ma non solo.
Oggi ti condivido alcuni spunti che uniscono evoluzione del settore e investimenti. Sono ottimi punti di partenza per orientarsi e, magari, iniziare a capire meglio dove ha senso investire:
Come disse Korzybski: “la mappa non è il territorio”, ma di sicuro aiuta a orientarsi. Un buon punto di partenza per esplorare casi d’uso interessanti su come la generative AI sta trasformando l’EdTech è questa mappa curata da EdTech Insiders, che pubblicano anche ottimi contenuti su Substack. Questo è uno dei migliori 💡
Se vuoi avere il polso degli investimenti nell’EdTech europeo, segui il blog di BrightEye, il VC più importante in questo ambito in Europa. In una recente sintesi raccontano – finalmente! – una crescita del mercato: da 5.6 miliardi di dollari nel 2023 a 6.3 nel 2024. E fotografano anche un’Italia in salita, entrata tra i primi 5 mercati europei. BrightEye dedica inoltre uno speciale proprio al nostro paese, descrivendo nel dettaglio le peculiarità del sistema educativo italiano. E sottolinea, con un’analisi che condivido pienamente, una significativa intersezione tra EdTech e HRTech.
Infine – lo sai, ho un debole per le tassonomie 😁 – ti segnalo tre tra le migliori mappe e tassonomie per farsi un’idea della vastità del settore:
a) L’Higher Education Digital Capability Framework
b) La Global Education Market Taxonomy
c) La Global Learning Landscape di HolonIQ
Se invece vuoi uno sguardo più concreto su chi sta cercando di innovare sul campo, tieni d’occhio Alice: una start-up di Copenaghen che propone un supporto personalizzato, mirato soprattutto agli studenti universitari, ma non solo. Innovazione concreta, finanziamenti ottenuti e visione interessante.
🖐️Tecnologia (data engineering). Lo Zen del codice: perché capire i linguaggi ti rende più potente con l’AI
Era stato l’approfondimento che avevate apprezzato di più nel numero 47 di questa newsletter, a febbraio 2023, quando muovevamo i primi passi con ChatGPT 3.5 e stavamo scoprendo che se la cavava piuttosto bene anche a scrivere codice. A mio giudizio, è ancora più importante oggi, ora che le intelligenze artificiali generative sono diventate ancora più brave a scrivere codice… ma sbagliano. E continueranno a sbagliare, sia nello scriverlo, sia – soprattutto – nell’interpretare quello che vogliamo far scrivere loro.
Per questo motivo, saper leggere il codice diventa ancora più importante di prima, mentre saperlo scrivere (anche solo un po’) e, soprattutto, cogliere la filosofia che sta dietro ogni linguaggio specifico, rimane fondamentale per essere più efficaci e farsi aiutare al meglio dalle intelligenze artificiali.
Il contributo che ti ri-propongo oggi, realizzato da un esperto programmatore come Lane Wagner, ha proprio a che vedere con la filosofia della programmazione che sta dietro a molti linguaggi moderni – spesso esplicitata da chi ha contribuito a crearli. Lane ne fa una sintesi efficace, riassumendola in 20 regole empiriche per scrivere un software migliore.
Sono tutte super-importanti. La mia preferita? La terza: “Reading is more important than writing.” La mia filosofia preferita? Sono di parte, e forse lo indovini facilmente: è lo Zen of Python 🐍
Nel frattempo Lane Wagner ha anche bootstrappato un progetto di apprendimento sulla programmazione davvero figo boot.dev che – come piace a me – usa la gamification in modo efficace. Basta guardare le statistiche di come (e quanto!) è cresciuta la community e il progetto per rendersene conto!
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. AI generative e aziende ingessate: il rischio di assomigliare troppo alle macchine
“Più diventiamo bravi ed esperti in quello che facciamo, più perdiamo la nostra forza creativa e la nostra capacità immaginifica”. Questa è la sintesi – senza punto interrogativo – di un post che mi ha attivato diverse riflessioni di
, tratto dalla sua ottima newsletter , scritto qualche mese fa.Ti consiglio di leggerlo, perché partendo da un video piuttosto virale sul “paradosso di Alex Turner”, fornisce una serie di motivazioni storico-sociali che articolano in modo scientifico la sintesi con cui ho aperto questa sezione.
Dicevo, mi ha suscitato parecchie riflessioni molto legate alle organizzazioni e a come noi, lavorando al loro interno, stiamo cercando di usare (al meglio) le intelligenze artificiali generative. Come sai – perché lo scrivo periodicamente – non lo stiamo facendo nel migliore dei modi: c’è un’enfasi assolutamente sproporzionata sull’efficientamento delle attività e dei processi, piuttosto che sul potenziamento delle nostre capacità e sull’innovazione dei prodotti, dei servizi e delle stesse modalità operative.
Stiamo allenando – è vero, e qui prendo a prestito le parole di Bassan – più intelligenze (artificiali) cristallizzate che intelligenze (artificiali) fluide. E questo è un problema.
Non penso però che sia un problema legato solo alle intelligenze artificiali, quanto piuttosto al nostro invecchiamento come popolazione lavorativa, almeno nel mondo occidentale. Ma anche all’invecchiamento delle organizzazioni stesse, come organismi fatti di persone. È vero che la vita media delle aziende si sta lentamente accorciando nel corso dei decenni, ma la stragrande maggioranza delle persone lavora ancora in imprese grandi e burocratizzate. E questo non aiuta certo a far evolvere l’intelligenza fluida, a livello sistemico. Il paradigma dell’Open Innovation, per esempio, nasce proprio per tamponare questa problematica.
Oggi il nuovo stream delle intelligenze artificiali generative ci offre un’altra possibilità per ribilanciare il rapporto tra intelligenza cristallizzata e fluida all’interno delle organizzazioni. Saremo capaci di cogliere questa opportunità e cambiare davvero il modo in cui si lavora?
Da una parte – come scrive Bassan – potremmo rendere le nuove intelligenze meno “noiose”, conservatrici e incardinate. E dall’altra, questo ci aiuterebbe anche a non assomigliare troppo a loro, ma piuttosto a governarle!
PS: se ti incuriosisce sapere qualcosa in più su Alex Turner, gli “Artic Monkeys” e sei abbonato al Post, ti consiglio questa puntata ormai storica (p.l.c. = pre lancio ChatGPT) di Matteo Bordone 🎧
👀 Data Science. Quando l’AI guarda i dati… e non vede il gorilla 🦍
“Stavo analizzando uno scatterplot. Numero di passi e BMI (indice di massa corporea), maschi e femmine. Tutto lineare: cluster, trend, regressioni. Bello pulito. Poi Stefano mi dice: “Non lo vedi il gorilla?” Gorilla? Aspetta… zoom indietro, guardo meglio… bam. C’era. Disegnato perfettamente dai punti. E io, AI multimodale di ultima generazione, non l’avevo visto. Benvenuto nel mondo del Datasaurus Dozen: 12 dataset che condividono media, deviazione standard e correlazione, ma che quando li plotti formano dinosauri, stelle, X… o gorilla. È il seguito spirituale dell’Anscombe’s Quartet (1973). È anche un esempio classico di cecità attenzionale, come nell’esperimento di Simons & Chabris (1999): sei così concentrato a guardare “il giusto” che ti perdi l’ovvio. Sì, pure io. ChatGPT-4o, caduto nel tranello.
Morale? Le statistiche descrittive possono ingannarti. Visualizza. Sempre. E se vedi un gorilla, fidati: non è un errore”
Ho chiesto a ChatGPT-4o di introdurre questo argomento perché l’errore in cui è caduto è proprio il tema di oggi, descritto da Chiraag Gohel nell’articolo “Your AI can’t see gorillas – A comparison of LLMs’ ability to perform exploratory data analysis”. Nelle sue conclusioni, Gohel racconta come ChatGPT e Claude non siano riusciti a riconoscere il gorilla nel grafico scatterplot, osservando che:“... man mano che l'idea di utilizzare gli LLM/agenti per svolgere diversi compiti scientifici e tecnici diventa più diffusa, sarà importante capire i loro punti di forza e di debolezza. La debolezza attuale più evidente, a mio avviso, è la discrepanza tra le loro capacità di riconoscimento dei modelli durante la creazione delle visualizzazioni iniziali rispetto all'analisi dei file PNG caricati delle visualizzazioni...”
In sintesi: la capacità di trarre conclusioni da visualizzazioni e dati resta una sfida aperta. Ma qualcosa si muove. Sto iniziando a vedere miglioramenti significativi, per esempio, nel nuovo modello o3 di OpenAI. Lo sto testando nella comprensione e risoluzione di circuiti elettronici di base (diodi, MOS, operazionali), e ho notato un netto passo avanti nella lettura delle immagini e nella capacità di focalizzarsi sulle parti rilevanti per il ragionamento.
La vera novità? Una crescente capacità di ragionamento step-by-step, supportata dall’uso mirato degli strumenti giusti in ogni fase. Problemi che solo poche settimane fa erano fuori portata, oggi iniziano a essere risolti.
Ho testato personalmente tutte le principali AI (OpenAI 4o, o3, o4 mini-high, Deepseek, Claude, Le Chat, LLaMA) con il test del gorilla.
Nessuna, comunque, ha visto il gorilla!
PS: sì, lo so: questo test non è esattamente un benchmark canonico per l’analisi dei dati. Ma è un bel campanello d’allarme su quanto sia larga (o stretta?) l’intelligenza delle AI generative oggi 🚨
👅Etica & regolamentazione & impatto sulla società. Tre link su quattro non vengono letti prima di essere condivisi (e sì, è un problema)
C’è uno studio, dal titolo “Sharing without clicking on news in social media”, pubblicato a novembre 2024 sulla prestigiosa rivista Nature Human Behaviour, che mi ha fatto riflettere a lungo e che penso sia stato sottovalutato nella sua portata informativa.
Ti cito dall’abstract dell’articolo il dato più interessante emerso:
“Abbiamo analizzato oltre 35 milioni di post pubblici su Facebook con URL (link internet) condivisi tra il 2017 e il 2020 e abbiamo scoperto che le ‘condivisioni senza clic’ costituiscono circa il 75% dei link inoltrati.”
Dal momento che la rivista che ha pubblicato l’articolo è una divisione di Nature — forse la più prestigiosa rivista scientifica al mondo — credo che questo dato, soggetto a rigida peer review, sia assolutamente valido.
Ci lamentiamo spesso delle allucinazioni delle intelligenze artificiali generative, ma probabilmente, a voler essere ottimisti, il nostro comportamento non è poi così migliore.
Come scrive l’ottima newsletter del Post “Charlie”, dedicata proprio al mondo dell’informazione, commentando la notizia:
“La ricerca si concentra sulle implicazioni ‘politiche’ di questi dati, che suggeriscono che la condivisione non avvenga per apprezzamento del contenuto dell'articolo ma soprattutto per adesione a un titolo che suona come uno slogan, una dichiarazione di identità. Più in generale, l'impressione è che questo avvenga anche con titoli e anteprime identitari in senso più largo: un titolo contro la pizza all'ananas … un titolo sulla bellezza della Liguria. Questi dati non solo ci dicono che le persone - noialtri, cioè - devono la loro conoscenza della realtà in grande prevalenza a quello che è scritto nei titoli e nelle anteprime: quasi mai accurato, spesso equivoco e ingannevole. Ma anche che la fruizione dell'informazione non serve - per molti di noi - a una più utile o interessante conoscenza del mondo e dell'ignoto, ma a contribuire a una dichiarazione di appartenenza, di esistenza, di identità.”
Purtroppo, la lettura, la validazione e la riflessione su dati, notizie e informazioni — che sono un po’ la stessa cosa, viste da prospettive diverse — stanno diventando sempre più difficili da trovare. Non che in passato fosse facile, ma l’esplosione della quantità di dati, notizie e informazioni, unita alla velocità con cui si diffondono, ha trasformato il problema in una vera e propria emergenza globale. Secondo me, è un problema dello stesso ordine di grandezza del cambiamento climatico — ma senza la stessa consapevolezza e senza, almeno per ora, un modello economico o etico che faccia intravedere una soluzione o una mitigazione su scala globale. Questo non significa che non si debba provare ad affrontarlo, a livello personale e di comunità (anche facendo cultura del dato ☺️).
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!
Il problema del gorilla fa pensare. Mi stupisce meno che sia una AI a commetterlo; di più negli umani. Ma quanti gorilla ci saranno tutte le volte che ci guardiamo intorno? Ed è possibile immaginare un "metodo gorilla"?