For my English speaking friends, click here for the translated version
Ciao,
sono Stefano Gatti e questo è il centocinquesimo numero della newsletter LaCulturaDelDato: dati & algoritmi attraverso i nostri 5 sensi. Le regole che ci siamo dati per questo viaggio le puoi trovare qui.
Ecco i cinque spunti del centocinquesimo numero:
🖐️Tecnologia (data engineering). Difese e pericoli nell'AI generativa: guida agli attacchi di prompt injection
Come ogni nuova tecnologia, anche l'intelligenza artificiale generativa solleva questioni di sicurezza, alcune delle quali nuove o almeno poco frequenti in questa forma. Per approfondire i pericoli specifici, ti consiglio un'analisi che esamina la tematica degli attacchi tramite i prompt inviati agli LLM. Ecco l'inizio della parte più significativa dell'articolo, che offre una prima definizione di questo tipo di attacco: "Secondo OWASP, la prompt injection consiste nella manipolazione degli LLM attraverso input dannosi che inducono inconsapevolmente l'LLM a eseguire le intenzioni dell'attaccante, dirottando il comportamento di un'applicazione che integra gli LLM. Questo può avvenire sia direttamente, attraverso la 'corruzione' dei prompt, sia indirettamente, tramite la manipolazione di dati esterni, con rischi come il furto di dati." Sotto, tratta dall’articolo, trovi una sintesi schematica delle sei tipologie di attacchi per fornirti una mappa iniziale.
Dalla mia esperienza personale interagendo con i principali LLM, ho notato che queste vulnerabilità sono ancora meno deterministiche rispetto a quelle riscontrabili con software tradizionali. Sono vulnerabilità che ricordano più tecniche come il social engineering o, per certi aspetti, il SQL injection, probabilmente perché gli LLM sono progettati per simulare il comportamento umano. Se almeno una delle sei categorie di Prompt Injection Attacks ti ha incuriosito, ti suggerisco di esplorare, sempre nell’articolo, anche le strategie di mitigazione dei rischi. Questo aspetto diventa ancora più cruciale se utilizzi o addestri gli LLM (ad esempio, attraverso il fine tuning) con dati personali o aziendali. E se vuoi conoscere una start-up che sta cercando di mitigare questi rischi non saltare il prossimo paragrafo …
👃Investimenti in ambito dati e algoritmi. Start-up del mese Gennaio 2024: Aim Security
Come ogni mese, sfruttando la mia attività di monitoraggio di innovazione e investimenti a livello mondiale, ti segnalo una startup che ha particolarmente colpito la mia attenzione e che ha ottenuto finanziamenti a Gennaio 2024. Questa startup, che opera nel mondo dei dati e degli algoritmi, usa queste tecnologie in modo significativo all'interno dei prodotti che offre al mercato.
Prima però cominciamo con i dati del mio cono di visibilità: circa il 60% del funding mondiale. Il dato globale di Gennaio 2024 che rilevo è in linea per numero e valore con quello di Gennaio 2023. Abbastanza concorde con i dati di Crunchbase, che rileva un andamento piatto, se si esclude il puntuale investimento registrato a Gennaio 2023 di 10 B$ di Microsoft in OpenAI. Stabile anche, in numero, gli investimenti che esplicitamente fanno riferimento a aziende Data & AI: ne ho registrati 67 a Gennaio 2024, circa il 15% del totale.
Veniamo ora alla start-up che ti segnalo e che, in linea con il tema del precedente paragrafo, è Aim Security, una start-up israeliana che ha ricevuto 10 milioni di dollari in un seed-round e che, citando da questa intervista al suo CEO Matan Getz, “ha costruito una piattaforma di sicurezza GenAI olistica che protegge tutti i casi d'uso della generative AI, consente alle organizzazioni di collegare i propri dati privati ai LLM e fornisce ai team di sicurezza informazioni sull'uso di GenAI, rendendoli promotori della sicurezza e della produttività aziendale.” Tra gli ambiti di mitigazione dei rischi, la piattaforma ha proprio quei “prompt injection attacks” di cui parlavo nel capitolo precedente, ma non solo. Per capire almeno a un primo livello quello che fa la piattaforma, ti consiglio di navigare l'homepage dell’azienda perché già da essa puoi farti un’idea di quello che promette di fare!
Se per caso la stai già usando o fai un approfondimento con loro, fammi sapere la tua esperienza perché sono molto curioso!
👂🏾Organizzazione e cultura dei dati e algoritmi nelle organizzazioni. Dietro le quinte: come dati e AI stanno rivoluzionando il mondo HR
"Il mondo delle risorse umane (HR) si trova all'inizio di un'era entusiasmante, alimentata dai dati e dall'intelligenza artificiale. Queste forze tecnologiche stanno rivoluzionando la gestione delle persone e creando processi intelligenti che semplificano le operazioni e forniscono utili informazioni ai professionisti delle risorse umane. Il compito dei team HR di oggi è quello di trovare un equilibrio. Da un lato, possono sfruttare la potenza dei dati e dell'IA per aggiungere valore all'organizzazione. Dall'altro, devono mantenere il tocco umano al centro di tutti i loro processi, combinando tecnologia e approcci incentrati sulle persone per offrire un servizio HR migliore a candidati e dipendenti."
Questo è l'inizio dell'approfondimento che ti consiglio oggi per avere una veloce panoramica di come dati e intelligenza artificiale stiano cominciando a cambiare il modo in cui il team delle risorse umane lavora in azienda.
Trovo decisamente interessante, nell'articolo, la divisione in sei aree in cui si collocano gli strumenti che, mano a mano, stanno emergendo e che si basano fortemente su dati e intelligenza artificiale, in particolare:
Recruitment
Onboarding
Performance Monitoring and Management
Training and Development
Safety and Wellbeing
People Analytics
Credo siano tutte abbastanza chiare le aree, soprattutto se hai lavorato in un'organizzazione con un team risorse umane, con la possibile eccezione dell'ultima, che riassume tutte quelle attività più legate all'analisi dei dati riferiti ai dipendenti. Se opportunamente analizzate e monitorate, questi dati possono fornire informazioni molto utili a tutta l'azienda.
Tutto bello e tutto automatico? Assolutamente no! Non sono affatto ottimista come l'autore dell'articolo, Bernard Marr. Credo ci siano molti problemi prima di avere benefici significativi su larga scala. In primis, l'integrazione di questi nuovi sistemi AI & Data-driven con i software, spesso molto legacy, che gestiscono la maggior parte dei processi HR oggi. Integrazione e usabilità sono due sfide enormi del presente, così come la capacità di conoscere i limiti (attuali) di questi sistemi. In aggiunta, la definizione del giusto equilibrio tra uomo e macchina, come peraltro evidenziato dall'articolo, è qualcosa su cui tutto il mondo HR e chi sta costruendo e migliorando questi strumenti dovrà lavorare ancora molto.
Se questi argomenti ti interessano e/o lavori in questo ambito, ti consiglio questa newsletter che segue ogni settimana l'intersezione tra mondo HR e AI. È in inglese e ha un taglio non tecnico. Anche in questa newsletter, periodicamente parlo di questo ambito e di start-up che stanno innovando per facilitare il nostro stare in azienda!
👀 Data Science. ChatGPT spiegato semplice: guide per tutti
Una delle esperienze che mi capita sempre più frequentemente, da quando OpenAI ha reso accessibile a tutti, nel novembre 2022, l'interazione con l'intelligenza artificiale di ultima generazione, è quella di ricevere la domanda: "Ma come funziona ChatGPT?". Questa curiosità si manifesta sempre di più anche fuori dall'ambiente lavorativo, rendendo cruciale la capacità di spiegare concetti complessi in termini semplici. Non è una mia dote innata, ma sto lavorando per migliorare, spesso avvalendomi di risorse esterne molto efficaci. E dal momento che penso che anche tu potresti avere bisogno di qualche aiuto, gli approfondimenti di questa sezione provano a rispondere proprio alla domanda di come funzionano gli LLM in maniera visuale, intuitiva e molto poco tecnica. Negli ultimi dodici mesi, ho esplorato numerosi contributi, ma quelli che ho trovato più convincenti e utili in vari contesti sono stati prodotti da due giornali anglosassoni, che ti suggerisco in ordine di maggiore semplicità:
1. Il Guardian presenta l'articolo più accessibile e breve, intitolato "How AI chatbots like ChatGPT or Bard work – visual explainer". Utilizza la familiare metafora della geolocalizzazione per spiegare i vettori di embeddings.
2. Il Financial Times offre un'analisi più dettagliata e tecnicamente approfondita con "Generative AI exists because of the transformer", servendosi invece di un'efficace metafora cromatica per illustrare la vicinanza vettoriale.
Dopo queste basi, non è raro che nasca l'interesse per approfondimenti ulteriori. Tra le varie risorse disponibili, "The GenAI Guidebook" di Ravin Kumar, datascientist attualmente in Google, rappresenta una delle proposte più intriganti per chi vuole esplorare con maggiore dettaglio. Oltre a questa guida, che include contributi di spicco come quelli di Andrej Karpathy, Ravin è attivo anche con un blog, un canale YouTube e corsi di alta qualità. Nei precedenti numeri della newsletter, avevo già menzionato altri contributi che spiegano in maniera semplice concetti chiave come gli embeddings e il parametro di temperatura, essenziali per chi si avvicina al mondo della generativa AI da principiante.
👅Etica & regolamentazione & impatto sulla società. AGI e Coscienza: scoperte e dibattiti ai confini dell'Intelligenza Artificiale
Ancora non abbiamo ben chiaro come e da quale area del cervello emerga la coscienza, ma ciò non diminuisce il nostro interesse nel comprendere se le attuali, o più probabilmente le future, intelligenze artificiali siano o saranno dotate di coscienza. Il dibattito in corso è vasto e coinvolge un ampio spettro di studiosi, dai filosofi ai neuroscienziati. Se sei alla ricerca di un approfondimento che discute il tema in maniera dettagliata, questo articolo di MIT Review è sicuramente uno dei migliori che ho trovato recentemente. Personalmente, trovo il tema dell'AGI (Artificial General Intelligence) più affascinante, non tanto in termini astratti, ma piuttosto nella sua accezione concreta e operativa. In questo contesto, è da poco uscito un paper molto interessante dal team di Google Mind, che descrive dettagliatamente i sei livelli di un'intelligenza artificiale, fino alla definizione di quella generale al sesto livello. Non si tratta di una lettura banale: sono tredici pagine dense di contenuto, che includono anche i sei principi operativi e i sei diversi livelli di autonomia. Questo documento potrebbe quasi diventare uno standard, simile a quello esistente per le macchine a guida autonoma. Ti consiglio di leggere il paper originale, ma se preferisci una sintesi che integra altri contributi esterni, questo post della newsletter AI Supremacy è assolutamente da considerare.
Se hai ulteriori suggerimenti e riflessioni sui temi di questo numero o per migliorare questa newsletter scrivimi (st.gatti@gmail.com) o commenta su substack.
Se ti è piaciuta e non sei ancora iscritto lascia la tua mail qui sotto e aiutami a diffonderla!
Alla prossima!