I 3 mindset fondamentali del Machine Learning

Pexels Pixabay 54101

Il Machine Learning costituisce oggi uno dei pilastri dell’Intelligenza Artificiale, definirlo semplicemente “branca” risulta infatti riduttivo rispetto alla sua portata. Si tratta del paradigma che ha conseguito i risultati più significativi nella costruzione di modelli predittivi: da applicazioni specifiche e circoscritte fino alle architetture complesse di reti neurali e transformer che hanno reso possibile la creazione dei Large Language Model e dell’AI Generativa.

L’obiettivo di questo articolo è esplorare il “mindset” – lo schema mentale, la lente interpretativa – che il Machine Learning offre per leggere la realtà. Pur avvalendosi di strumenti matematici e statistici, questo approccio si differenzia in modo radicale dalla prospettiva tradizionale dello statistico. Quest’ultimo mira a interpretare i fenomeni attraverso modelli rigorosi, spesso trasparenti nella loro struttura, per fornire descrizioni precise delle relazioni tra variabili. Un approccio imprescindibile nella ricerca scientifica, dove la chiarezza esplicativa e il rigore formale rappresentano requisiti fondamentali.

Il mindset del Machine Learning abbraccia invece una filosofia diversa: l’attenzione non si concentra sulla forma del modello, ma sulla sua capacità predittiva. Che si impieghi un XGBoost, una rete neurale o una Random forest poco importa, purché le predizioni siano corrette ed efficaci nel tempo. Ciò che conta è che il modello raggiunga l’obiettivo prefissato. La questione dell’interpretabilità, pur presente, assume spesso un ruolo subordinato. Quando il contesto applicativo non lo richiede esplicitamente, il modello può legittimamente operare come una black-box, purché continui a generare predizioni accurate con performance adeguate.

Una seconda distinzione fondamentale risiede nella dimensione computazionale. Mentre è concepibile condurre un’analisi statistica senza l’ausilio di un computer, il Machine Learning è intrinsecamente legato alla “machine”, al computer, che diventa elemento costitutivo inseparabile di questa disciplina.

Eppure, anche all’interno del Machine Learning stesso coesistono mindset profondamente diversi tra loro.

Supervised Learning: Il Mindset dell’insegnante

Questo rappresenta probabilmente l’approccio più diffuso nel panorama del Machine Learning. Si parla di Supervised Learning, o Apprendimento Supervisionato, quando disponiamo di dati “etichettati” (labeled), cioè osservazioni storiche in cui conosciamo già l’esito che vogliamo prevedere.

Il meccanismo è il seguente: il modello apprende dai pattern identificati nei dati passati, con l’obiettivo di replicare tali relazioni anche su informazioni future. Il data scientist assume il ruolo di insegnante, guidando l’algoritmo nell’individuazione delle regole che governano il fenomeno osservato.

Vediamo un paio di esempi.

Esempio 1: Previsione delle vendite
Supponiamo di gestire una catena di negozi e di possedere tre anni di dati storici sulle vendite giornaliere, corredate da informazioni su stagionalità, promozioni attive, condizioni meteorologiche e giorni festivi. Il modello apprende come questi fattori abbiano influenzato le vendite in passato e produce previsioni per i mesi successivi, consentendo una miglior gestione delle scorte.

Esempio 2: Diagnosi medica da immagini
In ambito sanitario, migliaia di radiografie già esaminate e classificate da specialisti (normale vs. patologico) costituiscono il dataset di apprendimento. Il modello studia le caratteristiche che hanno guidato le diagnosi degli esperti e impara a riconoscere patologie  in nuove immagini, fungendo da strumento di supporto decisionale per i medici.

I limiti del paradigma
Questo mindset, per quanto potente, può incontrare ostacoli significativi. La disponibilità di dati etichettati costituisce spesso il collo di bottiglia principale: raccoglierli può essere oneroso, o addirittura impossibile. Con un numero esiguo di esempi, il modello rischia di non riuscire a “generalizzare” adeguatamente. In altre parole, in questo caso il modello non identifica le regole “universali” ma memorizza meccanicamente i casi specifici. Questo fenomeno, noto anche come overfitting, conduce a performance eccellenti sui dati storici ma a fallimenti, a volte anche clamorosi, di fronte a situazioni nuove, se diverse da quelle già osservate.

Unsupervised Learning: Il Mindset dell’esploratore

Questo secondo approccio rappresenta un cambio di paradigma radicale. Laddove l’apprendimento supervisionato procede con un obiettivo definito e una “ground truth”, una verità storica, da cui apprendere, l‘Unsupervised Learning (Apprendimento non-supervisionato) abbandona ogni riferimento a verità del passato. Non esistono etichette, non vi sono risposte da indovinare: la macchina esplora autonomamente i dati alla ricerca di strutture e pattern, configurazioni nascoste, regolarità che sfuggirebbero all’occhio umano.

L’obiettivo muta quindi in maniera sostanziale. Il modello non replica pattern storici, ma scopre organizzazioni e ricorrenze nei dati stessi: raggruppa osservazioni simili in cluster, individua anomalie, riduce la complessità preservando l’informazione essenziale.

Qui il data scientist muta il proprio ruolo: non è più un insegnante che mostra la strada, ma un esploratore che interpreta le mappe tracciate dall’algoritmo, cercando di dare senso ai territori sconosciuti che emergono dai dati.

Vediamo un paio di esempi.

Esempio 1: Segmentazione della clientela
Un’azienda di e-commerce possiede milioni di transazioni ma non sa come categorizzare i propri clienti. L’algoritmo analizza comportamenti d’acquisto, frequenza, categorie merceologiche preferite e orari di navigazione, individuando autonomamente segmenti: i “cacciatori di offerte”, gli “acquirenti metodici del weekend”, i “compratori impulsivi di lusso”.  La peculiarità è che questi cluster non sono determinati con un “insieme di regole” statiche, ma rappresentano i gruppi meglio separati matematicamente all’interno dei dati.

Esempio 2: Rilevamento frodi bancarie
In ambito finanziario, il modello apprende il profilo “normale” delle transazioni senza che nessuno gli indichi cosa costituisca una frode. Quando emergono operazioni con pattern anomali – importi inusuali, orari atipici, località geografiche incongruenti – il sistema le segnala automaticamente per approfondimento, identificando minacce che regole rigide non necessariamente avrebbero intercettato.

Le sfide del paradigma
Questo approccio presenta complessità peculiari. L’interpretabilità costituisce il primo ostacolo: i cluster individuati possono essere matematicamente robusti, ma attribuire loro un significato operativo e di contesto richiede competenza ed esperienza (interessante come oggi l’intelligenza artificiale generativa possa darci una mano in questo aspetto). La seconda difficoltà risiede nella valutazione: in assenza di una verità oggettiva di riferimento, misurare la bontà dei risultati diventa un esercizio delicato. Esistono metriche tecniche, ma la validazione finale richiede spesso il giudizio umano e una verifica empirica. In più, non per forza esistono pattern sempre significativi nei dati.
L’Unsupervised Learning eccelle invece come fase preparatoria per modelli supervisionati: si esplorano i dati, si identificano pattern e successivamente si costruiscono modelli supervisionati specifici sui cluster individuati. Questo spesso può rappresentare una strategia vincente per migliorare le performance dei modelli predittivi. (Ma qui è il “mindset” del Supervised Learner a parlare 😉) .

Reinforcement Learning: Il Mindset del giocatore

Un terzo mindset, forse il più affascinante, è quello del Reinforcement Learning. La sua peculiarità risiede nella straordinaria somiglianza con l’esperienza umana dell’apprendimento. Come recita una massima latina: “Exitus acta probat”: il risultato nel Reinforcement Learning guida e giustifica le azioni.

In questo paradigma, il sistema viene collocato in un ambiente dove, compiendo azioni, riceve ricompense o punizioni in base alle conseguenze delle proprie scelte. Non vi sono dati storici etichettati da cui apprendere, né esempi preconfezionati da imitare. Il modello impara “giocando”, esplorando autonomamente lo spazio delle possibilità attraverso tentativi ed errori. Ogni azione lo conduce in un nuovo stato, ogni stato genera informazioni che alimentano l’apprendimento. Iterazione dopo iterazione, il sistema affina la propria strategia, migliorando le performance in modo progressivo.

Qui il data scientist diventa l’architetto del sistema: un demiurgo che progetta l’ambiente, definisce le regole del gioco, calibra ricompense e punizioni, ma poi si fa da parte e osserva l’agente imparare autonomamente, talvolta scoprendo strategie che nessun esperto umano avrebbe immaginato.

Esempio 1: Robot che impara a camminare
Un robot umanoide viene posto in un ambiente virtuale con un obiettivo: avanzare senza cadere. Nessuno gli mostra “come” camminare – non esistono filmati di andature corrette da studiare. Il robot sperimenta combinazioni di movimenti articolari, cade ripetutamente, riceve penalizzazioni per le cadute e ricompense per ogni centimetro percorso. Dopo milioni di tentativi, emerge spontaneamente un’andatura stabile ed efficiente, talvolta sorprendentemente diversa dalla locomozione umana ma funzionalmente efficace.

Esempio 2: I trionfi di DeepMind
Il Reinforcement Learning ha reso possibili  alcune conquiste “storiche” nel mondo dell’AI e dell’informatica. AlphaZero, il motore scacchistico di DeepMind, ha imparato a giocare partendo dalle sole regole del gioco, affrontando sé stesso in migliaia di partite. Nel giro di poche ore ha sviluppato strategie che hanno sbaragliato i migliori motori tradizionali, costruiti su secoli di teoria scacchistica umana.

Ma un risultato ancora più strabiliante rimane forse quello di AlphaGo, modello sviluppato sempre da DeepMind. Nel 2016, per la prima volta nella storia, una macchina ha battuto in modo consistente Lee Sedol, campione mondiale di Go – un antico gioco cinese di una complessità straordinaria, con 10^170 posizioni possibili, un numero superiore agli atomi stimati nell’universo osservabile.

Le parole di Lee Sedol dopo quel match storico risuonano ancora, come una profezia di una tecnologia destinata a superare l’umanità in ogni campo:

«Pensavo di essere il migliore, o almeno uno dei migliori. Ma poi l’intelligenza artificiale mi ha dato il colpo di grazia. È semplicemente imbattibile. In una situazione del genere non conta quanti sforzi tu faccia. È tutto inutile […] Il Go è un’opera d’arte realizzata da due persone. Adesso è tutto diverso. Dopo l’avvento dell’IA, il concetto stesso del Go è cambiato. È una forza devastante. AlphaGo non mi ha sconfitto, mi ha annientato. […] Anche se diventassi il giocatore migliore che il mondo abbia mai conosciuto, c’è un’entità che non può essere sconfitta».

Le sfide del paradigma
Il Reinforcement Learning trova applicazione diffusa nella robotica e nella progettazione di sistemi complessi – inclusi i Large Language Model – spesso in combinazione con reti neurali e modelli supervisionati.

Tuttavia, le difficoltà sono considerevoli. Costruire un ambiente di apprendimento efficace richiede di progettare con precisione l’agente, definire funzioni di ricompensa e punizione bilanciate, elaborare sofisticati meccanismi di valutazione degli stati. Il processo è intrinsecamente molto complesso e richiede ingenti risorse computazionali, con i training che in certi casi possono durare giorni o anche intere settimane.

Esiste inoltre il problema del “sim-to-real gap”: gli addestramenti avvengono frequentemente in ambienti simulati, perfettamente controllati. Quando il modello viene trasferito nel mondo reale, con le sue imperfezioni, variabilità e imprevedibilità, le performance possono degradare significativamente, rendendo necessari ulteriori cicli di fine-tuning e adattamento.

Va inoltre riconosciuto un aspetto pragmatico: per la stragrande maggioranza delle applicazioni aziendali, il Reinforcement Learning rappresenta una soluzione eccessivamente sofisticata. Previsioni di vendita, classificazione di clienti, rilevamento anomalie, ottimizzazione di campagne marketing – la maggior parte dei casi d’uso trova risposta più che adeguata negli approcci supervisionati o non supervisionati, con complessità e costi inferiori.

Conclusione: tre lenti per leggere il mondo

I tre mindset del Machine Learning non sono semplicemente tecniche diverse: sono modi radicalmente differenti di concepire la relazione tra dati, conoscenza e predizione.

L’apprendimento supervisionato incarna il paradigma dell’esperienza codificata: il passato come maestro, la ripetizione come metodo. È potente quando la storia si ripete, fragile quando la storia non c’è o è difficile da codificare.

L’apprendimento non supervisionato abbraccia invece l’esplorazione dell’ignoto: nessuna mappa prestabilita, solo la capacità di riconoscere ordine nel caos. Scopre ciò che non sapevamo di cercare, a patto di saper interpretare ciò che trova.

Il Reinforcement learning replica l’essenza stessa dell’apprendimento umano: tentativo, errore, adattamento. Richiede pazienza, risorse, e visione strategica, ma può raggiungere vette inaccessibili agli altri approcci.

L’abilità nel Machine Learning non consiste solo nel padroneggiare algoritmi, ma anche nel saper riconoscere quale mindset applicare. Ogni problema porta con sé indizi sulla propria natura: la disponibilità di dati storici, la presenza di obiettivi espliciti, la sequenzialità delle decisioni, il grado di esplorazione richiesto….

Il Machine Learning, in fondo, non ci chiede di essere più intelligenti. Ma, per usarlo al meglio, ci chiede di essere più consapevoli di come guardiamo il mondo.

 

 

Fonti:

Christoph Molnar. Modeling Mindsets. The Many Cultures of Learning from Data.

Benjamin Labatut. MANIAC

Pedro Domingos. The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World.

Andrea Bergonzi

Andrea Bergonzi

Chief Data Scientist
Chief Data Scientist in Dataskills, Andrea Bergonzi è esperto di machine learning, modellazione predittiva e analisi quantitativa. Da diversi anni supporta le aziende nell’estrazione di insight dai dati, combinando innovazione tecnologica e visione di business. Il suo lavoro contribuisce a rafforzare il posizionamento di Dataskills tra i principali player nel panorama italiano della Data Science.

Comments are closed.

Iscrivi alla newsletter



    Dichiaro di aver letto ed accetto l’informativa sulla privacy

    Andrea Bergonzi

    Andrea Bergonzi

    Chief Data Scientist
    Chief Data Scientist in Dataskills, Andrea Bergonzi è esperto di machine learning, modellazione predittiva e analisi quantitativa. Da diversi anni supporta le aziende nell’estrazione di insight dai dati, combinando innovazione tecnologica e visione di business. Il suo lavoro contribuisce a rafforzare il posizionamento di Dataskills tra i principali player nel panorama italiano della Data Science.