*L’immagine è “Valentine’s Day Mascara” di Banksy
Nel giro di pochi anni siamo passati da “il software mangia il mondo” a “l’IA mangia il software”. Ora emerge un terzo passaggio: la filosofia mangia l’IA. Per chi guida organizzazioni e progetti, questo significa che non basta più chiedersi quanto la propria azienda sia avanzata sull’IA: bisogna capire quali idee sul mondo, sulla conoscenza e sul valore sono già incorporate dentro i modelli che si stanno adottando, spesso senza rendersene conto.
La filosofia entra nell’IA non solo come etica o “responsible AI”, ma come disciplina, insieme di dati e lente interpretativa che orienta come i modelli ragionano, prevedono, generano e prendono decisioni. Concentrarsi soltanto su linee guida etiche e guardrail significa sottovalutare il peso di tre domande filosofiche di fondo:
- qual è lo scopo dell’IA che si sta sviluppando (teleologia)?
- che cosa viene considerato “conoscenza valida” (epistemologia)?
- come la macchina rappresenta la realtà in cui agisce (ontologia)?
Se queste dimensioni non vengono esplicitate, l’organizzazione finisce per ottimizzare obiettivi impliciti che nessuno ha davvero scelto.
La storia dell’innovazione digitale mostra che i grandi salti in avanti nascono spesso da domande filosofiche, non solo da intuizioni ingegneristiche. I casi di Alan Turing, Wittgenstein, Frege, Claude Shannon, Geoffrey Hinton, Sam Altman, presentano sempre la stessa dinamica: è la chiarezza filosofica che abilita le svolte tecniche, non il contrario. Per i leader, questo significa che lo sviluppo di IA davvero utile richiede anche un lavoro sistematico sul proprio pensiero critico.
Il caso di Google Gemini è un esempio concreto di cosa accade quando la filosofia resta implicita. Per evitare bias e rappresentazioni discriminatorie, il sistema viene addestrato a produrre immagini storiche “più diverse” del reale, generando Padri Fondatori multietnici o vichinghe asiatiche. Non si tratta di un semplice bug tecnico, né soltanto di un problema etico: è un fallimento teleologico. Gli obiettivi di accuratezza storica e quelli legati a diversity, equity & inclusion sono stati combinati e gerarchizzati in modo confuso. Il risultato è una IA che non sbaglia perché non ha dati, ma perché è stata allenata su una filosofia degli scopi poco chiara, che compromette la fiducia e mina la credibilità del sistema.
Lo stesso cortocircuito si vede nella gestione della customer loyalty. Molte aziende dichiarano di voler clienti fedeli, ma di fatto riducono la lealtà a proxy quantitativi come RFM, churn o NPS. In pratica, le metriche diventano la definizione di lealtà per decreto manageriale, invece che uno strumento per esplorarla. Come ricordava Wittgenstein, “i limiti del mio linguaggio sono i limiti del mio mondo”: se “lealtà” viene ridotta a un numero, anche il mondo della relazione con il cliente si restringe. Starbucks, con la piattaforma Deep Brew, prova a ribaltare la logica: parte da una definizione ontologica dell’esperienza (“connessioni tra clienti e persone in negozio, on e offline”) e usa l’IA per rendere scalabile e coerente questa esperienza connessa, non solo per ottimizzare coupon o scontistica. La filosofia non sostituisce le metriche, ma le rende più intelligenti e aderenti al senso del business.
La transizione da LLM ad AI agentica rende ancora più cruciale questo livello. In uno scenario complesso, non basta più un modello che risponde bene ai prompt: servono sistemi che comprendono contesto, formulano piani, agiscono in autonomia allineandosi agli obiettivi dell’organizzazione. Qui entrano in gioco l’avvertimento di Archiloco (“non si sale al livello delle aspettative, si cade al livello dell’allenamento”) e la frase di George Box (“tutti i modelli sono sbagliati, ma alcuni sono utili”).
La domanda diventa: a quale filosofia stiamo allenando i nostri agenti autonomi? Spostando il focus dagli output alle conseguenze strategiche. Per arrivare a questo salto servono quattro pilastri:
-
- Il primo è l’agenzia epistemologica: modelli che non si limitano a processare informazione, ma riconoscono i propri limiti, cercano attivamente nuove conoscenze, testano ipotesi, esplicitano i livelli di incertezza.
- Il secondo è la comprensione ontologica: capacità di mappare sistemi, cause ed effetti, interdipendenze, riconoscendo che ogni decisione – dalla gestione degli stock al pricing – modifica relazioni, flussi di cassa, reputazione e clima interno.
- Il terzo è l’architettura teleologica, in cui gli agenti non eseguono solo task, ma collegano le azioni a scopi di ordine superiore, sapendo mediare tra efficienza di breve periodo e creazione di valore di lungo termine.
- Il quarto è l’agenzia etica, che va oltre la semplice conformità alle regole per consentire deliberazione morale in contesti nuovi, con scelte trasparenti, spiegabili e in linea con i valori dichiarati.
Queste cornici filosofiche diventano ancora più visibili quando si sceglie quale filosofia incorporare negli agenti. Un sistema addestrato, ad esempio, alla logica della “libertarian paternalism” di Thaler e Sunstein agirà come architetto delle scelte, progettando contesti che guidano le persone verso decisioni migliori senza toglier loro libertà, invece di limitarsi a massimizzare KPI locali come ore di straordinario o produttività apparente. Allo stesso tempo, l’incontro tra filosofie occidentali più orientate al risultato e tradizioni orientali centrate su armonia, interdipendenza e contesto suggerisce nuove combinazioni di framework per bilanciare interessi individuali e collettivi, controllo e accettazione dell’incertezza, efficienza e impatto sociale.
Sul piano operativo, questo implica ripensare anche la governance. Trattare gli LLM come “high-potential talent” significa progettare veri e propri programmi di sviluppo: definire KPI chiari per i casi d’uso, creare “laboratori di performance” per testare e ottimizzare prompt, monitorare drift e miglioramenti come si farebbe con manager ad alto potenziale. Significa anche architettare framework filosofici espliciti per ciascun ambito applicativo: chiarire obiettivi (teleologia), standard di conoscenza accettabile (epistemologia), confini etici e diritti decisionali macchina/umano. E richiede di ridisegnare l’architettura di collaborazione umano–IA lungo uno spettro che va dall’automazione all’augmenting, con protocolli di handover, metriche per la qualità della collaborazione e scorecard che colleghino gli investimenti di training alle performance reali.
Il punto di arrivo è chiaro: il futuro dell’IA in azienda apparterrà a chi comprende che il vero vantaggio non è solo computazionale, ma filosofico. I sistemi addestrati senza una filosofia esplicita rischiano di diventare pattern matcher potentissimi ma ciechi, strumenti che producono risposte sempre più rapide a domande impostate male o a obiettivi mai discussi davvero. Chi invece decide di imporre consapevolmente quadri filosofici rigorosi – su conoscenza, verità, scopo e valore – può trasformare l’IA in un partner capace di imparare a pensare insieme all’organizzazione, migliorando nel tempo nel perseguire la missione strategica e nell’ingaggiare in modo adulto e critico le persone che ne fanno parte.
**La presente sintesi è stata realizzata con l’IA e rivista dai consulenti PRIMATE.
***A lungo abbiamo adottato un linguaggio inclusivo, usando anche la vocale schwa (ə). Diversi lettori ci hanno però segnalato che questo rendeva gli articoli meno scorrevoli, perciò abbiamo scelto di tornare a una forma al maschile per favorire la lettura. PRIMATE resta profondamente sensibile ai temi di Diversity, Equity & Inclusion e continuerà a promuovere una cultura organizzativa rispettosa e inclusiva, in ogni sua forma.