Quando il vantaggio è standard
C’è una scena di Attraverso lo specchio alla quale faccio riferimento spesso in diversi contesti legati a comunicazione, marketing, innovazione e AI nelle imprese.
In sintesi: la Regina di Cuori prende Alice per mano e comincia a correre. Corrono sempre più forte. Alberi, prati, tutto sfreccia attorno a loro. Poi si fermano e sono esattamente nel punto di partenza. Alice è stupita. “Nel mio paese”, dice, “quando si corre così a lungo si arriva da qualche altra parte.”
“Paese lento”, risponde la Regina. “Qui, vedi, devi correre più che puoi per restare nello stesso posto.”
Questo è esattamente quello che sta succedendo con l’AI nelle organizzazioni: si corre, si producono output più velocemente, si automatizzano processi, si moltiplicano i contenuti, le analisi, le sintesi.
E alla fine del trimestre ci si ritrova nello stesso posto degli altri perché gli altri stanno correndo alla stessa velocità, con gli stessi strumenti, verso gli stessi risultati.
L’efficienza operativa non è strategia
Nel 1996, Michael Porter ha pubblicato su Harvard Business Review un articolo che dovrebbe essere lettura IMHO obbligatoria per chi si occupa di marketing: “What Is Strategy?“.
Tra le perle di cui è disseminato l’articolo, ne troviamo una importante per interpretare la situazione odierna: l’eccellenza operativa non è strategia.
L’efficienza operativa significa fare le stesse cose dei concorrenti (ma meglio) mentre la strategia significa fare cose diverse, (o fare le stesse cose in modo strutturalmente diverso). Le due cose non sono equivalenti e confonderle è esattamente l’errore che Porter vede ripetersi decade dopo decade.
La sua metafora è quella della frontiera della produttività: il limite massimo di valore che un’azienda può creare dato un certo livello di costo, usando le tecnologie e le pratiche migliori disponibili.
Quando tutte le aziende migliorano la propria efficienza operativa, spostano insieme la frontiera verso l’esterno. Il risultato? Miglioramento assoluto per tutti, miglioramento relativo per nessuno. La competizione basata solo sull’efficienza operativa è a somma zero e i guadagni di produttività vengono catturati dai clienti e dai fornitori di tecnologia, non dalle aziende che li producono.
Sostituisci “TQM” e “benchmarking” con “AI” e il testo del 1996 descrive perfettamente il 2025.
L’AI è uno strumento di efficienza operativa straordinario. È anche, per definizione, replicabile da chiunque abbia accesso agli stessi modelli, agli stessi tool, alle stesse API.
Quando tutti usano gli stessi strumenti per fare le stesse cose più velocemente, la velocità smette di essere un vantaggio e diventa il nuovo standard minimo.
Non correre significa restare indietro mentre correre significa restare fermi 1.
Il problema non sono gli Output
C’è una distinzione che nel project management viene ripetuta spesso e applicata raramente: la differenza tra Output e Outcome.
Un Output è un risultato chiuso, misurabile, consegnabile: il documento prodotto, il contenuto pubblicato, la funzionalità sviluppata, la sintesi generata.
Un Outcome è l’effetto (impatto) che quell’output (o un insieme di ouput) produce nel mondo reale: il comportamento che cambia, la decisione che viene presa, il problema che viene risolto.
Il lavoro non è mai stato davvero di Output, ma è sempre stato di Outcome. Per decenni abbiamo misurato gli Output perché erano più facili da contare e abbiamo lasciato che la misurazione sostituisse il ragionamento sull’impatto 2.
L’AI ha aggravato questo problema in modo sottile e pericoloso perché ha reso la produzione di Output talmente veloce e talmente a buon mercato che il rischio di saturazione è concreto: più contenuti, più documenti, più analisi, più sintesi senza che nessuno si fermi a chiedere quale Outcome tutto questo dovrebbe produrre.
Ma siamo diventati molto più veloci.
Veloci a fare cosa, esattamente?
Se non sai quale Outcome vuoi ottenere, la velocità di esecuzione è un moltiplicatore dell’inefficienza, non dell’efficacia. Produci più cose inutili più rapidamente. Il costo sale, l’impatto no.
3Per usare bene l’AI hai bisogno di esperienza. Non il contrario.
C’è un’assunzione implicita nel modo in cui si parla di AI come strumento democratizzante: l’idea che chiunque, con il tool giusto, possa fare quello che prima richiedeva anni di esperienza.
È parzialmente vera ed è proprio per questo che è pericolosa.
Chiunque può chiedere a un sistema AI di produrre un’analisi di mercato, una strategia di contenuto, un piano di progetto e il sistema produrrà qualcosa di plausibile, ben formato, privo di errori grammaticali.
Ma per sapere se quell’output è utile, se risponde al problema giusto, se i criteri sono corretti, se le assunzioni sono valide, se il risultato è applicabile al contesto specifico, hai bisogno di esperienza (anche perché sappiamo bene come questi strumenti ti diano sempre ragione e al massimo ti dicano dopo “hai ragione, mi sono sbagliato” se fai notare una porcheria / inesattezza cosmica).
Vale la pena fare una distinzione precisa qui, usando il framework che David Maister sviluppa in Managing the Professional Service Firm.
Maister identifica tre logiche di practice professionale, che non sono categorie rigide ma tre modi diversi di organizzare il lavoro, il valore e le persone.
- La prima è Brains: affronta problemi nuovi, complessi, ad alta incertezza. Il cliente paga per l’intelligenza dei senior migliori e per soluzioni originali. Il leverage è basso, le tariffe alte e il valore sta nell’expertise nella capacità di inventare una risposta che non esiste ancora.
- La seconda è Grey Hair: gestisce problemi già visti, ma in contesti dove l’esperienza conta molto. Il cliente non compra una soluzione nuova compra giudizio, pattern recognition, la capacità di adattare intelligentemente soluzioni note a un contesto specifico. Il valore sta nell’esperienza accumulata, non nell’originalità.
- La terza è Procedure: tratta problemi ripetitivi e standardizzabili. Il cliente paga per rapidità, affidabilità ed efficienza. Il vantaggio competitivo viene dalla ripetibilità, dai playbook, dalla capacità di industrializzare l’esecuzione.
L’AI è uno strumento di Procedure straordinario. Industrializza l’esecuzione, abbatte il costo marginale degli output ripetitivi, scala senza proporzione con il numero di persone. Ma una practice che compete solo sulla Procedure compete su efficienza operativa e torna esattamente al problema di Porter: tutti hanno accesso agli stessi strumenti, la frontiera della produttività si sposta verso l’esterno, e il vantaggio relativo svanisce.
Dove l’AI fa molta più fatica è nelle prime due logiche. La Grey Hair richiede pattern recognition costruito su anni di esposizione a problemi simili la capacità di riconoscere che questa situazione assomiglia a qualcosa che hai già visto, che il dettaglio apparentemente secondario è in realtà il punto critico, che il cliente sta descrivendo il sintomo ma il problema è altrove. Questa capacità non si trasferisce a un sistema che non ha mai sbagliato una consulenza e non ne ha pagato le conseguenze.
La Brains è ancora più distante dalla replicabilità: richiede la capacità di affrontare problemi per cui non esiste ancora una risposta nota. L’AI può supportare il ragionamento, esplorare ipotesi, accelerare la ricerca, ma non può sostituire il giudizio di chi ha già navigato abbastanza incertezza da sapere come muoversi quando la mappa finisce.
L’AI augmenta l’esperienza. Non la sostituisce. Chi ha più esperienza (nel senso preciso di aver visto più contesti, risolto più problemi, capito dove i modelli falliscono e perché) ottiene dall’AI risultati strutturalmente migliori di chi non ce l’ha. Il gap non si chiude con lo strumento. Si allarga.
Questo significa che le organizzazioni che useranno meglio l’AI non sono necessariamente quelle che la adottano prima, ma sono quelle che capiscono in quale delle tre logiche di Maister stanno operando, e usano l’AI per amplificare il vantaggio specifico di quella logica invece di usarla indiscriminatamente per accelerare tutto.
4Il moat? Persone e i dati proprietari.
Se l’AI è replicabile (e lo è, per definizione, perché chiunque ha accesso agli stessi modelli fondazionali) allora costruire un vantaggio competitivo sull’AI come tecnologia è costruire su sabbia. Qualcuno con più budget compra lo stesso tool, qualcuno con più tempo lo clona, i tuoi studenti lo riproducono con Lovable nel weekend.
Il moat non è mai stato nella tecnologia in sé, è sempre stato in quello che la tecnologia da sola non può replicare.
Tre elementi che resistono alla replicazione.
- Il primo è l’esperienza accumulata. Non la competenza generica (quella diventa commodity rapidamente). L’esperienza specifica: aver risolto quel tipo di problema, in quel settore, con quelle dinamiche, commettendo quegli errori e avendo imparato cosa non fare. Nella logica di Maister, è il cuore della Grey Hair e il prerequisito della Brains. È il contesto che permette di fare le domande giuste all’AI, di valutare le risposte con senso critico, di sapere quando il modello sta producendo qualcosa di plausibile ma sbagliato.
- Il secondo sono i dataset proprietari. I modelli fondazionali sono addestrati su dati pubblici. Il vantaggio si costruisce sui dati che non sono pubblici: i dati di cliente, di processo, di mercato che solo tu hai accumulato nel tempo. Chi ha i dati giusti ottiene dall’AI output che nessun altro può ottenere con gli stessi strumenti.
- Il terzo sono le relazioni. La fiducia accumulata con clienti, partner, collaboratori non è replicabile da un sistema AI. È costruita nel tempo, attraverso interazioni, errori condivisi, risultati dimostrati. L’AI può amplificare la capacità di una persona di coltivare relazioni non può sostituire la relazione stessa.
Porter direbbe che questi tre elementi non sono fonti di efficienza operativa: sono fonti di posizionamento strategico. Sono difficili da imitare non perché siano protetti da brevetti o segreti industriali, ma perché richiedono tempo e contesto per essere costruiti e il tempo non si compra con un abbonamento mensile.
La domanda che vale la pena farsi
Secondo me, chiedersi “come usiamo l’AI per essere più veloci?” è la domanda che porta la Regina di Cuori a correre sempre di più per restare nello stesso posto.
La domanda strategica è: quali Outcome vogliamo produrre, e come l’AI ci aiuta a ottenerli in modo che i nostri concorrenti non possono replicare facilmente?
La risposta non è mai solo tecnologica.
È una combinazione di esperienza accumulata, dati che solo tu possiedi, e relazioni che solo tu hai costruito e amplificata da strumenti che hanno anche gli altri, ma che senza quel contesto producono output generici invece di risultati specifici.
Le persone intelligenti che sanno risolvere problemi avranno vita lunga. La domanda aperta (e non ho ancora una risposta definitiva) è come queste persone possano moltiplicare il proprio valore dentro organizzazioni che stanno ancora misurando il tempo invece degli Outcome, e che confondono la velocità di esecuzione con la qualità della strategia.
L’AI non risponde a questa domanda, ma la rende più urgente.
5Altre riflessioni interessanti
Sara Malaguti /Flowerista) – Cosa stai difendendo davvero? Ovvero, la Struttura
La Newsletter di Giorgio Soffiato (che pone un sacco di domande interessanti sul Moat delle agenzie e tante altre riflessioni)
Note:
- La mia pacata reazione quando in azienda mi dicono che la loro strategia è implementare in maniera diffusa l’AI è uguale a quella di Germano Mosconi quando si sbatte la porta. Se non cogli la reference puoi cercare su YouTube: attenzione, potrebbe essere offensivo per i Credenti ↩
- elementi che oggi ci tornano indietro in maniera fortissima dato che dobbiamo dare valore al Branding e non alla sola Performance ↩
- Questo è il punto centrale di “L’AI tra Hype e Processi”: introdurre l’AI senza chiarire prima quale problema si sta risolvendo genera waste più velocemente. Il Value Stream Mapping lo rende evidente — automatizzare un’attività inefficiente non la rende efficiente. ↩
- L’AI come strumento di efficienza su attività Procedure ha senso. L’AI come sostituto del giudizio Grey Hair o della creatività Brains è un errore di categoria — e porta esattamente al problema descritto in “Se non sai spiegarlo, non sai farlo. E l’AI nemmeno.”: delegare a un sistema un compito che non sai ancora definire con precisione. ↩
- Sul tema della governance necessaria prima di introdurre l’AI come strumento, rimando a “L’impatto dell’AI sui team di lavoro” e a “AI: può avere effetti collaterali, leggere il foglio illustrativo”. I tre post si leggono in sequenza — il problema non è mai lo strumento, è la struttura che manca prima dello strumento. ↩



Leave a Reply
Want to join the discussion?Feel free to contribute!