Se non sai spiegarlo, non sai farlo. E l’AI nemmeno.

In ogni team c’è quella persona che fa le cose in modo impeccabile: istinto, velocità, qualità. La chiami per i problemi difficili e li risolve.

Poi provi a farla lavorare con un junior, a farle trasmettere quello che sa e… catastrofe. Risultato pessim. Senior frustarto, Junior frustrato. Non riesce a spiegare perché fa quello che fa, le fa e basta e il Junior dovrebbe apprendere per osmosi 1.

Non è cattiveria. È che sapere fare e sapere spiegare sono due competenze diverse, e non si trascinano automaticamente l’una con l’altra.

La distinzione tecnica esiste da decenni nella scienze cognitive 2: si chiama differenza tra conoscenza procedurale (saper fare) e conoscenza dichiarativa (saper descrivere, strutturare, trasmettere quello che si sa). Un chirurgo esperto opera per muscle memory. Un pianista non pensa alle dita. Un project manager navigato legge la stanza e agisce. Nessuno di loro, necessariamente, sa spiegarti come lo fa.

Questo non era mai stato un problema urgente finché non è arrivata l’AI (e le mirabolanti promesse).

Il passaggio che nessuno ti dice di fare

Usare l’AI in modo utile davvero utile (qualcosa che vada oltre il “fammi un riassunto” o “scrivimi l’email”) richiede di passare dalla conoscenza procedurale a quella dichiarativa.

È infatti necessario fermarsi, smontare quello che sai fare e trovare le parole per descriverlo a un’entità che non ha il tuo contesto, i tuoi riferimenti, la tua storia.

Ma io non so spiegare come faccio il mio lavoro. Lo faccio e basta.

Esatto. Ed è qui il problema.

L’AI non ha l’intuizione che hai maturato in dieci anni, non ha visto i progetti andare male, non ricorda il cliente difficile del 2019, non percepisce il tono di quella mail. Quello che tu chiami “esperienza” è un archivio procedurale che non hai mai dovuto aprire perché ti serviva solo a te.

Ora devi aprirlo: devi trovare il modo/ il linguaggio per descrivere quello che fai, le condizioni al contorno, i criteri impliciti.

Deming lo aveva già detto

W. Edwards Deming ha lasciato numerose perle, e una in particolare che mi evoca spesso dei mixed feelings (perché non tutto è definibile subito come processo, per cui in ambito di innovazione non sempre credo si possa seguire, ma sto divagando): “Se non riesci a descrivere quello che stai facendo come un processo, non sai quello che stai facendo.” 3

Chi non riesce a descrivere il proprio lavoro, i criteri con cui decide, i risultati che produce, le condizioni che rendono il lavoro ben fatto, non ha conoscenza dichiarativa del proprio lavoro. Ha automatismi. Gli automatismi sono preziosi, ma non sono trasferibil: non a un junior, non a un sistema AI, non a un processo documentato.

E in un momento in cui la capacità di interagire con sistemi AI diventa discriminante, chi non riesce a formalizzare quello che sa ha un problema concreto di impiegabilità.

Feedback e delega: competenze scarsamente allenate

Le aziende raramente hanno investito in due competenze chiave che sono, entrambe, forme di conoscenza dichiarativa applicata al lavoro con le persone (e si leggono un sacco di commenti negativi a riguardo).

La prima è la delega.

Delegare non è “fai così”. Delegare è descrivere il risultato che vuoi ottenere con precisione sufficiente che l’altro possa orientarsi anche quando incontra un ostacolo che tu non avevi previsto. Un buon briefing di delega dice: questo è il risultato atteso, questo è il contesto, questo è il vincolo che non si tocca, questo è lo spazio in cui puoi muoverti. Tutto il resto è istruzione operativa travestita da delega e produce dipendenza, non autonomia.

La seconda è il feedback.

Dare feedback significa descrivere un comportamento, collegarlo a un risultato atteso, indicare la direzione di correzione. Non è “hai fatto bene” o “la prossima volta fai meglio”. È: questo specifico comportamento ha prodotto questo specifico risultato, e il risultato che volevo era diverso per queste ragioni. Richiede di avere chiari i criteri, le aspettative, gli standard 4.

La prima è la delega. Delegare non è “fai così”. Delegare è descrivere il risultato che vuoi ottenere — con precisione sufficiente che l’altro possa orientarsi anche quando incontra un ostacolo che tu non avevi previsto. Un buon briefing di delega dice: questo è il deliverable, questo è il contesto, questo è il vincolo che non si tocca, questo è lo spazio in cui puoi muoverti. Tutto il resto è istruzione operativa travestita da delega — e produce dipendenza, non autonomia.

Ora prova a usare l’AI senza aver mai imparato a fare né l’una né l’altra.

Il prompt è una forma di delega: richiede che tu descriva il risultato che vuoi, il contesto che serve per ottenerlo, i vincoli entro cui lavorare. Se non hai mai allenato quella competenza con le persone in carne e ossa, non ce l’hai nemmeno con l’AI.

L’AI migliora chi riesce a parlarle.

Qui voglio smontare una narrativa che circola in due versioni opposte e ugualmente inutili: “l’AI ci sostituirà tutti” e “l’AI non sostituirà nessuno perché manca il tocco umano”.

La verità operativa è più precisa e più scomoda di entrambe.

L’AI augmenta le competenze che riesci a rendere dichiarative: quelle che non riesci a descrivere restano tue, ma non nel senso nobile del termine. Restano tue perché non riesci a trasferirle, e quindi non riesci a moltiplicarle.

Faccio un esempio concreto. Nel mio lavoro ci sono attività che so fare bene e so descrivere con sufficiente precisione: analisi di un brief, struttura di un documento strategico, revisione di un testo. Su quelle l’AI mi accelera in modo misurabile.

Poi ci sono attività che so fare, ma non so spiegare come: la lettura di una dinamica relazionale in una riunione, la valutazione dell’affidabilità di un interlocutore, la calibrazione del tono giusto in una trattativa difficile.

Su quelle l’AI mi aiuta poco, perché non riesco a darle il contesto che le serve per essere utile.

Il punto critico non è cosa so fare. È cosa so descrivere.

E qui c’è un’implicazione che viene sottovalutata: la velocità è parte del vantaggio.

Se impiego cinque giorni minuti a costruire il contesto per far fare all’AI qualcosa che facevo in cinque minuti, ho perso il vantaggio competitivo dello strumento, ma non perché lo strumento non funzioni, ma perché il costo di attivazione rischia di essere è troppo alto rispetto al beneficio nel caso di singole iniziative e non di attività ricorrenti.

Fuori dalle tue competenze dichiarative, l’AI rallenta invece di accelerare. 5. Speriamo che, passato questo momento di picco, si inizi a parlarne seriamente, non solo di introduzione, ma anche di revisione dei processi: al momento vedo tante speranze (diventeremo più veloci), ma senza investimento nelle persone e nella revisione delle attività è destinato a rimanere titolo di giornale (e l’approccio play and pray non è ottimale).

Il lettore modello e il prompt che non funziona

Nel decennale della scomparsa di Umberto Eco, stavo rileggendo pezzi Lector in Fabula (il testo in cui Eco sviluppa il concetto di lettore modello e di cooperazione interpretativa).

Quello che Eco ha scritto nel 1979 descrive benissimo il problema centrale dell’interazione con i sistemi AI. 6.

L’idea di base: ogni testo presuppone un lettore. Non un lettore generico, ma un lettore modello specifico, con un’enciclopedia specifica, con un insieme di competenze, riferimenti e aspettative che l’autore ha in mente mentre scrive. Il testo funziona (ovvero produce il significato che l’autore intendeva) solo se il lettore reale si avvicina abbastanza al lettore modello.

Eco introduce poi la distinzione tra testi pigri e testi che non lo sono. I testi pigri delegano tutto al contesto condiviso tra autore e lettore.

Funzionano bene quando quel contesto è davvero condiviso e collassano quando non lo è. Un messaggio WhatsApp tra vecchi amici è un testo pigro: pieno di ellissi, riferimenti impliciti, ironie che funzionano solo se sai chi è l’altro. Un contratto è un testo non pigro: costruito per resistere all’interpretazione divergente, per ridurre al minimo lo spazio di inferenza.

Ora: cos’è un prompt? Un prompt è, ovviamente, un testo.

E quasi tutti i prompt che le persone scrivono sono testi straordinariamente pigri, indirizzati a un lettore, l’AI, che non ha nessuno dei riferimenti impliciti che l’autore dà per scontati.

L’AI non sa chi sei, non conosce il tuo settore, non ha visto i tuoi clienti, non sa cosa intendi con “professionale” o “sintetico” o “adatto al contesto”. Elabora il testo che riceve e inferisce quello che può — ma inferisce a partire da un’enciclopedia che non è la tua.

Il risultato è quello che Eco chiamerebbe una cooperazione interpretativa fallita: l’autore voleva una cosa, il lettore ha costruito qualcosa di diverso, e nessuno dei due ha torto: il testo era semplicemente inadeguato a colmare la distanza.

La soluzione non è scrivere prompt più lunghi. È scrivere prompt (skill, progetti, elementi custom) meno pigri: costruire esplicitamente l’enciclopedia del lettore modello (il contesto, il ruolo, i vincoli, gli standard, gli esempi) invece di aspettarsi che l’AI li inferisca da sola. L’autore diventa responsabile non solo del testo, ma della progettazione del lettore che quel testo deve incontrare.

È esattamente quello che fa un buon briefing di delega. È esattamente quello che fa un feedback ben strutturato. È esattamente quello che Deming intendeva quando diceva che se non sai descrivere quello che fai, non sai quello che stai facendo.

Il cerchio si chiude.

Considerazioni sulla DEI

Quando si parla di inclusività, si fa una distinzione che vale la pena di fare bene, perché i due termini vengono spesso usati in modo intercambiabile e non lo sono.

  • Neurodivergenza indica una condizione neurologica specifica (es. ADHD, autismo, dislessia, e altre) che si discosta da quello che viene considerato il funzionamento neurologico tipico. È una categoria diagnostica, con tutto quello che comporta in termini di supporto, inclusione, e diritti.
  • Neurodiversità è un concetto più ampio e meno clinico. L’idea (formulata dalla sociologa Judy Singer alla fine degli anni Novanta) è che la variazione neurologica tra gli esseri umani sia normale, non patologica. 7 Non esiste un cervello standard. Ognuno processa le informazioni, costruisce significato, apprende e comunica in modo che è il risultato di una combinazione unica di biologia, esperienza, cultura, contesto.

Perché è rilevante qui? Perché il problema della comunicazione non è mai solo cosa dici, ma come lo dici, a chi, con quali presupposti condivisi e quali no. Arrabbiarsi perché l’altro non capisce è quasi sempre inutile. Capire perché non capisce, quali riferimenti impliciti stai usando che lui non ha, quale struttura ti aspetti che lui veda e che per lui non è evidente è la competenza che serve.

Con l’AI questo non è metafora.

L’AI ha un sistema di riferimento strutturalmente diverso dal tuo. Non elabora per analogia come fai tu. Non ha contesto implicito. Pretendere che “capisca” senza costruire l’enciclopedia necessaria è pretendere che il lettore si adatti all’autore, invece di progettare il testo per il lettore che hai davanti.

Torniamo anche al paragrafo iniziale: se non sei in grado di comprendere la differenza degli altri, ma tratti tutte le persone come se fossero te senza fornire il contesto, beh… la brutta notizia è che non hai un problema solo con l’AI, quella pessima è che probabilmente sei un collega tossico.

Chi è a rischio?

Molto probabilmente chi non è in grado di descrivere il risultato del proprio lavoro è a rischio. Non come giudizio di valore sulla persona, ma come analisi della situazione.

Se non riesci a spiegare cosa fai, non riesci a delegarlo a un collega, non riesci a documentarlo, non riesci a migliorarlo sistematicamente. E non riesci a farlo fare a un sistema AI.

Sei l’unico che sa farlo e quella non è una posizione di forza, ma una dipendenza fragile che regge finché regge.

Le organizzazioni che sopravvivranno bene alla transizione AI non sono quelle con i tool più avanzati. Sono quelle che riusciranno a estrarre e formalizzare la conoscenza procedurale dei loro esperti attraverso feedback strutturato, delega descrittiva, documentazione del processo e trasformarla in qualcosa di trasferibile e soprattutto in nuovi modelli ripensando ai vari processi.

Oltretutto le imprese già strutturate stanno già velocizzando notevolmente l’utilizzo: se avevi già un onboarding hai già un contesto strutturato per il collega digitale 8.

Il collega bravissimo che non è in grado di far crescere e condividere con altri era un problema che esisteva già prima dell’AI.

L’AI lo ha reso urgente, visibile, e costoso. 9

Note:

  1. che è poi il motivo per cui alcune imprese vorrebbero tornare in presenza, così non hanno bisogno di struttura (fine del piccolo rant sulla presenza vs remoto)
  2. A numerosi anni di distanza ri-scopro che gli esami di psicologia in effetti servono
  3. La frase di Deming viene da “The New Economics”, 1994. Gira in versioni diverse perché è diventata un aforisma. Il senso non cambia.
  4. Ci sarebbe tantissimo dire sul feedback e su come darlo, ma richiederebbe un post a parte
  5. Sul punto della velocità come vantaggio competitivo: è la variabile più sottovalutata nel dibattito sull’AI in azienda. Non si misura quasi mai il costo di attivazione il tempo necessario a costruire il contesto per ottenere un output utile. Quando quel costo supera il beneficio, lo strumento non è uno strumento: è un ostacolo con una buona campagna marketing. Oltretutto è il caso di lavorare su prompt e contesti condivisi, la parte di prompt engieering non ancora diffusa come pratica, ovvero la strutturazione delle pratiche.
  6. Umberto Eco, “Lector in Fabula”, Bompiani, 1979. Se non l’hai letto e lavori in comunicazione, hai un debito. Se l’hai letto vent’anni fa, vale la pena riaprirlo, alcune pagine sembrano scritte per descrivere il problema del prompting
  7. Judy Singer ha introdotto “neurodiversità” nella sua tesi di laurea del 1998. Harvey Blume lo ha portato sull’Atlantic nello stesso anno. L’idea di fondo, cioè che la variazione è normale, non è un difetto da correggere, resta utile molto al di là del dibattito clinico.
  8. Che poi se l’Ai è un collega provbabilmente abbiamo bisogno di una collaborazione migliore tra HR e IT
  9. La distinzione procedurale/dichiarativa viene da John R. Anderson, “The Architecture of Cognition”, 1983. Le implicazioni pratiche sono immediate: le organizzazioni pagano per la conoscenza procedurale e quasi mai investono nel renderla dichiarativa. Il conto arriva adesso.
0 replies

Leave a Reply

Want to join the discussion?
Feel free to contribute!

Leave a Reply