L’Intelligenza Artificiale (AI) sta cambiando lo sviluppo software e, sempre più, l’intera catena del valore che porta dalla definizione alla costruzione e messa in produzione di un’applicazione. Generazione di codice, automazione dei test, ottimizzazione del backlog, supporto alle decisioni: opportunità concrete, ma una domanda resta inevitabile: i principi dell’Agile reggono o vanno aggiornati?
Il Manifesto Agile, nato oltre vent’anni fa, ha trasformato il software puntando su collaborazione, adattabilità e rilascio iterativo di valore. L’AI non è, di per sé, una minaccia: può rafforzare quei principi. Il punto è un altro: non è “uno strumento in più”, è un moltiplicatore che amplifica ciò che trova: architetture, processi, incentivi, qualità dei dati e disciplina ingegneristica. Può accelerare valore oppure accelerare fragilità. E può anche riabilitare, in modo subdolo, ciò che l’Agile aveva provato a ridurre: processi e strumenti che guidano le persone, invece del contrario.
In questo articolo analizziamo i quattro valori del Manifesto Agile
Persone e interazioni più che processi e strumenti
Uno dei capisaldi dell’Agile è la centralità di persone e interazioni rispetto a processi e strumenti. L’AI automatizza attività come generazione di codice, documentazione e analisi dei requisiti, liberando tempo per competenze distintive: creatività, empatia, risoluzione dei problemi, negoziazione.
La sfida non è “adottare l’AI”, ma usarla per migliorare collaborazione e qualità del pensiero senza erodere competenza. Se una parte delle attività viene automatizzata, il rischio (soprattutto per i profili junior) è un vuoto formativo: meno esposizione ai fondamentali, meno intuizione tecnica quando il problema diventa ambiguo o critico. La contromisura non è tornare indietro, ma rendere l’apprendimento intenzionale: lavoro in coppia (anche con AI), rotazione su attività “formative”, esercizi tecnici, revisioni didattiche e momenti espliciti di spiegabilità (“capisco e so spiegare perché questo codice è corretto”). In altre parole: l’AI accelera l’esecuzione, ma la crescita va progettata.
Con l’avvento dell’AI agentica (assistenti che eseguono compiti, propongono soluzioni e aprono azioni nel flusso di lavoro), l’interazione uomo-macchina entra nel lavoro quotidiano: un agente può sintetizzare un meeting, suggerire priorità, preparare opzioni di decisione. Qui serve un principio netto: l’AI può proporre, l’umano dispone. Ma non basta dirlo: servono freni strutturali ai bias di automazione, soprattutto sotto pressione temporale. Esempi pratici: registrazione e tracciamento delle azioni dell’agente, supervisione umana obbligatoria per classi di rischio, doppia approvazione per integrazione/rilascio solo dove conta davvero (cambi critici, dati sensibili, sicurezza), e un registro decisionale sintetico (chi ha accettato cosa, su quali evidenze). La responsabilità resta umana e deve essere dimostrabile.
Software funzionante più che documentazione esaustiva
L’Agile sostiene che, per massimizzare valore e apprendimento, il feedback sul prodotto funzionante conti più della documentazione statica. L’AI rafforza questa logica accelerando prototipi e iterazioni, riducendo lavoro ripetitivo e migliorando alcuni aspetti della qualità (refactoring assistito, suggerimenti, rilevazione di difetti).
Ma se produrre “codice che funziona” diventa più facile, la differenza competitiva si sposta su progettazione, manutenibilità, intenzionalità e verificabilità. Il rischio non è solo codice mediocre: è la perdita di conoscenza contestuale e la crescita di un “debito tecnico” difficile da governare. Per questo servono pratiche più mature: non basta la revisione del codice tradizionale. Serve una catena di evidenza: test automatizzati affidabili, valutazioni ripetibili, regole codificate (sicurezza, prestazioni, conformità), osservabilità (log, metriche, reporting) e confronti “prima/dopo” per misurare l’impatto reale. In sintesi: non solo software funzionante, ma software verificabile e trasparente: ogni cambiamento deve essere testabile, misurabile, tracciabile, osservabile e conforme.
Collaborazione con il cliente più che negoziazione contrattuale
L’Agile incentiva il coinvolgimento continuo del cliente. La GenAI può rafforzare questa collaborazione: analisi assistita, sintesi di insight, report su misura, supporto nella formulazione di ipotesi e prototipazione rapida. Usata bene, riduce attriti e aumenta comprensione.
Il rischio, però, è il bias di automazione: sintesi e analisi “ben scritte” possono sembrare vere anche quando sono parziali o distorte. È l’“allucinazione del requisito”: l’AI colma ambiguità con supposizioni plausibili ma non validate. Per evitare che l’AI sostituisca il dialogo, serve disciplina: ogni output generato va trattato come ipotesi, da verificare con scoperta col cliente, evidenze e feedback sul prodotto. La relazione col cliente deve restare autentica e centrata sul contesto, non delegata a un modello.
Risposta al cambiamento più che seguire un piano
L’Agile vive di adattamento. L’AI può favorirlo suggerendo scenari, evidenziando trade-off, ricalibrando priorità e riducendo tempi di analisi. Ma la sua componente predittiva, basata su dati storici, introduce una tensione reale: l’Agile è empirico; l’AI tende a proiettare il passato. Se non governata, questa predizione può reintrodurre un “grande progetto iniziale” mascherato: piani apparentemente solidi, fragili davanti a discontinuità e innovazione.
Questo è anche il punto in cui nasce una critica “estrema”: se l’AI produce molto in poco tempo, l’iterazione breve diventa superflua e servirebbe più progettazione a monte (prompt come nuova analisi). È un’obiezione utile, ma confonde velocità di generazione con affidabilità dei risultati. Inoltre, il prompt non elimina il requisito ambiguo: al massimo rende esplicite ipotesi che vanno verificate, altrimenti l’AI riempie i vuoti in modo convincente ma errato. Quando il costo di produrre scende, aumenta il rischio di produrre velocemente la cosa sbagliata: per questo feedback, esperimenti e governo dell’incertezza restano centrali.
Cambia la meccanica: i cicli possono accorciarsi e diventare più continui, e “progettazione” (incluse istruzioni e specifiche) diventa un artefatto evolutivo, versionato e verificato, non un atto iniziale che pretende di chiudere l’ambiguità.
La contromisura non è rifiutare l’AI, ma usarla come acceleratore di sperimentazione: ogni previsione deve alimentare un ciclo di prova e falsificazione. E soprattutto la leadership non è delegabile: il team umano resta il luogo della valutazione critica, con decisioni consapevoli e un ruolo dell’AI chiaramente di supporto.
In questo contesto cambia anche la “cadenza”: per alcuni team l’unità di governo non sarà più lo sprint in sé, ma il tempo decisionale lungo il flusso di valore. Attenzione però: la cadenza dello sprint ha anche una funzione sociale (coesione, allineamento, senso di urgenza) che non va persa. Gli sprint possono restare utili come ritmo di squadra e di coordinamento; dove il flusso è maturo, l’obiettivo diventa aumentare continuità e qualità del feedback, riducendo attese e passaggi di consegne, senza rinunciare a rituali periodici che tengano unito il gruppo.
Le nuove sfide dell’AI per lo sviluppo software agile
L’integrazione dell’AI nelle Agile Software Factory porta sfide operative e organizzative.
· Competenze e apprendimento: non basta addestrare agli strumenti. Va riprogettato l’apprendimento per evitare atrofia (specie nei profili junior) e trasformare l’AI in acceleratore di crescita: lavoro in coppia con AI, revisioni guidate, esercitazioni su incidenti, cicli di apprendimento strutturati e obiettivi espliciti di autonomia tecnica.
· Governance, sicurezza e conformità: l’AI amplia superfici di rischio (dati, proprietà intellettuale, filiera, dispersioni). Servono regole, controlli e tracciabilità: non fiducia nel modello, ma controllo verificabile.
· Gestione del cambiamento: ruoli e responsabilità evolvono. Nei team ibridi è essenziale chiarire chi decide, chi valida, chi risponde degli esiti: l’AI contribuisce, l’accountability resta umana.
· Qualità come sistema: l’AI accelera la produzione, ma l’affidabilità dipende dalla capacità di costruire e mantenere una catena di evidenza (test, valutazioni, osservabilità, artefatti versionati, confronti “prima/dopo”) che renda il cambiamento misurabile, replicabile e governabile.
Un’evoluzione guidata dall’equilibrio
L’AI non è una minaccia automatica per il Manifesto Agile: può accelerare sviluppo e migliorare qualità. La chiave, però, non è né entusiasmo né prudenza astratta: è l’equilibrio operativo tra automazione e responsabilità, tra velocità e verificabilità, tra predizione e sperimentazione.
Soprattutto, non viene meno il mindset dell’Agile: centralità delle persone, apprendimento continuo, feedback empirico e capacità di adattarsi restano invarianti. L’AI apre quindi un
capitolo nuovo: non sostituzione, ma evoluzione, in cui intelligenza artificiale e intelligenza umana si potenziano. Le aziende che metteranno al centro collaborazione, governance e catena di evidenza, trasformando la velocità in affidabilità, saranno quelle che guideranno l’innovazione nei prossimi anni, con uno sviluppo più efficiente, collaborativo e sostenibile.
A cura di Stefano Mainetti, Executive Chairman di adesso.it


