Davvero l’IA può fare questo?

Quando parliamo di intelligenza artificiale generativa, pensiamo subito a codice scritto in pochi secondi, test automatici, immagini generate o documenti compilati al volo. Tutto vero.
Ma ridurre l’IA a una semplice “macchina da produzione” è un errore di prospettiva. 

L’IA oggi può fare molto di più: può diventare uno strumento di analisi critica, un amplificatore di consapevolezza e persino uno specchio dei nostri processi, delle nostre abitudini e dei nostri bias.

In un recente Lunch&Learn organizzato da Imola Informatica, ho presentato alcuni casi d’uso non convenzionali che mostrano come l’IA possa aiutarci a capire meglio il codice, i team e le decisioni tecniche. 

L’IA come antropologo del codice legacy

Immaginiamo di trovarci davanti a un sistema legacy: codice scritto anni fa, da persone che non sono più in azienda, stratificato da patch e workaround. Di solito chiediamo all’IA di spiegare quel codice o di aiutarci a riscriverlo. 

Ma c’è un approccio alternativo, decisamente più interessante: chiedere all’IA di comportarsi come un antropologo culturale. Invece di analizzare il come, le si chiede di dedurre il chi e il perché: 

  • Che tipo di organizzazione ha scritto questo codice? 
  • Quali paure, vincoli o ossessioni emergono? 
  • È una cultura basata sul controllo? Sulla fretta? Sulla difensiva?

Il risultato non è una spiegazione tecnica, ma una lettura sociale del software, capace di far emergere pattern culturali che spesso influenzano ancora oggi l’evoluzione del sistema. 

In sintesi, questa tecnica serve a spostare l’attenzione dai sintomi tecnici alle cause umane e organizzative, per offrire una visione oggettiva su quanto la struttura del codice sia influenzata da paure, abitudini e decisioni manageriali del passato anziché da reali necessità ingegneristiche 

Analizzare ciò che manca: il valore del silenzio nei log 

Da esseri umani siamo capaci di analizzare bene ciò che vediamo, molto meno ciò che non vediamo.
L’IA, invece, eccelle proprio in questo. Un log di sistema può sembrare “normale”: qualche warning, un errore critico isolato, nulla di evidente. Ma cosa succede se chiediamo all’IA: “Quali eventi ti aspetteresti di trovare in un sistema di questa complessità, ma che qui non compaiono?” 

Spesso emergono ipotesi illuminanti: 

  • Logging interrotto perché il processo muore improvvisamente 
  • Assenza sospetta di errori di fallback 
  • Mancanza di metriche su componenti critici 

È l’equivalente informatico del survivorship bias: se un aereo torna alla base dopo una missione pericolosa, ha molto più valore guardare dove i proiettili non sono arrivati. 

Reverse engineering… dei requisiti

Dal codice possiamo capire cosa fa un sistema, ma quasi mai perché è nato. Eppure quel “perché” è fondamentale per decidere se riscrivere, semplificare, eliminare funzionalità obsolete.
Un esercizio potente consiste nel chiedere all’IA di: 

  • ricostruire la user story originaria 
  • ipotizzare i vincoli iniziali (business, legacy, infrastruttura) 
  • evidenziare incoerenze introdotte nel tempo. 

Il risultato è una sorta di archeologia del software, utile per capire se stiamo mantenendo complessità necessaria o solo eredità storica. 

Overengineering o folklore tecnico? 

Quante volte ci imbattiamo in sistemi iper-complessi per problemi banali? Pattern ovunque, livelli di astrazione infiniti, architetture “da CV”. L’IA può aiutarci a distinguere tra complessità essenziale (non eliminabile) e complessità accidentale (frutto di scelte discutibili) 

Chiedendole di identificare i design pattern usati e di valutare se siano proporzionati al problema, otteniamo un parere sorprendentemente onesto. A volte la risposta è chiara: stiamo uccidendo una mosca con un cannone. 

Smontare i bias cognitivi nei team tecnici 

Verbali di riunione, decisioni architetturali, scelte tecnologiche: tutto è permeato di bias cognitivi. L’IA può analizzare un resoconto e individuare, per esempio: 

  • sunk cost fallacy (“abbiamo già investito troppo per tornare indietro”) 
  • confirmation bias 
  • escalation of commitment 
  • campioni statistici insufficienti. 

Queste evidenze possono essere preziose non tanto per ricordare che “abbiamo sbagliato”, quanto per rendere esplicite dinamiche invisibili che influenzano le decisioni. 

Tradurre concetti tecnici in linguaggi non tecnici 

Un altro superpotere dell’IA è la traduzione concettuale. Un debito tecnico spiegato come una cucina stellata. Una architettura software raccontata come la mappa di un mondo fantasy. Policy aziendali trasformate in un libro-gioco interattivo. 

Questo approccio non semplifica i contenuti: li rende accessibili, migliorando il dialogo con stakeholder, clienti e nuovi membri del team. 

Non solo produttività: scalare il pensiero critico 

L’IA può farci scrivere più codice, più mail, più slide. Ma il vero salto di qualità è un altro: la possibilità di scalare il pensiero critico. Usata nel modo giusto, l’intelligenza artificiale mette in discussione le nostre ipotesi, evidenzia punti ciechi, migliora comunicazione e comprensione.
Ci induce a fare domande migliori, più efficaci. 

La prossima volta che provi odio per una classe legacy, non domandarti come eliminarla, ma interrogati sul perché esiste. L’IA potrebbe aiutarti a scoprirlo. 

L’intelligenza artificiale non è solo un acceleratore di output. È uno strumento che può aiutare a pensare meglio, se siamo disposti a usarla in modo creativo e non convenzionale. 

Quindi, la vera domanda non è più davvero l’IA può fare questo?“. Piuttosto è “Siamo pronti a usare l’IA per farci domande scomode?” 

 

Consulente IT, esperto di DevOps e Architetture, con un 'debole' per l'Intelligenza Artificiale. Un nerd ottimista che ama trasformare la complessità tecnologica in soluzioni concrete e accessibili.