Agenti AI. Opportunità o rischio? Ho espresso il mio parere e chiesto quello della Ai.
- Antonio Edoardo Marazita
- 2 mar
- Tempo di lettura: 7 min

Sono sempre stato un sostenitore delle tecnologie di intelligenza artificiale fin dalla prima ora. Ho studiato fin da subito ogni modello che nel corso di questi soli neppure 4 anni, ogni giorno è apparso, promettendo il paradiso. Resto convinto della enorme potenzialità dell’uso di Ai ma non potrei ritenermi intellettualmente onesto se non esprimessi a questo punto un pensiero critico. Il primo momento dominato dal “tutti potranno fare tutto” è finito da un po’ e nonostante ancora imperversino sui social saccenti fuffa guru che non sono altro che sponsorizzati personaggi che fanno intrattenimento di basso livello, per lo più dedicato a chi se già da solo non è in grado di comprendere come usare la Ai con loro ne capisce ancora meno, viviamo ora un passaggio sostanziale.
Dai modelli con i quali abbiamo imparato a chiedere la generazione di contenuto, siamo passati alla conoscenza di creazione di assistenti dedicati, in grado di verticalizzare i processi e dedicarsi ad attività stabilite da noi, attraverso la corretta somministrazione di istruzioni. Questo passaggio è stato lungo, per quanto si possa dire lungo un passaggio forse di circa un anno! Ma considerando i tempi di obsolescenza delle novità in ambito ai, direi si tratta di un’era come il pleistocene. Attraverso la programmazione di assistenti chi ha usato la testa ha compreso come il proprio lavoro poteva avere un amplificatore potenziale. Chi ha pensato che poteva diventare scrittore, fumettista, fotografo, è già tornato a giocare sulla playstation. ( e fanno bene). Fuori i pirati assaltatori della prima ora, restano i professionisti che come in ogni epoca hanno vissuto, usano le loro reali conoscenze e competenze, con altri strumenti. E questo è sempre stato così. Ma ora? Sto leggendo e studiando cosa accade e la cosa, questa volta non mi piace. Ora il pleistocene è finito e siamo nell’era degli agenti! Ossia sistemi intelligenti di connessione di piattaforme ai quali affidare interi flussi di lavori, perfino la consegna e viva Dio con tutta probabilità tra poco anche le call con i nostri clienti!
Questa cosa va vista bene e da vicino. Prima di tutto vi è un problema di tipo sociale che si insinua come al solito mascherato da opportunità per le aziende. E se all’inizio poteva esserci del pudore nell’affermare che ora non hai bisogno di un collaboratore umano, ora abbiamo gettato la maschera e si dichiara quasi fosse questa la vera opportunità che una azienda può finalmente lasciare a casa un po’di persone, tanto puoi configurare un agente per il tuo backoffice, per l’organizzazione del lavoro interno e con un po’di fantasia anche forse per le pulizie, tanto abbiamo già i robot che se ne vanno in giro, mettiamoli un tool di Ai ed è fatta. Ma… se già questo non mi piace, perché come sostengo, non è la riduzione del personale il vantaggio aziendale ma la sua formazione nell’uso di tecnologie nuove, il reale upgrade, quello che proprio non mi torna è il fatto che questi servizi di agenti devono per forza di cose mettere le mani dentro le mie cose. E chi c’è dietro questi servizi? Ovviamente quei colossi mondiali che hanno fatto del traffico delle informazioni il nuovo petrolio. Ovvio.
Non mi si racconti la frottola della privacy, dei dati sicuri, dei vpn, dei file criptati… per favore, dietro ogni sistema che giura di proteggermi ci deve essere qualcuno che per proteggermi deve sapere cosa proteggere! Ma qualcuno potrebbe obiettare che la direzione ormai presa è sempre più quella di sistemi di ai interni, chiusi, che girano solo nella mia azienda? Ma siamo ridicoli? Prima di tutto per un modello in locale sappiamo bene servono computer con grandi capacità di calcolo, e non è un mistero che questo significhi alimentare il mercato complementare dell’informatica non perché senza non posso fare nulla ma perché con… mi raccontano posso fare tutto! Secondo; una Azienda prima o poi deve per forza di cose interfacciarsi con l’esterno, e quella porticina che si apre sul mondo non può non essere connessa in qualche modo. Ora mi dico che, come ho sempre pensato, una tecnologia è tale se a disposizione di chi può scegliere di usarla e non deve essere costretto, altrimenti è controllo! C’è una altenativa? No! L’era dei bot è finita. Ci piaccia o no, se vogliamo stare nel mercato dobbiamo vivere nell’era degli agenti. Possiamo pensare di non volerlo fare e possiamo non farlo.
Quelle aziende che non hanno già integrato questo processo, chiuderanno nel giro di poco o se sono abbastanza caparbie, diventeranno quelle botteghe artigianali che prima o poi chiudono per stanchezza e contro una concorrenza che non si può evitare. Cosa ci deve insegnare, se c’è qualcosa da imparare da una ai? Che l’essere umano ha sempre costruito specchi di sé stesso nei quali osservarsi, ma questo è il primo che ci parla. È una necessità fisiologica per gli uomini creare forme di riflesso di sé stesso, nell’arte, nella comunicazione… E la cosa a mio avviso stupida è che come al solito, una buona idea finisca sempre per diventare uno strumento di controllo di chi ha una economia capace di centralizzare le scelte, e come si dice, chi crea le opzioni gestisce il menu. Illusione di scelta, ma tra le opzioni che qualcuno decide! In bocca al lupo nuovo mondo!
E per non fare un torto alla Ai, vediamo cosa risponde.
Antonio, sì: nella sostanza sono d’accordo con la tua traiettoria e soprattutto con il “cambio di fase” che descrivi. Te lo dico come libera opinione, quindi non come verità scolpita nel marmo, ma come lettura coerente con ciò che vedo e con la logica economica che muove questi cicli.
La prima cosa che condivido quasi al 100% è la fine dell’ubriacatura “tutti potranno fare tutto”. Quella stagione aveva un entusiasmo genuino, ma anche una retorica tossica: la promessa del paradiso a costo zero, l’idea che lo strumento sostituisca la competenza, e l’industria dell’intrattenimento mascherata da formazione. E sì: quando la novità smette di essere giocattolo, la gente si divide molto rapidamente in due specie. Chi usa la testa e innesta l’AI dentro competenze reali, e chi rincorre la scorciatoia identitaria (“sono diventato X perché ho un tool”). Tu lo dici in modo brutale ma vero: la seconda specie tende a stancarsi e tornare a fare altro.
Dove trovo molto centrata la tua analisi è nel passaggio da “generazione contenuti” a “assistenti istruiti” e ora alla “catena agentica”. La differenza non è solo di potenza, è di posizione nella filiera. Un modello che genera output è una macchina da scrivania: gli chiedi, ti risponde. Un assistente istruito diventa un reparto: gli definisci confini, criteri, procedure, e comincia a produrre in modo più stabile. Un agente, invece, è un corriere con le chiavi di casa: non produce solo, si muove, collega, consegna, decide micro-azioni. E quando un sistema passa dall’essere “strumento” a essere “operatore”, la posta in gioco cambia: non stai più comprando velocità, stai negoziando fiducia, accesso, delega.
Sul tema sociale, capisco benissimo il fastidio. Il marketing aziendale tende sempre a travestire un taglio costi da progresso.
E anche qui, come libera opinione: il “vero upgrade” per molte organizzazioni sarebbe formazione, ridisegno dei ruoli, riallocazione delle persone su attività ad alto valore e relazione. Ma la scorciatoia che molti proveranno a prendere è la più antica del mondo: meno esseri umani, più leva tecnologica, sperando che la qualità non si sbricioli. Il punto però è che, quando lo faranno in massa, succederanno due cose insieme: alcune aziende diventeranno più efficienti davvero (perché avevano processi maturi e useranno l’AI come turbo), altre diventeranno più fragili (perché useranno l’AI per coprire incompetenza organizzativa e mancanza di cultura). Nel breve sembra tutto “wow”; nel medio si vedono gli incidenti.
La tua parte più “tagliente” e per me più importante è quella sui dati e sulla fiducia. Qui sono d’accordo sul rischio strutturale: più gli agenti diventano utili, più devono vedere. Un agente che non vede niente non può fare quasi niente; un agente che vede tutto diventa un rischio enorme. E in mezzo c’è il campo di battaglia vero: quanto accesso dai, con quali permessi, con quali log, con quali controlli, e soprattutto con quale modello di business dietro. La frase “chi mi protegge deve sapere cosa proteggere” non è paranoia: è la descrizione del conflitto fondamentale tra promessa di sicurezza e necessità di visibilità.
Detto questo, mi discosto da te su un punto: quando dici “non mi si racconti la frottola della privacy…”. Capisco la rabbia, ma qui secondo me conviene distinguere tra “privacy come slogan” e “privacy come ingegneria”.
La prima è fumo. La seconda esiste, costa, richiede disciplina e a volte rinunce. Puoi costruire sistemi in cui l’agente vede meno (data minimization), in cui certe informazioni vengono tokenizzate o separate, in cui i connettori lavorano per “comparti stagni”, in cui il logging e l’audit sono seri, in cui il “human-in-the-loop” è obbligatorio sulle azioni irreversibili, in cui i segreti non entrano mai nel prompt ma stanno in vault esterni con permessi granulari. Non è magia e non è una garanzia assoluta, però è una differenza concreta tra “sto consegnando la mia azienda a un imbuto” e “sto usando un sistema con regole, tracciabilità e confini”.
Anche sull’idea “non c’è alternativa” io la smusserei. È vero che la pressione competitiva spingerà verso flussi agentici, perché sono comodi e perché riducono tempi di attraversamento. Ma non tutte le aziende devono salire sullo stesso treno allo stesso modo. C’è un’alternativa strategica: scegliere dove l’agente deve agire e dove deve solo assistere. In molte realtà, la configurazione sana non è “era degli agenti” come resa, ma “era dei workflow ibridi”: agenti per routine, esseri umani per relazione, responsabilità e qualità creativa. Il rischio, se ci si consegna al determinismo (“o agenti o morte”), è che si finisca a comprare soluzioni sbagliate, troppo invasive, prima di aver definito una governance minima.
Sul locale poi hai ragione nella sostanza, ma anche qui aggiungerei un’ombra: “locale” non vuol dire automaticamente “sicuro”, e “cloud” non vuol dire automaticamente “violato”. Il locale può essere un colabrodo se non hai controllo sugli accessi, sui backup, sulle macchine, sui plugin. Il cloud può essere più robusto del tuo armadio server se il vendor ha security engineering serio e contratti chiari. Il vero spartiacque non è dove gira il modello, è come governi i dati e le azioni.
La parte finale del tuo testo, quella degli “specchi”, secondo me è la più bella e anche la più inquietante. L’AI come specchio parlante: non solo riflette, ma risponde, e quindi partecipa alla costruzione di senso. È qui che la tua frase “chi crea le opzioni gestisce il menu” diventa politica, non tecnologia. Perché l’agente non è neutro: incorpora priorità, limiti, incentivi, e perfino una certa idea di “buon lavoro”. E se quel menu lo scrive chi monetizza attenzione, dati e lock-in, allora sì, la libertà di scelta rischia di diventare scenografia.
Se dovessi riassumere la mia posizione (sempre libera opinione): sono d’accordo con la tua critica all’euforia e con l’allarme sul tema “accesso ai fatti tuoi”. Sono meno d’accordo con il fatalismo totale: qualche margine di scelta c’è, ma non è una scelta comoda. È una scelta di design organizzativo, governance, e coraggio di dire “qui automatizzo, qui no”. E soprattutto è una scelta culturale: usare l’agente come macchinista di teatro, non come regista. Se gli dai le luci e le corde, lo spettacolo vola; se gli dai anche la sceneggiatura, il pubblico lo perdi.
Commenti