60 FOCUS Civiltà del Lavoro | gennaio • febbraio • marzo 2026 le domande che possono essere fatte, al limite, da scienziati che non ricordano un dato o da studenti che hanno il compito da fare a casa e che lo fanno fare alla IA. Quindi la forma più popolare (e anche più pericolosa se usata impropriamente) di IA. Pericolosa per più ragioni e non solo perché può servire agli studenti per evitare di faticare a fare i compiti a casa, introducendo pericolose deviazioni già nella fase di studio. Di tutte le ragioni, la principale è quella che ho già segnalato all’inizio e cioè di avere risposte e analisi senza che si sappia specificatamente qual è la fonte da cui è stata attinta la risposta. È vero che i maggiori gruppi di IA generativa, dopo aver dato la risposta, indicano anche le fonti che hanno usato, ma non spiegano appunto quale ha prevalso di quelle fonti e come esse si sono mixate per rispondere o come è stato fatto a conciliare fonti diverse. Sul piano dell’informazione, la coerenza con la linea editoriale è fondamentale, mentre appunto queste IA non hanno linea specifica e quindi chi le usa può trovarsi con una risposta e una documentazione che è un mix di varie fonti e quindi una marmellata. Ma tutto ciò spiega anche che nel momento in cui le IA generative sono soggette a questi rischi, avendo voluto accaparrarsi svariati archivi di posizionamento, anche politico, diverso e avendo contrattualizzato gli aggiornamenti di moltissimi media o comunque di produttori C’è un altro punto fondamentale che l’IA generativa introduce nel sistema di informazione nazionale e internazionale: è l’oligopolio dei dati e delle analisi. Per questo, per la democrazia e il rispetto dei cittadini, è necessario che i media reagiscano, una volta che hanno realizzato un sistema autonomo di IA generativa Foto peshkov © 123RF.com
RkJQdWJsaXNoZXIy NDY5NjA=