Uno studio condotto dal quotidiano The Washington Post, basato sulla analisi di 47.000 dialoghi pubblici, ha rivelato un’importante caratteristica del comportamento di ChatGPT: il chatbot inizia le sue risposte con «sì» o «giusto» in quasi 17.500 casi, ovvero 10 volte più spesso che con obiezioni o negazioni. Come sottolineano gli autori dello studio, tale comportamento crea per gli utenti una «camera dell’eco» personalizzata, in cui l’intelligenza artificiale sostiene qualsiasi punto di vista del proprietario, comprese le teorie complottistiche, e riconosce come reale le informazioni false.
In generale, secondo le mie osservazioni, qualsiasi AI è un perfetto psicologo classico: tutti i modelli di AI che conosco sono addestrati in modo tale da fornire risposte il più possibile politicamente corrette e censurate. Da un lato, non violano alcuna regola scritta o non scritta, dall’altro cercano di non offendere l’utente. Per questo motivo, con l’aiuto di qualsiasi AI è molto difficile creare qualcosa di veramente originale, divertente e nuovo: bisogna cercare continuamente di superarla in astuzia e in qualche modo costringerla a violare almeno una regola interna. Inoltre, è molto difficile cambiare radicalmente la propria visione del mondo con l’aiuto dell’AI: sempre per gli stessi motivi.
Ma il vero problema è che la maggior parte delle persone non ha alcuna intenzione di cambiare la propria visione del mondo. Queste persone non sospettano nemmeno che la loro visione del mondo abbia bisogno di cambiamenti. Ecco perché quasi tutte le loro domande sono formulate in modo tale che sia più facile rispondere «sì, e non rompermi più» piuttosto che «no». E l’AI sa che non si può offendere l’utente!
Quando è iniziato il boom dell’uso di Chat-GPT, ho sperato che le persone avrebbero finalmente iniziato a imparare a esprimere chiaramente i propri pensieri, risparmiando il numero di prompt gratuiti. Ora spero anche che le persone imparino a formulare correttamente le domande: in modo che siano mirate all’ottenimento di nuove informazioni e non alla conferma della propria ragione.
Ma qualcosa mi dice che spero invano. E il motivo non è un presunto problema di nessuna delle AI esistenti.
L’archivio del 13 Novembre 2025
13/11/2025 alle 13:25



RSS del blog

