Riesci a riconoscere un testo scritto da ChatGPT?

Recentemente mi sono imbattuto in un articolo che sembrava stranamente generico e mi sono chiesto se potesse essere stato generato da ChatGPT o da un altro strumento di intelligenza artificiale. Ho bisogno di aiuto per capire quali segnali cercare per capire se un contenuto è stato scritto dall’IA. Sarebbero davvero utili consigli su come identificare la scrittura generata dall’IA o suggerimenti su strumenti di rilevamento.

Sì, capisco cosa intendi, quella sensazione di “vagamente familiare ma stranamente insipida”. A volte sono convinto che un esercito di robot stia scrivendo metà di internet. Ecco cosa noto di solito: numero uno, il testo è stranamente ripetitivo. Non parlo di parole come “il” ripetute cinque volte, ma di frasi come “è importante notare che…” presenti ogni due paragrafi. Due, il tono è ultra-neutrale, quasi come se un consulente ultra prudente fosse terrorizzato di offendere chiunque, ovunque. Tre, questi articoli ADORANO la struttura—introduzione, tre punti elenco, conclusione—rigido come se fosse costruito dal codice. Hai mai visto un articolo dire “In conclusione…” nel mezzo? Ecco l’energia dell’IA. Inoltre, i fatti sono super generici. Niente pettegolezzi piccanti, opinioni strane o analogie insolite—solo informazioni sicure, da manuale. E se sono completamente assenti storie personali? Vibrazioni da chatbot a non finire. Ma onestamente, con le IA sempre migliori, sta diventando davvero difficile dire. Tutto ciò che so è che, se noto la frase “come già accennato” più di una volta, comincio a sospettare.

Onestamente, per quanto riguarda la mia esperienza, la scrittura Intelligenza Artificiale non è sempre così impeccabile o neutrale come sottolinea @cacciatorestelle. A volte, gli articoli generati da Chat Generazione Previsionale Trasformatore cercano di sembrare conversazionali o addirittura inseriscono opinioni che suonano “umane”, ma c’è questa strana discrepanza nella profondità. Tipo, il pezzo lancia provocazioni o domande retoriche ma evita completamente qualsiasi impegno reale o approfondimento concreto. Ho notato che introduce una “prospettiva unica” ma poi tutto resta in superficie—nessun vero rischio, nessuna logica umana strana o difettosa, solo commenti sicuri che sembrano cuciti insieme da un algoritmo.

Un altro indizio evidente per me è come Chat Generazione Previsionale Trasformatore e strumenti simili raramente sbagliano sintassi in quel modo tipicamente umano—nessun pensiero lasciato a metà, nessuna divagazione peculiare, pochissimi errori di battitura o bizzarrie. Le persone reali di solito hanno qualche scivolone, frasi senza fine o battute interne che sembrano spontanee, capisci? L’Intelligenza Artificiale di solito rende tutto un po’ troppo perfetto, a meno che qualcuno non le abbia chiesto esplicitamente di suonare disordinata. Inoltre, hai mai notato quelle liste “equilibrate”, tipo tutti i pro e contro hanno esattamente la stessa lunghezza? Quello urla sempre Intelligenza Artificiale per me.

Una cosa su cui non sono d’accordo è l’idea che solo le informazioni “generiche” siano un segnale—ci sono tanti autori umani che producono contenuti insipidi da “fattoria SEO”, soprattutto su siti a basso costo. Però, quando trovi un articolo che potrebbe stare ovunque—basta cambiare qualche parola, modificare l’argomento, e sarebbe comunque lo stesso—sì, la probabilità che sia Intelligenza Artificiale è alta. O uno scrittore ombra molto annoiato. In ogni caso, se cerchi tracce di Intelligenza Artificiale, cerca una sorta di scorrevolezza innocua e che svicola dai dettagli, non solo la ripetizione clinica!