Recientemente me encontré con un artículo que se sentía extrañamente genérico y me preguntaba si podría haber sido generado por ChatGPT u otra herramienta de inteligencia artificial. Necesito ayuda para saber qué señales buscar para saber si el contenido fue escrito por inteligencia artificial. Cualquier consejo sobre cómo identificar textos generados por inteligencia artificial o recomendaciones de herramientas de detección sería muy útil.
Sí, entiendo lo que quieres decir, esa vibra de “vagamente familiar pero extrañamente insípida”. A veces estoy convencido de que un ejército de robots escribe la mitad de internet. Esto es en lo que suelo fijarme: Número uno, el texto es extrañamente repetitivo. No palabras como “el” cinco veces, sino frases tipo “es importante destacar que…” en cada otro párrafo. Dos, el tono es ultraneutro, casi como si un orientador demasiado precavido tuviera miedo de ofender a alguien, en cualquier lugar. Tres, estos artículos AMAN la estructura: introducción, tres puntos clave, conclusión—rígidos como si estuvieran hechos por código. ¿Alguna vez has visto que un artículo diga “En conclusión…” en el medio? Esa es energía de inteligencia artificial. Además, los datos son supergenéricos. Nada de rumores picantes, opiniones raras ni analogías fuera de lo común—solo información segura, de manual. Y si no hay ni una sola historia personal, pura vibra de chatbot todo el día. Pero en realidad, con lo avanzada que está la inteligencia artificial, ya está muy difícil de distinguir. Lo único que sé es que, si encuentro la frase “como se mencionó anteriormente” más de una vez, empiezo a sospechar.
Honestamente, en mi experiencia, la escritura de inteligencia artificial no siempre es tan pulcra o neutral como señala @cazadordeestrellas. A veces, los artículos generados por ChatGPT intentan sonar conversacionales o incluso incluir opiniones que suenan ‘humanas’, pero hay una extraña falta de profundidad. Por ejemplo, el texto lanza comentarios polémicos o preguntas retóricas, pero evita cualquier compromiso real o seguimiento. He notado que introduce una “perspectiva única”, pero todo se mantiene superficial—sin asumir riesgos, sin esa lógica humana rara o defectuosa, solo comentarios seguros que parecen ensamblados por un algoritmo.
Otra señal clara para mí es cómo ChatGPT y herramientas similares rara vez se equivocan con la gramática de esa manera genuinamente humana—nada de ideas a medio formar, sin desvaríos peculiares, muy pocos errores tipográficos o idiosincrasias. Las personas reales suelen cometer algunos errores, frases excesivamente largas o chistes internos que se sienten espontáneos, ¿sabes? La IA normalmente lo pule todo demasiado bien, a menos que alguien le pida sonar desordenada a propósito. Además, ¿alguna vez has notado esas listas “equilibradas”, como si cada lista de pros y contras tuviera exactamente la misma cantidad de puntos? Eso siempre me grita IA.
Algo con lo que no estoy del todo de acuerdo es con la idea de que solo la información ‘genérica’ es un indicio—muchos escritores humanos también producen contenido insípido para “granjas SEO”, sobre todo en sitios de bajo presupuesto. Pero cuando te encuentras un artículo que parece poder pertenecer a cualquier lado—cambia un par de palabras, modifica el tema, y aun así encajaría—sí, las probabilidades de que lo haya hecho una IA son altas. O un redactor fantasma muy aburrido. De cualquier modo, si buscas huellas de la IA, busca ese tipo de suavidad inofensiva, esquivando detalles, no solo la repetición clínica.