Cómo saber si un texto ha sido generado por Inteligencia Artificial

La influencia del texto generado por inteligencia artificial, a través de herramientas como ChatGPT, se está manifestando cada vez más en nuestra vida diaria. Estos generadores son probados por profesores en el aula, los profesionales del marketing buscan reemplazar a sus becarios y los creadores de memes se vuelven locos utilizándolos. Personalmente, no puedo evitar sentir preocupación por la posibilidad de que los robots eventualmente me reemplacen como escritor.

Ahora que las herramientas de inteligencia artificial generativa están al alcance del público en general, es muy probable que nos encontremos con más contenidos sintéticos mientras navegamos por internet. Algunos de ellos pueden ser positivos, como por ejemplo un cuestionario autogenerado por BuzzFeed que te indica qué postre frito coincide con tus creencias políticas, sin embargo, otros pueden ser más siniestros, como una sofisticada campaña de propaganda diseñada por un gobierno extranjero.

Los investigadores académicos están buscando formas de detectar si una cadena de palabras ha sido generada por un programa como ChatGPT. Pero, ¿Cuál es el indicador definitivo de que lo que estás leyendo fue creado con ayuda de esta tecnología? La respuesta es simple: la falta de sorpresa.

Los humanos son aleatorios

Desde hace algún tiempo, existen algoritmos con la capacidad de imitar patrones de escritura natural. En 2019, el MIT-IBM Watson AI Lab y Harvard lanzaron una herramienta experimental que analiza el texto y resalta las palabras en función de su nivel de aleatoriedad.

¿Por qué es útil? Básicamente, un generador de texto de inteligencia artificial es una máquina capaz de imitar patrones, pero no tan buena para sorprender. Es cierto que cuando escribimos un correo electrónico a nuestro jefe o enviamos un mensaje de grupo a nuestros amigos, nuestro tono y cadencia pueden parecer predecibles, pero hay una cualidad caprichosa implícita en nuestro estilo humano de comunicación.

A principios de este año, Edward Tian, un estudiante de Princeton en Estados Unidos, llamó la atención con su herramienta experimental GPTZero, enfocada en educadores. Esta herramienta evalúa la probabilidad de que un contenido haya sido generado por ChatGPT basándose en su grado de “perplejidad” (es decir, su nivel de aleatoriedad) y su “explosividad” (es decir, su nivel de divergencia). OpenAI, la empresa detrás de ChatGPT, ha lanzado una herramienta adicional para analizar textos de más de mil caracteres y emitir una opinión. Sin embargo, la compañía ha sido franca acerca de las limitaciones del programa, como los falsos positivos y su eficacia limitada en idiomas distintos al inglés. Aunque la generación de texto de inteligencia artificial se enfoca en gran medida en el idioma inglés, la mayoría de las tecnologías para la detección de textos generados por inteligencia artificial benefician principalmente a los angloparlantes.

CNET, un sitio web especializado en tecnología, publicó recientemente varios artículos escritos por algoritmos con la ayuda de un humano. Aunque Tian cree que estos textos generados nunca podrán reemplazar el trabajo de un periodista humano, reconoce que estos avances tecnológicos son beneficiosos. No obstante, ChatGPT aún tiene algunas limitaciones y puede generar algunos errores, lo que podría afectar la confiabilidad de los reportajes.

IA imitando la aleatoriedad

Tom Goldstein, profesor de ciencias informáticas de la Universidad de Maryland, prevé que las herramientas de detección actuales serán menos eficaces a medida que el procesamiento del lenguaje natural se vuelva más sofisticado. Sin embargo, recientemente ha colaborado en un estudio sobre posibles métodos de marca de agua que podrían incorporarse a los generadores de texto de inteligencia artificial para identificar posibles materiales sintéticos. Una marca de agua podría prohibir ciertos patrones de palabras para el generador y al escanear el contenido y notar que las reglas impuestas se rompen varias veces, indicaría que, posiblemente, un ser humano escribió esa obra.

El analista de investigación del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown, Micah Musser, expresa sus dudas sobre la efectividad de las marcas de agua como medida para detectar la manipulación de texto generada por inteligencia artificial. Musser fue uno de los colaboradores de un estudio sobre tácticas de mitigación para combatir la manipulación de IA, en el que participaron también OpenAI y el Observatorio de Internet de Stanford. El informe destaca ejemplos de posibles usos indebidos y oportunidades de detección en el uso de la inteligencia artificial para generar texto manipulado.

El artículo propone una estrategia para detectar texto sintético basada en un estudio de Meta de 2020 que se centró en la detección de imágenes generadas por inteligencia artificial. En lugar de confiar en los cambios realizados por los responsables del modelo, los desarrolladores y editores podrían agregar datos “envenenados” a su contenido en línea y esperar a que se integren en los grandes conjuntos de información utilizados para entrenar los modelos de IA. De esta manera, una computadora podría buscar indicios del contenido adulterado y detectar la presencia de texto sintético.

El informe sugiere que la forma más efectiva de evitar el uso indebido de los grandes modelos de lenguaje sería simplemente no crearlos. Sin embargo, dado que esto parece poco probable, se enfoca en el desafío único que representa la detección de texto sintético mediante inteligencia artificial. A pesar de que se han propuesto tácticas como el uso de “datos radioactivos” para entrenar los modelos, detectar texto sintético sigue siendo mucho más difícil que detectar contenido sintético de imagen o video. El concepto de “datos radioactivos” es difícil de aplicar en el caso de las palabras, ya que un tuit puede contener solo cinco palabras, a diferencia de una imagen que contiene millones de píxeles.

Noah Smith, profesor e investigador en procesamiento del lenguaje natural en el Allen Institute for AI de la Universidad de Washington, destaca que, a pesar de la fluidez de los modelos en inglés, aún carecen de intencionalidad. “Nunca hemos concebido lo que significaría tener fluidez sin el resto. Nos confunden”, afirma Smith. A medida que avance la tecnología, quizá se necesiten nuevas herramientas para determinar si un texto es sintético, pero los consejos para escribir como un humano seguirán siendo los mismos: evita la repetición y mantén la aleatoriedad e imprevisibilidad.

Con información de Wired

Salir de la versión móvil