OpenAI ha renunciado a la identificación de los textos creados por la IA

OpenAI se ha apuntado, con ChatGPT, uno de los mayores éxitos del sector tecnológico que hemos visto en los últimos años. Todavía no ha pasado un año desde que el nombre de este chatbot empezó a colarse con fuerza en nuestras vidas, pero en algunos casos ya casi parece que ha estado presente desde hace mucho más tiempo, algo que se ve reforzado, claro, por la rápida respuesta tanto de Microsoft con Bing como de Google con Bard, amén de otros modelos de lenguaje y chatbots que hemos visto proliferar durante los últimos meses.

Desde el primer momento, no obstante, tuvimos claro que esta tecnología también comportaba ciertos riesgos. Por una parte, debido a sus errores, si bien esto es algo en lo que las empresas como OpenAI llevan ya tiempo trabajando, como te contamos al abordar el problema de las alucinaciones de los modelos generativos.

Así, aunque de momento esto es algo a lo que todavía hay que prestar mucha atención, pues de lo contrario podemos meternos en problemas, cabe esperar que con el tiempo se produzcan mejoras sustanciales.

Más complicado es otro problema sobre el que también se puso el foco desde que los chatbots basados en IA empezaron a popularizarse, y es que pueden ser empleados para usos, digamos que un poco tramposos, es decir, como atajo para no tener que escribir trabajos, informes, etcétera, algo que en el ámbito académico resulta preocupante. Como respuesta, a principios de año OpenAI empezaron a trabajar en un sistema que debería ser capaz de identificar si un texto ha sido escrito por una persona o creado por un modelo generativo.

Ya desde el primer momento, la compañía alertaba de que los resultados podían ser erróneos, algo que pudimos ratificar en las pruebas que llevamos a cabo, pero esperábamos que con el tiempo se fuera afinando su funcionamiento. Parece, sin embargo, que no va a ser así ya que, según podemos leer en ZDNet, OpenAI ha eliminado su herramienta de detección de si un texto ha sido creado por una IA o no, y la razón es que, como cabía temerse, su funcionamiento se ha mostrado muy poco fiable.

Estudios llevados a cabo de manera reciente, tanto con la ya desaparecida herramienta de OpenAI como con otros sistemas que intentan identificar el contenido generado por inteligencias artificiales, han arrojado unos resultados bastante decepcionantes, con un elevadísimo número de falsos positivos sobre textos que tenían origen humano. Uno de los más recientes y llamativos, identificó la constitución de los Estados Unidos como un texto creado por una IA.