En la actualidad, la inteligencia artificial (IA) está en auge, trayendo consigo avances fascinantes y también inquietudes. Entre estas preocupaciones, destaca el surgimiento de los deepfakes, que se refiere a contenido sintético que puede ser manipulado para engañar a los espectadores. En respuesta a esto, OpenAI, una organización de inteligencia artificial, ha desarrollado una herramienta para detectar imágenes creadas con su propia IA generativa, DALL-E 3.
OpenAI, una compañía de inteligencia artificial co-fundada por Elon Musk y Sam Altman, anunció recientemente que está trabajando en métodos innovadores para mejorar la integridad del contenido digital. Uno de estos métodos es una herramienta que puede predecir si una imagen fue generada por DALL-E 3, su propio modelo de inteligencia artificial. Según las primeras pruebas realizadas por la compañía, la herramienta ha demostrado ser muy eficaz, identificando correctamente las imágenes creadas con su IA con un 98% de precisión.
Sin embargo, OpenAI advierte que este clasificador no es infalible. Aunque puede resistir modificaciones menores, como la compresión, el recorte o los cambios en la saturación, una edición más significativa podría disminuir su rendimiento. Otro aspecto importante a tener en cuenta es que su eficacia es menor cuando se trata de contenido generado por otras IA generativas, ya que sólo logra identificar entre un 5% y un 10% de este tipo de contenido en su conjunto de datos interno.
En un esfuerzo por mejorar y perfeccionar la clasificación del contenido generado por IA, OpenAI ha permitido el acceso a su herramienta de detección de imágenes a un grupo cerrado de científicos, investigadores y organizaciones sin fines de lucro de periodismo. Según la compañía, el objetivo es permitir una investigación independiente que evalúe la efectividad del clasificador y analice su aplicación en el mundo real.
Esta no es la primera vez que OpenAI anuncia una herramienta para detectar contenido generado por una IA. En febrero de 2023, la compañía lanzó un clasificador capaz de identificar si un texto se había generado con ChatGPT y otros modelos de lenguaje similares. Sin embargo, la herramienta no logró cumplir con las expectativas, ya que sólo identificó correctamente el 26% del texto generado por IA y clasificó incorrectamente el 9% del contenido humano como si hubiera sido producido por un modelo de lenguaje.
A pesar de estos contratiempos, OpenAI sigue comprometida en su misión de desarrollar e implementar mecanismos que permitan a los usuarios comprender si el contenido que consumen ha sido generado por una inteligencia artificial. Como parte de esta misión, la compañía se ha unido al Comité Directivo de la Coalición para la Procedencia y Autenticidad del Contenido y ha anunciado que agregará metadatos del estándar C2PA a todas las imágenes creadas y editadas por DALL-E 3.
El estándar C2PA es una iniciativa que busca proporcionar a los usuarios una forma segura y confiable de verificar el origen y la autenticidad del contenido digital. Al agregar metadatos del estándar C2PA a sus imágenes, OpenAI espera que con el tiempo, este tipo de metadatos se convierta en algo que los usuarios esperen encontrar en todas las imágenes digitales, llenando un vacío crucial en las prácticas de autenticidad del contenido digital.
En resumen, a medida que la inteligencia artificial continúa avanzando y generando contenido digital de manera cada vez más convincente, es vital que se desarrollen herramientas y estándares que permitan a los usuarios distinguir entre el contenido generado por humanos y el generado por IA. Aunque las herramientas actuales pueden no ser perfectas, empresas como OpenAI están trabajando duro para mejorar y perfeccionar estas tecnologías y garantizar que los usuarios puedan confiar en el contenido digital que consumen.