Autoría de 2:24 pm #Opinión, Agustín Villanueva Ochoa - Sapere Aude

No todo lo que brilla es IA – Agustín Villanueva Ochoa

Recientemente las redes sociales se han visto inundadas con el contenido generado por inteligencia artificial. Desde WhatsApp, Google, Facebook o X (antes Twitter) se comenzó a dar a conocer a sus usuarios la posibilidad de probar las nuevas funciones de IA, pudiendo tener conversaciones tan convincentes que cualquiera podría jurar que se trata de otro humano con el que se interactúa.

Chat GPT fue la aplicación que parece haber revolucionado el sector, pues, aunque hubo varios intentos anteriores, el programa diseñado por la compañía Open IA consiguió implementar un algoritmo que permite aprender de sus propias conversaciones y responder de manera fluida a cualquier pregunta hecha por sus usuarios.

A partir de ahí, la tecnología de inteligencia artificial ha avanzado a pasos agigantados, destacando ahora la etapa de la generación de imágenes. De nuevo, la capacidad de la IA de aprender del contenido existente en internet y de sus propios errores (como probablemente lo haría cualquier persona) hicieron que programas como Midjourney o Dall-E comenzaran a producir imágenes que resultan casi indistinguibles de una fotografía o de una obra creada por un artista humano.

Las noticias falsas no son nuevas, existen mucho antes que el propio internet, pero es en esta época cuando se vuelven más agresivas que nunca, y usando las herramientas de inteligencia artificial antes mencionadas bastan unos minutos para crear un artículo falso, acompañado de imágenes que parezcan creíbles sobre cualquier mentira imaginable.

Probablemente alguien recuerde a inicios de año una imagen que circuló en redes sobre la presunta detención de Donald Trump, que mostraba una nota de prensa en la que agentes del FBI forcejeaban con el magnate. Evidentemente era una noticia falsa creada con inteligencia artificial, que formaba parte de una serie de imágenes falsas que incluían al Papa Francisco, Elon Musk y Joe Biden en situaciones que jamás podrían verse en la vida real, sin embargo, la muestra era clara; con conocimientos muy básicos, cualquiera podría generar imágenes y hasta videos de situaciones ficticias que un lector despistado pudiera dar por verdaderos.

Entonces surge la pregunta: ¿cómo se puede detectar si hubo intervención de inteligencia artificial?

Se comparten algunas características que, al observarlas con detenimiento, facilitan identificar contenido de IA:

  • Manos. Para los algoritmos ha resultado todo un reto imitar la complejidad de las manos humanas, así que si en la imagen se ven dedos de más, falta de uñas u otras deformidades, es muy probable que sea una imagen artificial. También aplica si las manos de los personajes están sospechosamente ocultas, pues esa es una manera muy obvia para no mostrar los defectos antes descritos.
  • Nitidez. Cualquiera que haya tomado fotos con el smartphone o con una cámara sabe que la imagen resultante no siempre se ve tan colorida o nítida como uno miraría la realidad, y muchas veces deben aplicarse filtros o efectos antes de compartirla en las redes. En cambio, los colores generados por las IA son extrañamente brillantes, entonces una fotografía demasiado bien coloreada puede ser seña de tener origen artificial.
  • Piel. La piel humana naturalmente tiene defectos, sin embargo, las IA suelen crear retratos como si se trataran de maniquís, con una epidermis uniforme, sin cambios de color ni textura, además, regularmente sin tatuajes.
  • Patrones repetidos. Debido a que la IA utiliza lenguaje de computación, es muy común que recicle ciertos elementos para aligerar los procesos, de modo que en las imágenes puede duplicar partes del fondo o de complementos, y estas son relativamente fáciles de detectar.
  • Perspectivas extrañas. En la ciencia de la óptica, la perspectiva es fundamental para los elementos de tres dimensiones, teniendo uno o más “puntos de fuga” como elementos regentes en una imagen. La inteligencia artificial aún no puede comprender este concepto, por lo que cometerá errores mostrando figuras más altas o más bajas de lo que deberían verse, teniendo sombras en ángulos imposibles y estructuras sólidas (como cajas o edificios) con aristas curvas o chuecas.
  • Videos. Por último, es oportuno mencionar que, aunque la generación artificial de videos es algo relativamente nuevo, ya se encuentran en la red bastantes clips hechos con IA. Las maneras de identificar son bastante similares de las ya mencionadas, incluso muchos de estos videos son simplemente imágenes en movimiento, notando que las tomas son cortas (menos de 5 segundos) y no hay sonido ni diálogos, siendo acompañados de música de fondo.

¿Conoce usted algún otro tip para identificar contenido falso hecho con IA?

Si bien estos algoritmos seguirán evolucionando hasta niveles que no podemos imaginar, debemos tener en cuenta que detrás de cada programa todavía hay un humano dándole instrucciones para generar el contenido, por lo que debemos ser siempre muy cuidadosos con aquello que vemos y leemos en internet, buscando siempre fuentes confiables y evitando compartir datos de dudosa procedencia.

La inteligencia artificial es tan peligrosa como nuestros propios temores y tan útil como nuestra propia inteligencia.

Marvin Minsky

Webgrafía

(Visited 10 times, 10 visits today)
Last modified: 27 noviembre, 2024
Cerrar