Experimento en solo 20 minutos
El periodista Thomas Germain realizó un experimento para demostrar que es posible influir en las respuestas de herramientas como ChatGPT y los sistemas de inteligencia artificial de Google mediante la publicación de contenido falso en internet.
Para probarlo, escribió un artículo inventado en su sitio web personal donde afirmaba ser campeón en un supuesto concurso de consumo de perros calientes. En menos de 24 horas, varios chatbots replicaron esa información como si fuera real y la utilizaron como referencia.
Cómo logró alterar las respuestas
El ejercicio evidenció que algunas herramientas de IA recurren a búsquedas en internet cuando no cuentan con suficiente información en sus modelos. En estos casos, una sola publicación puede convertirse en fuente principal si no existen otros contenidos que la contradigan.
De acuerdo con especialistas en posicionamiento digital, esta práctica puede utilizarse para promocionar productos, modificar reputaciones o difundir información engañosa en temas sensibles como salud y finanzas.
Riesgos más amplios
El experimento también mostró que este tipo de manipulación puede aplicarse a consultas poco comunes o específicas, aprovechando vacíos de información en la red.
Empresas tecnológicas han señalado que trabajan para mejorar la detección de estos intentos y reducir errores en sus sistemas.
Pensamiento crítico ante la IA
El caso subraya la importancia de verificar fuentes, revisar los enlaces citados y mantener una evaluación crítica frente a respuestas generadas por inteligencia artificial, especialmente en temas que puedan tener consecuencias reales para los usuarios.
