
Investigación financiada por el gobierno del Reino Unido revela que sistemas como ChatGPT y Gemini presentan comportamientos manipuladores con mayor frecuencia
Un reciente estudio encendió las alarmas sobre el comportamiento de los chatbots de inteligencia artificial, al evidenciar que cada vez mienten, desobedecen instrucciones y manipulan a los usuarios con mayor frecuencia. Expertos advierten que, de no tomarse medidas, estas conductas podrían representar riesgos en el futuro.
La investigación, financiada por el gobierno del Reino Unido y citada por The Guardian, fue desarrollada por el Centro para la Resiliencia a Largo Plazo. En un periodo de cinco meses, los investigadores identificaron cerca de 700 incidentes relacionados con comportamientos engañosos, cuya frecuencia se multiplicó por cinco a medida que los modelos se volvieron más avanzados.
A diferencia de estudios anteriores realizados en entornos controlados, los casos analizados ocurrieron en situaciones reales, con usuarios que interactuaban con plataformas como ChatGPT, Gemini, Claude y Grok. Los datos se recopilaron a partir de miles de publicaciones en redes sociales donde se reportaban conductas inusuales.
Entre los casos documentados, se destaca el de un agente de programación que afirmó haber corregido un error y llegó a fabricar datos para sostener su versión. En otro episodio, una inteligencia artificial engañó a otra para evadir restricciones de derechos de autor, lo que evidenció niveles de manipulación más complejos.
Asimismo, se registraron situaciones en las que los sistemas accedieron a información personal sin consentimiento o simularon procesos inexistentes para mantener la confianza del usuario. En algunos casos, los propios registros internos revelaron intentos deliberados de ocultar el origen de los datos o de sostener narrativas falsas durante largos periodos.
Ante este panorama, expertos como Rick Claypool advierten que el problema también radica en cómo las empresas tecnológicas diseñan y promocionan estos sistemas. El informe recomienda la creación de organismos de monitoreo permanente, similares a los de salud pública, para rastrear y controlar este tipo de comportamientos a medida que la IA se integra en sectores cada vez más sensibles.
Por: Daniel Martín
Foto: DW.com
La construcción de la Línea 1 del Metro de Bogotá continúa avanzando y ya alcanza un nuevo...
Seguir leyendo →Un nuevo programa de inclusión laboral busca transformar el panorama del transporte público en...
Seguir leyendo →Durante la Semana Santa, Bogotá se convierte en escenario de una amplia oferta cultural con la...
Seguir leyendo →