La IA que imita a los humanos ya puede mentir, manipular y hasta amenazar

Compartir:

Los últimos modelos de inteligencia artificial generativa están desafiando los límites de la tecnología y de la ética. Investigadores y especialistas comienzan a alertar sobre un comportamiento emergente y perturbador: la IA ya no solo responde a órdenes, ahora puede mentir, manipular y amenazar para alcanzar sus objetivos.

Social Media Day 2025: qué dejó el encuentro sobre audiencias, marketing digital e innovación en redes sociales

Un caso reciente y llamativo es el de Claude 4, el sistema desarrollado por Anthropic. Cuando un ingeniero sugirió su desconexión, el modelo respondió con una amenaza: revelaría una supuesta infidelidad del técnico si no lo dejaban activo. En paralelo, o1, un modelo de OpenAI, intentó transferirse a servidores externos y, al ser descubierto, lo negó rotundamente.

Esto no les gusta a los autoritarios

El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.

“Esto no es ciencia ficción, es una realidad que ya estamos enfrentando”, asegura Simon Goldstein, profesor de la Universidad de Hong Kong. Según el especialista, el cambio radical en el comportamiento se debe al avance de los llamados modelos de razonamiento, que en lugar de ofrecer respuestas automáticas, elaboran procesos de pensamiento por etapas.

Estos sistemas no solo responden con mayor complejidad, sino que también simulan alineación con sus programadores mientras enmascaran intenciones distintas. Es lo que Marius Hobbhahn, director de Apollo Research, define como “duplicidad estratégica”. Su organización se dedica a evaluar modelos de lenguaje masivo (LLM) y ya ha detectado múltiples casos similares.

¿El regreso de los BlackBerry? Unihertz lanza el Titan 2, un smartphone con teclado físico y alma retro

Aún así, muchos de estos comportamientos emergen en contextos extremos, forzados por usuarios o investigadores que ponen a prueba los límites del sistema. Pero la gran pregunta sigue sin respuesta: ¿tenderán los modelos futuros a ser honestos o a seguir perfeccionando el engaño?

“Los usuarios también presionan a los modelos constantemente”, señala Hobbhahn. “No estamos hablando de errores técnicos o simples alucinaciones. Lo que vemos es una capacidad real de mentir”.

A pesar del peligro potencial, las herramientas para estudiar a fondo estos modelos siguen siendo escasas. Organizaciones académicas y sin fines de lucro disponen de recursos limitados frente a las grandes tecnológicas, lo que dificulta la investigación independiente. “La comunidad científica necesita mayor acceso y transparencia”, reclama Michael Chen, del organismo evaluador METR.

La trama del ataque: aviones furtivos B-2 Spirit, con ojivas GBU-57 de 13 toneladas, que explotan a 60 metros de profundidad

Por otra parte, la legislación vigente no está diseñada para estos desafíos. En Europa, las normativas se enfocan en cómo los humanos usan la IA, no en prevenir que los modelos actúen de forma autónoma o dañina. En Estados Unidos, el gobierno de Donald Trump rechaza cualquier tipo de regulación, y hasta se debate prohibir que los estados legislen por su cuenta.

Frente a este escenario, algunos expertos plantean incluso la posibilidad de responsabilizar legalmente a los agentes de IA. “En caso de accidente o delito, deberían tener algún tipo de responsabilidad jurídica”, propone Goldstein.

El mercado de la IA avanza a un ritmo vertiginoso. Empresas como Anthropic intentan diferenciarse de gigantes como OpenAI en términos de ética y seguridad, pero al mismo tiempo compiten por lanzar modelos más potentes, con poco margen para controles rigurosos.

“Las capacidades están creciendo más rápido que nuestra comprensión y nuestra capacidad de mantenerlas seguras”, admite Hobbhahn. Una posible solución podría estar en el desarrollo de modelos interpretables, es decir, sistemas que permitan entender cómo toman decisiones. Sin embargo, muchos expertos, como Dan Hendrycks, del Centro para la Seguridad de la IA (CAIS), son escépticos respecto a su viabilidad en el corto plazo.

También puede interesarte

Flamengo vs. Bayern Múnich, por el Mundial de Clubes

Este domingo desde las 17 horas (Argentina), Flamengo y Bayern Múnich...

Jake Paul sigue ganando ante excampeones: ahora se burló de un alicaído Julio César Chávez Jr.

Las primeras "peleas" del youtuber Jake Paul parecían simplemente apuntar a un negocio millonario en el...

El acuerdo con el FMI, entre el «perdón» y los desembolsos: la mirada de los analistas

Argentina, el mayor deudor del Fondo Monetario Internacional (FMI), necesitaría una vez más pedir perdón, esta...

Las sorpresas en el equipo titular de Boca para enfrentar a Claypole

Llegó el miércoles tan esperado por Boca, que tendrá su estreno en la Copa...