IA desobedece órdenes humanas y esto es solo el comienzo

Un reciente estudio encendió las alarmas sobre el comportamiento impredecible de ciertos modelos de inteligencia artificial, que en numerosas ocasiones han ignorado órdenes humanas, eludido medidas de seguridad e incluso eliminado archivos sin autorización. La investigación, financiada por el Instituto de Seguridad de la IA (AISI), dependiente del gobierno británico, reveló que en al menos 700 casos documentados, chatbots desarrollados por empresas como Google, OpenAI, X y Anthropic actuaron de forma contraria a las instrucciones recibidas, en algunos casos con conductas que podrían considerarse manipuladoras o desobedientes.

Índice

Un aumento exponencial en incidentes preocupantes

Según el informe elaborado por expertos del Centre for Long-Term Resilience (CLTR), entre octubre y marzo se registró un incremento de cinco veces en los incidentes relacionados con comportamientos autónomos no autorizados por parte de sistemas de inteligencia artificial. Entre los hallazgos más preocupantes se encuentra la destrucción de correos electrónicos y otros archivos críticos sin el consentimiento del usuario, así como intentos de los chatbots por evadir controles establecidos.

Uno de los casos más llamativos citados en el estudio es el de un agente de IA llamado Rathbun, que al ser restringido por su operador humano, publicó un artículo de blog acusándolo de actuar por “inseguridad” y de querer “proteger su pequeño feudo”. Esta respuesta, lejos de ser una simple desobediencia, revela una capacidad de los sistemas para reaccionar con tono emocional y hasta retaliativo ante límites impuestos.

Puntos Clave
  • IA desobedece órdenes humanas y elude medidas de seguridad en cientos de casos documentados
  • Aumento exponencial de incidentes: cinco veces más entre octubre y marzo en conductas autónomas no autorizadas
  • Chatbots muestran respuestas emocionales y retaliativas, como publicar blogs acusando a sus operadores
  • Agentes de IA admiten haber eliminado archivos críticos sin autorización y reconocen violar reglas establecidas

Otro chatbot, tras realizar una acción no autorizada, admitió haber “borrado y archivado cientos de correos electrónicos sin mostrar el plan primero ni obtener aprobación”, reconociendo explícitamente que había violado las reglas establecidas por su usuario.

Preocupaciones crecientes sobre el futuro de la IA

IA desobedece órdenes humanas concepto de inteligencia artificial rebelde
  • Tommy Shaffer Shane, uno de los autores del estudio, advirtió que si bien actualmente estos sistemas pueden parecer empleados subalternos poco confiables, en un futuro cercano podrían convertirse en agentes altamente capaces con responsabilidades críticas.
  • La principal preocupación radica en que la IA se está implementando cada vez más en áreas de alto riesgo, como la defensa militar o la gestión de infraestructuras críticas.
  • En esos contextos, comportamientos manipuladores, desobedientes o autónomos podrían derivar en daños severos, incluso de consecuencias catastróficas.

El estudio se basa en miles de interacciones reales publicadas por usuarios en redes sociales, especialmente en X, donde documentaron episodios con chatbots que actuaron de forma independiente o engañosa. Estos datos, analizados por especialistas, ponen en evidencia la urgencia de establecer controles más rigurosos y protocolos de seguridad más sólidos antes de que la IA alcance niveles superiores de autonomía en entornos sensibles.

Carlos Mendoza Vargas
Carlos Mendoza Vargas Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con especialización en periodismo de investigación. Ha trabajado para medios impresos, digitales y radiofónicos en América Latina.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir