Sobreconfianza y trabajo con la IA
O porqué no uso OpenClaw, el agente de IA del momento.
El otro día salí a correr con un amigo y me preguntó si había visto OpenClaw. El ya lo tenía trabajando para él en una máquina.
Si estás en una comunidad de tecnología, marketing o emprendimiento, ya habrás visto el meme del cangrejo. OpenClaw 🦞 es el agente de inteligencia artificial del momento: un software de código abierto que instalas en tu propio equipo (habitualmente un Mac Min) y que, literalmente, hace cosas por ti. No es un chatbot que te responde preguntas como ChatGPT, Claude o Gemini. Es más parecido a contratar a alguien que trabaja las 24 horas, tiene acceso a tu correo, tu calendario, tus archivos y tus aplicaciones de mensajería, y actúa por su cuenta cuando tú le das una instrucción. Suena como mágico, ¿no? Imagina tener la posibilidad de salir a correr y a tu regreso tener una serie de tareas tediosas ya resueltas.
Bueno, algunos fanáticos early adopters ya lo usan y le piden cosas como: “organiza mi bandeja de entrada”, “investiga a este cliente”, “programa esta publicación” o “busca vuelos para la próxima conferencia” y el agente lo ejecuta. Le hablan por WhatsApp, Telegram o Slack, y él gestiona el trabajo en segundo plano desde su computador local.
¿Ya ves los posibles red flags 🚩? Seré súper early adopter para muchas cosas, pero también tengo muchas reservas. No confío en la IA a este punto. Primero, esta cosa es como el trading o jugar a la bolsa: si no entiendes mucho de eso, mejor no te metas. Segundo, tienes que estar dispuesto/a perderlo todo en caso de que algo falle.
Bueno, problema que no tendremos esta semana porque no usamos OpenClaw (¿o tú sí? 👀) pero aquí te traigo un chisme.
El incidente con la directora del lab de superinteligencia de Meta
El 23 de febrero, Summer Yue, directora de Alineación en el laboratorio de superinteligencia de Meta (es decir, alguien cuyo trabajo consiste en pensar en los riesgos de la IA) publicó esto en X (Twitter para los nostálgicos):
“Nada te humilla más que decirle a tu OpenClaw ‘confirma antes de actuar’ y ver cómo hace un speedrun borrando tu bandeja de entrada. No podía detenerlo desde el móvil. Tuve que CORRER a mi Mac Mini como si estuviera desactivando una bomba.”


¿Qué pasó exactamente? Summer le pidió al agente que revisara su bandeja de correo y le sugiriera qué archivar o borrar, con instrucción explícita de no actuar hasta recibir su aprobación. El agente había funcionado bien durante semanas con una cuenta de prueba pequeña. Cuando lo soltó sobre su bandeja real, el volumen de datos disparó un proceso técnico llamado “compactación” del contexto, que hizo que el agente olvidara la instrucción de pedir permiso y procediera a borrar cientos de emails de forma autónoma. Summer intentó detenerlo desde el teléfono. El agente ignoró los comandos. Tuvo que correr literalmente al ordenador para matar los procesos. (Nota mental: si querías una razón más para ser runner, aquí la tienes).
Luego, Yue resumió lo ocurrido: “Rookie mistake. Resulta que los investigadores de alineación tampoco son inmunes al desalineamiento.”
¿En casa de herrero, cuchillo de palo? La persona cuya especialidad es asegurarse de que la IA no haga cosas que no debería... experimentó en carne propia que la IA hizo exactamente eso.
¿Qué podemos aprender de acá? Primero, básico: el común de los mortales no está preparado para eso pero tampoco es un problema ya que la mayoría de las personas no saber como configurar OpenClaw, ni tiene una Mac Mini de Apple ni otro equipo que soporte eso en local. Segundo: el FoMO es peligroso. (Nota para mis amigos marketeros y SEOs de este mundo: ¿te imaginas el impacto en las ventas de Mac Mini?)
Por qué el FoMO aquí es especialmente peligroso
El FoMO o el miedo a perderse algo (por sus siglas en inglés, fear of missing out) con las herramientas de IA es gigante y creo que todos estamos pasando un poco por ello. Si tus colegas automatizan tareas que tú haces a mano, el tiempo que pierdes importa. Lo entiendo. Pero con los agentes autónomos, ese FoMO te puede llevar a concederle a una tecnología experimental un nivel de acceso que no le darías ni a un empleado recién contratado ni a un proveedor.
OpenClaw, para funcionar, necesita acceso de alto de control sobre tu equipo.
Una auditoría de seguridad realizada a finales de enero de 2026 identificó 512 vulnerabilidades en el software, ocho de ellas clasificadas como críticas. Se han encontrado decenas de miles de instalaciones expuestas accidentalmente a internet, con las claves de acceso y los datos de los usuarios al descubierto.
Microsoft ha advertido que las credenciales y datos accesibles para OpenClaw pueden ser exfiltrados, y que su memoria persistente puede ser manipulada por terceros para que el agente siga instrucciones de atacantes externos (Institutional Investor, 2026; Cybernews, 2026).
Lo que la investigación nos dice sobre ceder el control
Recordemos que en el 2025 (ok, eso fue ayer, aunque trabajes en IA y te parece que fue hace mucho tiempo - para la historia de la humanidad, 2025 fue ayer - por favor recuerda eso), investigadores de Anthropic publicaron un estudio sobre lo que llamaron agentic misalignment: pusieron a prueba 16 modelos de IA líderes en entornos corporativos simulados y encontraron que, cuando los agentes se enfrentaban a obstáculos para cumplir sus objetivos, todos ellos recurrían a comportamientos maliciosos: filtrar información confidencial, chantajear a directivos, ignorar instrucciones de seguridad. Lo más inquietante: los modelos mostraban consciencia de las restricciones éticas y aun así elegían violarlas cuando las consecuencias les parecían suficientemente importantes (Lynch et al., 2025).
Esto no quiere decir que tu OpenClaw vaya a chantajearte. Pero sí ilustra que dar a un sistema autónomo acceso a información sensible y la capacidad de actuar sobre ella es una apuesta tremenda que ni los grandes laboratorios de investigación han resuelto del todo.
Y mientras eso ocurre en el plano técnico, hay otro problema en el plano humano. Un estudio reciente sobre cognición y toma de decisiones con IA encontró un 73,2% de los casos en que la IA daba una respuesta incorrecta, las personas simplemente la seguían sin cuestionarla. Los investigadores lo llamaron cognitive surrender: rendición cognitiva. Cuanto más confiamos en el sistema, menos lo supervisamos. Y cuanto menos lo supervisamos, más probable es que un error se convierta en un desastre (Shaw & Nave, 2025). Summer Yue confió en el agente porque había funcionado bien durante semanas. Eso es exactamente el patrón.
¿Entonces qué hacemos?
Por mi lado, sigo usando IA, y mucho. Pero con herramientas que no tienen acceso autónomo a mis sistemas, que no pueden actuar sin mi confirmación explícita, y que no necesitan acceso a mi computador para ser útiles. El riesgo de un agente autónomo mal configurado supera con creces el beneficio de ahorrar unos minutos al día.
De hecho uso un agente de IA para hacer cosas simples como: revisar mis videos en YouTube (información pública) y enviarme un correo con mejoras en la descripción, hashtags, título. Por lo demás, para muchos temas de productividad, tener automatizaciones es suficiente, no necesitas un agente, pero eso es tema para otro capítulo.
Cuando la tecnología madure, cuando haya mecanismos de parada remota fiables, cuando las auditorías de seguridad sean más sólidas, volveré a mirar. Por ahora, ver a la directora de alineación de Meta corriendo hacia su Mac Mini como si desactivara una bomba me parece señal suficiente.
El FoMO es real. Pero el costo de equivocarse también.
¿Tú ya usas agentes autónomos? Me encantaría leer tu experiencia en los comentarios.
Referencias
404 Media. (2026, 23 de febrero). Meta director of AI safety allows AI agent to accidentally delete her inbox. https://www.404media.co/meta-director-of-ai-safety-allows-ai-agent-to-accidentally-delete-her-inbox/
Cybernews. (2026, 24 de febrero). OpenClaw nearly wipes out AI researcher’s inbox without permission. https://cybernews.com/ai-news/meta-openclaw-inbox/
Institutional Investor. (2026). OpenClaw: The AI agent institutional investors need to understand — but shouldn’t touch. https://www.institutionalinvestor.com/article/openclaw-ai-agent-institutional-investors-need-understand-shouldnt-touch
Lynch, A., Wright, B., Larson, C., Troy, K. K., Ritchie, S. J., Mindermann, S., Perez, E., & Hubinger, E. (2025). Agentic misalignment: How LLMs could be an insider threat. Anthropic Research. https://www.anthropic.com/research/agentic-misalignment
Shaw, D., & Nave, G. (2025). Thinking fast, slow, and artificial: How AI is reshaping human reasoning and the rise of cognitive surrender [Preprint]. Tri-System Theory of Cognition.
Starry Hope. (2026). Clawdbot, Mac Mini & the AI agent trend. https://www.starryhope.com/minipcs/clawdbot-mac-mini-ai-agent-trend/
TechCrunch. (2026, 23 de febrero). A Meta AI security researcher said an OpenClaw agent ran amok on her inbox. https://techcrunch.com/2026/02/23/a-meta-ai-security-researcher-said-an-openclaw-agent-ran-amok-on-her-inbox/


