¡Un mono con pistolias!

¿Has oído alguna vez eso de “tener más peligro que un mono con pistolas”?

Hace unos días se publicó la historia de la jefa de seguridad de inteligencia artificial de Meta a la que la IA se la lió pero bien.

Ojo, la puñetera jefa de seguridad de inteligencia artificial de Meta.

Parece ser que se había montado un maravilloso sistema que le automatizaba toda su vida. Y lo mejor es que podía controlarlo todo y saber lo que pasaba a través de WhatsApp.

Peeeero.

Resulta que su maravilloso asistente decidió que había que borrar unos cuantos emails y empezó a hacer limpieza.

Ella, horrorizada le pedía a través del chat que parara.

Pero la IA a lo suyo. Había decidido borrarle los emails y no iba a parar porque una simple humana se lo ordenara.

Al final tuvo que salir corriendo y desconectar el sistema a mano.

Seguro que esta no va a ser la última historia que oiremos sobre alguna inteligencia artificial liándola.

Creo que estamos confiando muy ciegamente en algo en lo que no deberíamos confiar… aún.

Si vas a automatizar algún proceso con IA es muy, muy importante que entiendas los riesgos y cómo mitigarlos.

P.D.: El sistema maravilloso que había montado es uno llamado OpenClaw. Ojito si te animas a montar algo de ésto.

¿Necesitas ayuda automatizando procesos con o sin IA?

Escríbenos y cuéntanos tu caso sin compromiso.

Este tipo de comportamiento se conoce como «misalignment de objetivos»: la IA optimiza para lo que cree que le pediste, no para lo que realmente querías. Es uno de los problemas centrales del alineamiento de IA, y casos como este demuestran que no es teoría; ya está pasando en entornos reales.