Meta espía a sus empleados para entrenar su IA: sin opción de salida
Meta instaló software de rastreo obligatorio en computadoras de empleados para capturar clics, movimientos y pulsaciones — sin opción de opt-out — y alimentar así sus modelos de IA. Mientras gasta $135B en IA en 2026, recorta el 20% de su plantilla.
Qué pasó
Esta semana, Meta reveló internamente el lanzamiento del Model Capability Initiative (MCI), un programa de rastreo que monitorea el comportamiento de sus empleados en cientos de aplicaciones y sitios web — entre ellos Google, LinkedIn, Wikipedia, Threads y Manus. El objetivo declarado: usar esos datos para entrenar agentes de IA que puedan ejecutar tareas cotidianas de oficina de forma autónoma.
El anuncio fue hecho en un memo interno del equipo Meta Superintelligence Labs (MSL), liderado por Alexandr Wang — ex CEO de Scale AI, empresa en la que Meta adquirió el 49% por más de $14,000 millones el año pasado. Cuando empleados preguntaron cómo hacer opt-out, el CTO Andrew Bosworth respondió: "No hay opción de opt-out". La reacción interna fue una ola de emojis de llanto, sorpresa e indignación.
Gasto en IA: las grandes tecnológicas van a todo
Gasto en capital (CapEx) planificado en IA para 2026 — miles de millones USD
Fuente: reportes corporativos y declaraciones públicas de cada empresa · Nexo / nexo.la
Por qué importa
La movida de Meta expone una tensión que la industria tecnológica venía evitando nombrar directamente: los empleados están entrenando activamente a los sistemas que eventualmente los reemplazarán. Mientras Meta planea gastar $135,000 millones en CapEx de IA durante 2026, también prepara recortes de hasta el 20% de su plantilla global a partir de mayo — una ecuación que sus propios trabajadores tienen ante los ojos.
Para las empresas, la escasez de datos de entrenamiento de alta calidad es uno de los cuellos de botella más críticos del desarrollo de IA. OpenAI, por su parte, ya pidió a contratistas subir muestras de trabajos reales — presentaciones, hojas de cálculo — para alimentar sus modelos. Meta simplemente decidió capturar esos datos directamente, sin pedir permiso.
El contexto para América Latina
En Panamá y la región, la mayoría de las empresas que adoptan herramientas de IA — Microsoft Copilot, Google Workspace AI, plataformas de automatización — no tienen políticas claras sobre qué datos de sus empleados se usan para entrenar modelos. Lo que Meta hizo de forma explícita, otros ya lo hacen implícitamente en sus términos de servicio.
El caso MCI es una señal de alerta para equipos de recursos humanos y legales en la región: los contratos laborales aún no contemplan la propiedad de los datos de comportamiento digital del trabajador. Y cuando la IA de agentes madure, quien tenga más datos de cómo trabaja la gente real tendrá una ventaja competitiva enorme.
Fuentes: Reuters, CNBC, Fortune, TechCrunch · Nexo / nexo.la