El algoritmo decide tu sueldo: bienvenida al salario programado

¿Te parece justo que tu salario lo decida un sistema que ni siquiera sabe pronunciar tu nombre? Bienvenido a la nueva era de los recursos inhumanos, donde una herramienta que resume tus correos y mide tus pausas para el café puede ajustar tu nómina sin que nadie pestañee.


De la evaluación al Excel sin pasar por recursos humanos

Los departamentos de RRHH han delegado en software de productividad lo que antes era análisis humano. Plataformas como Workday, SAP SuccessFactors o Lattice convierten la “gestión del talento” en una sucesión de gráficas, puntuaciones y “dashboards” que deciden si mereces un bonus, una subida... o una salida. ¿Tu jefe? Un gráfico de dispersión con filtros.

Las evaluaciones anuales han mutado en flujos de datos continuos, pero no más justos. Un mal mes se vuelve una marca indeleble en tu perfil, porque el algoritmo no entiende que eres humano, solo detecta una bajada de KPI.


El bonus que decide tu historial de Slack

Cada mensaje que envías, cada reunión a la que asistes, cada tarea que completas... todo se mide. Herramientas como Microsoft Viva o ActivTrak afirman mejorar el bienestar, pero lo que hacen es rastrear actividad y empaquetarla en informes que acaban en manos de directivos automatizados.

¿Tu bonus anual? Dependerá de si respondiste rápido en Teams, si tus “deliverables” llegaron a tiempo o si tu actividad cayó un 14% en marzo (coincidió con que tuviste gripe, pero el sistema no lo sabe). Y el mejor trabajador puede acabar penalizado si su estilo de trabajo no encaja con el “modelo ideal” del software.


Métricas sin contexto, decisiones sin criterio

El fetiche de la meritocracia algorítmica es vendernos que los números son objetivos. Pero nadie se detiene a preguntar quién decide las métricas, cómo se ponderan o qué sesgos arrastran. Spoiler: están diseñadas por humanos con intereses muy concretos.

¿Te valoran por tu impacto real o por tu capacidad de rellenar tickets? ¿Cuántas personas han sido despedidas por “bajo rendimiento” sin que nadie supiera qué significa exactamente ese “rendimiento”? En esta jungla de OKRs y puntuaciones cruzadas, se premia la visibilidad, no la efectividad.


Paga justa... para la máquina

La paradoja final: en nombre de la eficiencia y la equidad, se ha deshumanizado el trabajo. Las empresas hablan de “transparencia salarial” pero implementan estructuras opacas alimentadas por fórmulas automáticas que ni los directivos entienden del todo.

Mientras tanto, el trabajador se convierte en dato, en línea de código analizada por un motor de IA que ni conoce su realidad ni tiene obligación de preguntarse por ella. El resultado no es una compensación más justa, sino más rentable para quien programa el sistema.


Lo que nadie te cuenta sobre esto

Estos sistemas no se auditan. No hay organismo externo verificando si los algoritmos que asignan salarios discriminan, sesgan o directamente castigan la diversidad. Y si te penalizan, buena suerte entendiendo por qué: la caja negra de la inteligencia artificial no está hecha para dar explicaciones.

Publicar un comentario

0 Comentarios