lunes , 23 febrero 2026
sistemas algorítmicos
Trabajador en un centro de distribución en Australia. En almacenes y centros de distribución, los sistemas algorítmicos fijan ritmos y cargas de trabajo con efectos directos sobre la salud.

Australia debate regular la gestión algorítmica del trabajo

Australia discute regular sistemas algorítmicos laborales ante denuncias sindicales por salud y objeciones empresariales sobre confidencialidad y control operativo interno.

Un proyecto en Nueva Gales del Sur propone habilitar acceso sindical limitado a plataformas digitales cuando existan indicios de riesgos laborales, abriendo un debate sobre prevención, privacidad y poder de decisión en entornos de trabajo automatizados.

(Agencias) – En los últimos dos años, los sindicatos australianos han registrado un aumento sostenido de lesiones musculoesqueléticas y cuadros de estrés laboral en sectores intensivos en logística, distribución y servicios. Según reportes presentados ante autoridades laborales estatales, muchos de esos incrementos coinciden con la introducción de sistemas digitales de gestión del trabajo que fijan ritmos, asignan tareas y evalúan desempeño de forma automatizada. El problema, advierten, es que nadie fuera de la empresa tiene acceso efectivo a cómo toman decisiones esos sistemas..

Ese es el contexto en el que Australia abrió un debate que va más allá de la tecnología. En el estado de Nueva Gales del Sur, un proyecto de ley propone permitir que los sindicatos accedan a plataformas digitales de gestión laboral cuando existan indicios de riesgos para la salud y la seguridad en el trabajo. No se trata de una disputa abstracta, sino de un intento por anticiparse a conflictos que, en otros países, ya llegaron a los tribunales.

Por qué surge ahora

La normativa australiana de salud y seguridad laboral fue diseñada para entornos donde los riesgos eran visibles: maquinaria, turnos, cargas físicas. Hoy, una parte creciente de esas decisiones se toma a través de algoritmos que ajustan objetivos, tiempos estándar y evaluaciones sin intervención humana directa. Para los sindicatos, esto ha dejado un vacío evidente: pueden constatar el daño, pero encuentran dificultades para demostrar su origen operativo.

El proyecto busca actualizar los mecanismos de fiscalización. El acceso que se discute no apunta al código fuente, sino a criterios operativos, parámetros y efectos concretos de los sistemas: cómo se fijan los ritmos, qué variables pesan en las sanciones o qué cambios se introducen sin aviso previo a los trabajadores.

El vacío legal

Actualmente, ni los representantes sindicales ni las autoridades laborales cuentan con facultades específicas y explícitas para inspeccionar sistemas algorítmicos de gestión del trabajo. Las empresas cumplen con la normativa formal, pero los procesos automatizados quedan, en gran medida, fuera del alcance efectivo de la inspección. Ese vacío explica por qué el debate se articula desde la prevención de riesgos, y no desde la transparencia tecnológica en abstracto.

Lo que piden los sindicatos

Las centrales sindicales sostienen que el acceso es una condición mínima para negociar en igualdad. En documentos presentados en audiencias públicas, señalan que los algoritmos determinan ritmos y cargas con impacto directo en lesiones, agotamiento y estabilidad laboral. Sin conocer los criterios de decisión, cualquier negociación colectiva queda limitada a abordar los síntomas, no las causas.

Un caso citado en esos intercambios describe un centro logístico donde, tras una actualización del sistema, aumentaron las bajas médicas. El análisis posterior reveló que el algoritmo había reducido automáticamente los tiempos estándar por tarea y endurecido los umbrales de rendimiento. Con esa información, el sindicato pudo exigir ajustes. Sin acceso a los parámetros, ese vínculo habría quedado en el terreno de la sospecha.

La Australian Council of Trade Unions (ACTU) se ha pronunciado a favor de un mayor control sobre la gestión algorítmica del trabajo, al considerar que estos sistemas dejan de ser herramientas administrativas neutrales cuando inciden en la salud, la carga laboral y la disciplina. En sus intervenciones públicas, la central ha sostenido que, sin información suficiente sobre el funcionamiento de estas tecnologías, los sindicatos ven limitado su rol preventivo en materia de seguridad y su capacidad de representación.

Las objeciones empresariales

Las asociaciones empresariales no niegan el problema de la salud laboral, pero advierten riesgos claros. El principal es la exposición de información sensible: modelos de optimización, métricas internas o datos de terceros que forman parte de la ventaja competitiva. También alertan sobre un posible deslizamiento hacia la cogestión tecnológica, donde la fiscalización derive en interferencia operativa.

Desde este sector se insiste en que cualquier acceso debe estar estrictamente delimitado, activarse solo ante indicios verificables y operar bajo protocolos de confidencialidad reforzados.

La Australian Chamber of Commerce and Industry (ACCI) ha cuestionado el proyecto tal como está formulado, advirtiendo que permitir el acceso sindical a sistemas digitales internos podría afectar la confidencialidad de datos, exponer información comercial sensible y generar incertidumbre jurídica. En su posición, la organización sostiene que la supervisión de estas tecnologías debería canalizarse a través de autoridades regulatorias, con límites claros y salvaguardas estrictas.

Cómo se ha abordado en otros países

El debate australiano no parte de cero. En la Unión Europea, el Reglamento de Inteligencia Artificial clasifica la gestión algorítmica del trabajo como sistema de alto riesgo y obliga a documentar su funcionamiento y garantizar supervisión humana, sin habilitar acceso sindical directo.

En España, la llamada “ley rider” reconoce el derecho de los representantes a conocer la lógica y los efectos de los algoritmos, pero no a inspeccionarlos técnicamente.

En Italia, el acceso llegó por la vía judicial, tras sentencias que obligaron a revelar criterios discriminatorios.

En Francia, la inspección laboral puede auditar sistemas cuando se consideran riesgos psicosociales, con mediación estatal.

Australia se distingue por intentar regular antes del litigio, desde la prevención.

La posible salida intermedia

Las soluciones que ganan terreno combinan elementos de ambos enfoques: acceso funcional y limitado, auditorías realizadas por peritos independientes, foco en los efectos del sistema más que en su diseño, y cláusulas estrictas de confidencialidad. No es una victoria total para nadie, pero sí un terreno común.

Qué está en juego

Más que una disputa sobre tecnología, el debate define quién controla las decisiones laborales cuando esas decisiones se automatizan. Australia ensaya una respuesta antes de que el conflicto se judicialice o se cronifique. El resultado no solo marcará la relación entre sindicatos y empresas, sino que puede convertirse en referencia para otros países que enfrentan el mismo dilema: cómo proteger la salud y los derechos laborales en un entorno donde el poder ya no se ejerce solo desde un escritorio, sino también desde un algoritmo.