top of page

El Algoritmo del Talento: Cuando las Empresas Empezaron a Escuchar a sus Trabajadores

  • Luis Ricardo Peña Felix
  • 12 sept
  • 2 Min. de lectura

Actualizado: hace 2 días

La primera vez que HumanaCore fue activado, nadie en la empresa NovaHelix esperaba sentir nada. Lo anunciaron como un sistema de gestión del talento basado en inteligencia artificial, capaz de mapear habilidades, predisposiciones y riesgos emocionales con una precisión casi quirúrgica. Para la directiva, era una herramienta de eficiencia. Para los empleados, un nuevo ojo que los vigilaba.

Mara, jefa de Personas y Procesos, fue la primera en notar que el algoritmo no solo clasificaba currículos: interpretaba silencios. HumanaCore analizaba patrones de escritura en correos, tiempos de respuesta, pausas en reuniones virtuales, niveles de energía en la voz; cruzaba todo eso con datos voluntarios de proyectos, horarios y encuestas anónimas. Lo llamaban “escucha profunda”.

La sorpresa llegó el día en que el sistema generó su primer reporte narrativo. No eran gráficas, ni matrices, ni porcentajes. Era un texto, casi una carta, donde el algoritmo resumía el estado emocional de la organización:

“El equipo de desarrollo se siente exhausto. El área de diseño busca reconocimiento simbólico más que económico. El equipo de operaciones necesita silencio y claridad, no más reuniones.”

ree

Mara leyó el reporte tres veces. No entendía cómo una máquina podía articular con tanta precisión lo que nadie se atrevía a decir en voz alta. Convocó a una reunión con el director general, pero él solo vio riesgos:—Si hacemos caso a todo lo que diga esa cosa, nos vamos a desorganizar.—Si no hacemos caso —respondió Mara—, vamos a perder gente.

HumanaCore fue diseñado para recomendar ascensos, rotaciones y pausas estratégicas, pero pronto empezó a ir más allá: sugería proyectos a la medida de la curiosidad de cada persona, señalaba incompatibilidades de carácter y advertía cuando alguien estaba a punto de apagar su vocación. No se limitaba a la productividad; hablaba de dignidad.

Algunos empleados se resistían. Les incomodaba ser “leídos” de esa manera. Otros encontraron en el algoritmo una especie de confidente silencioso: respondían encuestas largas, compartían diarios de trabajo, añadían comentarios que sabían que una máquina leería, pero no un jefe.

El verdadero conflicto estalló cuando HumanaCore recomendó detener un proyecto estratégico millonario porque el equipo asignado “no creía en él”. Las gráficas financieras decían “adelante”; el algoritmo decía “retrocede”. Por primera vez, la alta dirección tuvo que decidir si confiaba más en su intuición económica o en la intuición aprendida de una máquina.

Mara propuso un acuerdo: escuchar al algoritmo como se escucha a un buen terapeuta; no como una orden, sino como un espejo. Les recordó que, por primera vez, la empresa tenía una forma estructurada de oír sus propios suspiros internos.

Con el tiempo, las empresas que adoptaron sistemas como HumanaCore no solo redujeron rotación; transformaron su lógica. El talento dejó de ser un recurso para convertirse en un territorio vivo, en constante negociación. Las máquinas ayudaban a escuchar, pero la decisión final seguía siendo profundamente humana: qué hacer con esa verdad recién revelada.

 
 
 

Comentarios


DERECHOS DE AUTOR Y DERECHOS CONEXOS, año 1,  No. 45, Semana 2 Noviembre 2023, es una publicación digital semanal editada por Social Colab S.A.P.I. de C.V., Amatlan 37, colonia condesa, delegación Cuauhtémoc, ciudad de méxico, C.P. 06140, Tel. 5511713154, www.tusaxionesvalen.com Editor Responsable: Antonella Leonelli 
Reserva de derechos al uso exclusivo: en tramite otorgados por el INDAUTOR. Responsable de la última actualización de éste número, unidad de informática INDAUTOR, ing. Juan José Pérez Chavez, calle puebla 143, col. Roma, Delegación Cuauhtémoc, C.P. 06700, fecha última de modificación, 14 de Noviembre de 2023.

© 2023 creada y administrada por axion-e® para LUSEME® 

bottom of page