4 minute read

IA hasta en el currículum

Next Article
ENERGÉTICAS

ENERGÉTICAS

Hace unas semanas se hizo oficial la fusión de las marcas de soluciones digitales HolmesHR y SherlockHR. Estas dos marcas de tecnología para la administración de Recursos Humanos (RH) ahora son parte de PandaPé. Tal vez no lo sepas, pero PandaPé es una de las empresas digitales de RH más grandes de Brasil.

El objetivo es volverse la empresa integral de RH más completa a nivel regional cuyo objetivo es la transformación digital del sector. Buscan abarcar México, Colombia, Perú, Chile, Argentina, Ecuador y Guatemala. SherlockHR hacía toda la parte de reclutamiento y Holmes es el software de todo el onboarding de los colaboradores. Si bien ahora la moda es meter a la Inteligencia Artificial (IA) en todos los conceptos, las soluciones de Pandapé ya usaban desde hace mucho estas tecnologías.

Ya usaban IA para la administración y manejo de perfiles para cientos de vacantes, sin embargo; también para el manejo de nóminas, regulación y gestión del talento. Además, consideran que la IA (como ChatGPT) es muy valiosa en la redacción de las vacantes pues puede no despertar interés de los candidatos.

En ese mismo camino está Buk, la firma latinoamericana de gestión de un software integral para la gestión de personas. Esta empresa anunció una alianza con la plataforma de tecnología OpenAI para incorporar ChatGPT a sus procesos de gestión de recursos humanos. El startup es una de las primeras en tener acceso al API del modelo GPT-4 de OpenAI.

En una primera etapa, Buk integró ChatGPT a funcionalidades del proceso de selección y análisis de clima laboral. Ahora, a través de su servicio Buk Copilot podrá enviar y redactar emails masivos con inteligencia artificial, utilizando un lenguaje cercano y natural. Parece una simpleza, pero podrás darte cuenta de que el uso de la IA, hasta en el currículum; facilitan la chamba de los empleadores.

El Nuevo Conacyt

Por cierto, hablando de RH y ahora que los expertos de todo cantan una falsa extinción del Conacyt; me acordé de una empresa relacionada con la gestión del capital humano que de pronto se volvió desarrolladora de tecnología. No tengo pruebas, pero tampoco dudas de que esa empresa se aprovechó del modelo de “colaboración” que el Conacyt abrió hace un par de años con la iniciativa privada. Esto ya te lo he comentado algunas ocasiones y mucha gente lo sabe, pero se hacen tontos. El Conacyt se convirtió en un desarrollador de conocimientos y tecnologías que fueron privatizados de manera velada. Las empresas que tenían “convenio” con el Conacyt “sugerían” los temas a investigar y una vez concluido el estudio, las empresas se quedaban con el conocimiento porque casualmente solamente se acoplaban a las necesidades de esas empresas. Es decir, con dinero público desarrollaban productos, procesos y tecnología que se agandallaban esas empresas. Por eso me urge conocer detalles del nuevo Conacyt para no escribir barrabasadas.

•Especialista en Tecnología y Negocios. Director de tecnoempresa.mx @hugogonzalez1

La inteligencia artificial (IA) puede afectar la salud mental y emocional de las personas de varias maneras. A continuación, se mencionan algunos ejemplos: Aislamiento social: El uso excesivo de la tecnología y la dependencia de la IA pueden aumentar el aislamiento social, lo que a su vez puede tener un impacto negativo en la salud mental. Las personas que pasan demasiado tiempo interactuando con la tecnología pueden sentirse solas y desconectadas de la sociedad. Ansiedad y estrés: La IA puede aumentar la ansiedad y el estrés al generar expectativas poco realistas sobre el rendimiento y la productividad. Las personas pueden sentirse presionadas para cumplir con los estándares de productividad establecidos por la tecnología, lo que puede resultar en ansiedad y estrés.

Dependencia tecnológica: La dependencia de la tecnología, incluyendo la IA, puede tener un impacto negativo en la salud mental y emocional de las personas. Las personas pueden volverse dependientes de la tecnología para realizar tareas que antes realizaban manualmente. Esto puede hacer que las personas se sientan impotentes y sin habilidades prácticas.

Adicción a la tecnología: La IA también puede fomentar la adicción a la tecnología. Las personas pueden sentirse atraídas por las características interactivas y personalizadas de la IA, lo que puede llevar a una dependencia emocional de la tecnología.

Sesgo algorítmico: La IA puede tener un impacto negativo en la salud mental y emocional de las personas si los algoritmos están sesgados. Si la IA se basa en datos sesgados, puede perpetuar prejuicios y discriminación, lo que puede tener un impacto negativo en la autoestima y el bienestar emocional de las personas afectadas.

La IA puede tener un impacto significativo en la salud mental y emocional de las personas. Para minimizar estos efectos negativos, es importante que las empresas que desarrollan y utilizan la IA sean conscientes de estos riesgos y trabajen para desarrollar soluciones éticas y responsables que equilibren el uso de la tecnología con la salud mental y emocional de las personas.

Fomentar la educación digital: La educación sobre el uso responsable y consciente de la tecnología, incluyendo la IA, puede ayudar a las personas a comprender los riesgos asociados con su uso excesivo y a adoptar prácticas más saludables.

Promover la interacción humana: Es importante fomentar la interacción humana y las habilidades sociales, tanto en línea como fuera de línea. Esto puede ayudar a las personas a sentirse conectadas y a reducir la sensación de aislamiento que puede ser causada por el uso excesivo de la tecnología.

Limitar el tiempo en línea: Las personas pueden reducir su dependencia de la tecnología limitando el tiempo que pasan en línea. Esto puede ayudar a reducir la sensación de estrés y ansiedad asociada con el uso excesivo de la tecnología.

Es importante trabajar con los niños y jóvenes para fomentar buenas prácticas en el uso de la tecnología si no queremos ver un futuro con humanos desconectados y aislados

•Ingeniero en Electrónica y Telecomunicaciones por la UAM. alejandro.delvalle@octopy.com

This article is from: