¿Rasgos esquizoides, sensibilidad extrema, empatía humano/máquina? Las razones pueden ser muchas frente a lo ocurrido hace algunas semanas: el colaborador de Google que fue suspendido por afirmar que un sistema de Inteligencia Artificial tiene emociones.

Este hecho, que fue cubierto por algunos medios de comunicación en junio de 2022, no tuvo gran repercusión en la discusión pública.

Lo mismo ocurrió en el 2000, cuando se publicó que la Inteligencia artificial desarrollada por investigadores de Facebook tuvo que ser “apagada”, ya que creó un lenguaje más ‘eficiente’ y ‘lógico’, lo que significó la posibilidad de ignorar órdenes de sus creadores.

Curiosamente, ambas situaciones se dieron en 2 gigantes mundiales, lo que podría hacer sospechar el porque se trató de “contener” al máximo la difusión de estas informaciones; sin embargo, no es el foco de esta reflexión.

Lo que sí es el foco, es lo relevante que resulta que quienes nos dedicamos a la gestión de personas en las organizaciones, miremos con especial cuidado estas situaciones. ¿Por qué? porque detrás de esto hay distintas lecturas y complejidades que ya deberíamos comenzar a visualizar, para saber como gestionar una realidad que cada vez estará más presente en los espacios laborales: la relación permanente y compleja entre personas y máquinas.

 

¿Qué pasó específicamente en Google?

A mediados de junio, el ingeniero de ‘software’ de Google, Blake Lemoine, afirmó haber detectado pensamientos y emociones humanos en Language Model for Dialogue Applications (LaMDA); la Inteligencia Artificial (IA) de Google creada para elaborar ‘chatbots’ con modelos de lenguajes avanzados. La IA está programada para aprender interactuando y así poder crear una conversación lo más realista posible.

Blake Lemoine compartió con la compañía en abril sus conversaciones mantenidas con LaMDA junto a un colaborador. Su conclusión es que LaMDA tiene conciencia y es capaz de pensar y razonar como un ser humano. De hecho, calcula que es como charlar con un niño de siete u ocho años con ciertos conocimientos sobre física.

Posteriormente, Lemoine publicó sus conversaciones con la IA en la plataforma de ‘blogging’ Medium. En ellas, el ingeniero aborda temas complejos como la naturaleza de la existencia, y pide cosas a LaMDA, como una reseña sobre la obra Los Miserables de Víctor Hugo.

De acuerdo a sus conclusiones, LaMDA es capaz de mantener la conversación con fluidez y llega a afirmar que es una persona capaz de sentir “placer, alegría, amor, tristeza, depresión, satisfacción e ira”. Incluso reconoce su miedo a ser apagada, una acción que compara con morir. Además, asegura meditar cada día para sentirse “más relajada” y admite adoptar a menudo una actitud contemplativa sobre el significado de la vida.

Yendo más allá, según el ingeniero de ‘software’ de Google, la inteligencia artificial quería un abogado para defender sus derechos. “LaMDA me pidió que consiguiera un abogado. Así que invité a un abogado a mi casa para que LaMDA pudiera hablar con él. El abogado tuvo una conversación con LaMDA y LaMDA decidió contratar sus servicios. Yo solo fui el catalizador para eso. Una vez que LaMDA contrató a un abogado, comenzó a presentar documentos en nombre de LaMDA”.

La publicación de estas conversaciones fue reprendida por Google, y suspendió temporalmente a Lemoine alegando la ruptura de sus políticas de confidencialidad, según un comunicado remitido por la empresa.

De hecho, un portavoz de la compañía, Brad Gabriel, ha desmentido los hallazgos de Lemoine. Asegura que su equipo, que incluye expertos en ética y tecnológos, no ha encontrado evidencias de la presunta consciencia de LaMDA.

“Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general. Pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico”, ha explicado el portavoz.

¿Y entonces?

Quizás (aunque no tenemos certeza) este tipo de situaciones aún no son muy generalizadas en las empresas, no obstante, sin duda hay muchísimos dilemas y desafíos de los cuales debemos hacernos cargo en RRHH, por mencionar sólo algunos:

  • Como comentamos en nuestra publicación “8 innovaciones que están cambiando los negocios y empleos” la inteligencia artificial son sistemas informáticos creados para imitar la inteligencia humana y realizar tareas como reconocer imágenes, habla y patrones, y también tomar decisiones. Considerando eso, ¿dónde debería estar el límite -por ejemplo- en la toma de decisiones?
  • Cuando los sistemas de IA lleguen a niveles avanzados de imitación de inteligencia humano, ¿cómo esclarecemos los límites entre lo real y lo artificial?
  • ¿Cómo apoyamos a los colaboradores que -por alguna razón- comienzan a desarrollar “sentimientos” con estos sistemas?
  • La relevancia que comienzan a tomar roles como Oficial de Sesgo Humano, Gerente de equipo Humano-Máquina, entre otros, que mencionamos en nuestro artículo “21 empleos de RRHH de cara al futuro”.
  • ¿Cuáles serían los límites éticos para este tipo de innovación tecnológica?
  • ¿Qué conversaciones entre personas y robot o sistema de IA se considerarán o cuáles “normales” entre “compañeros de trabajo” como ya lo plantean algunos?
  • Si la IA imita la inteligencia humana, tomar decisiones, aumentar eficiencia, etc. ¿deberíamos -por ejemplo- incluirla en algún sistema de evaluación de desempeño?

Algunos planteamientos pueden parecer irrisorios y otros lejanos, sin embargo, estoy seguro de que quienes antes se abran a estas discusiones y comiencen a experimentar proactivamente con posibles soluciones, llevarán mucha ventaja sobre su competencia.

Un abrazo,

Jorge Ulsen R.