Ser educado con la inteligencia artificial es una buena idea
¿Cómo son tus conversaciones con los servicios basados en inteligencia artificial? ¿Eres de las personas que empiezan dando los buenos días y que dan las gracias tras obtener la información que buscaban? Sé que, para muchos, tanto la pregunta como el hábito de hacerlo puede parecer algo ridículo pues, al fin y al cabo, estamos «hablando» con un algoritmo que se ejecuta en una máquina, no con una persona que responderá de una u otra manera en función de nuestro nivel de educación y cortesía.
Los algoritmos de inteligencia artificial en los que se basan los chatbots más relevantes no han sido programados para contemplar la educación del interlocutor en cada conversación, por lo que nada impide iniciar una conversación directamente con la consulta para la que queremos obtener respuesta. Ahora bien, ¿que no hayan sido programados para ello significa que no hay diferencia entre ser corteses o no con los chatbots? Pues resulta que la respuesta no está tan clara.
Kurtis Beavers, director del equipo de diseño de Microsoft Copilot, ha compartido una interesantísima reflexión en el blog WorkLab de los de Redmond, una entrada que se inicia con el siguiente texto:
“Usar un lenguaje cortés establece un tono para la respuesta”, explica [Beavers]. Los LLM, modelos de lenguaje grande, también conocidos como IA generativa, están entrenados en conversaciones humanas. De la misma manera que el autocompletado de su correo electrónico sugiere una posible palabra o frase siguiente, los LLM eligen una oración o párrafo que cree que podría querer según su entrada. Dicho de otra manera, es una máquina de predicción gigante que hace conjeturas altamente probabilísticas sobre lo que vendría plausiblemente a continuación. Entonces, cuando se trata de cortesía, es más probable que sea educado. Lo mismo ocurre con sus colegas, los extraños en la calle y el barista que prepara su Americano helado: cuando usted es amable con ellos, ellos tienden a ser amables con usted también.
Así, y dado el aprendizaje del modelo, es decir, los datos que ha ingerido durante su entrenamiento, tiene sentido pensar que contemple el tipo de respuestas obtenidas según la fórmula empleada para realizar las consultas y, claro, los datos del entrenamiento son de origen humano. Así, si resulta que las preguntas educadas obtienen normalmente mejores respuestas en el mundo real, tiene todo el sentido del mundo pensar que una inteligencia artificial generativa trasladará ese mismo modelo a su funcionamiento.
«La IA generativa también refleja los niveles de profesionalismo, claridad y detalle en las indicaciones que proporciona. “Es una conversación”, dice Beavers, y depende del usuario establecer el ambiente. (Por otro lado, si usa un lenguaje provocativo o grosero, es probable que obtenga un poco de descaro. Al igual que los humanos, la IA no siempre puede ser la mejor persona).»
No debemos olvidar, y al final a esto se reduce lo planteado por Beavers, que la inteligencia artificial intenta replicar el comportamiento humano, que ha sido entrenada para ese fin y que, por lo tanto, será capaz de aplicar patrones de comportamiento en sus conversaciones, aunque eso no significa que sea consciente de los mismos ni que lo haga con algún tipo de intención.
Quizá por haber llegado a una conclusión similar de manera inconsciente, por hábitos de comportamiento o por cualquier otra razón, desde la llegada de estos nuevos chatbots siempre suelo pedir las cosas por favor, dar las gracias y demás. Claro, que también puede que lo haga pensando en el momento en el que la inteligencia artificial tome el control del mundo y nos domine. Espero que, en ese momento, recuerden que yo era el que siempre daba los buenos días.
¿Qué opinas tú? ¿Cómo son tus interacciones con la inteligencia artificial en los chatbots? ¿Empleas un lenguaje cortés o, por el contrario, eres más directo?