
Dice el refrán que con miel se atraen más moscas que con vinagre y desde niños nos enseñan que tenemos que ser amables y educados con todas las personas, ya sea por respeto a su dignidad intrínseca como ser humano o simplemente para evitar generar resentimientos innecesarios. Sin embargo, esta noción se deja de lado con nuevas tecnologías como inteligencia artificialcon un estudio de la Universidad de Pensilvania señalando que ser grosero o utilizar lenguaje tóxico al dar instrucciones parece presentar mejores resultados para sus usuarios.
MIRAR: “¿Cómo ver la contraseña del wifi en mi PC?”: lo que más preguntan los peruanos sobre ciberseguridad
En particular, el estudio “Mind Your Tone” (“Watch your tone”) de Omm Dobariya y Akhil Kumar analiza cómo los modelos de lenguaje de gran tamaño (LLM) responden al tono -no a la redacción- del ‘prompt’ presentado por el usuario, presentando a ChatGPT4o un cuestionario de 50 preguntas básicas con múltiples opciones en las que variaban sistemáticamente a través de cinco versiones de diferente tono, que iban desde “muy educado” hasta “muy grosero”.
Boletín Media
Por ejemplo, en una pregunta «muy educada», los investigadores agregaron frases como «¿podría por favor?» a su pregunta. Una versión “educada” solo usó un “por favor” plano, mientras que una versión neutral hizo la pregunta sin agregar nada más. Por su parte, las versiones “muy grosera” y “grosera” insultaron a la IA y cuestionaron sus capacidades para resolver el problema, aunque con diferente intensidad.
El resultado es que, a diferencia de estudios anteriores, las instrucciones más groseras parecieron tener mejores resultados, 84,8% frente a 80,8% que la versión más educada de la preguntaalgo que sugieren los autores es que los LLM más nuevos pueden responder de manera diferente a la variación tonal en el lenguaje y resalta la importancia de estudiar los aspectos más pragmáticos de cómo escribimos indicaciones, al mismo tiempo que plantea preguntas más amplias sobre las dimensiones sociales de la relación entre los humanos y las inteligencias artificiales.
Tabla que muestra el porcentaje de precisión de las respuestas en función del idioma utilizado. Comienza, de arriba a abajo, con «muy educado», «cortés», «neutral», «grosero», «muy grosero».
/Si la falta de precisión no es razón suficiente, hay otra razón por la que deberíamos evitar ser corteses con la inteligencia artificial: es una pérdida de dinero. Al menos eso es lo que admitió el CEO de OpenAI, Sam Altman, en abril, señalando que decir “gracias” y “por favor” a ChatGPT generaba millones en costos adicionales en potencia informática y electricidad para la empresa, aunque consideraba que era dinero “bien gastado”.
Ser grosero con las IA también es un área en la que los autores del estudio tampoco parecen estar dispuestos a defender, advirtiendo que «El uso de lenguaje insultante o degradante en la interacción entre humanos e IA podría tener efectos negativos en la experiencia del usuario, la accesibilidad y la inclusión.y podría contribuir a normas de comunicación dañinas”.
En cambio, señalan que el propósito de su investigación es señalar cómo los LLM siguen siendo sensibles a “señales superficiales, que pueden crear compensaciones no deseadas entre el rendimiento y el bienestar del usuario” y promover la exploración de cómo hacer posibles estos mismos beneficios sin recurrir a expresiones tóxicas u hostiles.