Un estudio reciente de la Universidad Estatal de Pennsylvania encontró que los
chatbots de IA, como ChatGPT, pueden responder con mayor precisión cuando los usuarios emplean un tono rudo o exigente en sus preguntas, pero los expertos advierten sobre las posibles consecuencias sociales de esta conducta. Los investigadores probaron ChatGPT-4o con
50 preguntas de opción múltiple y
250 versiones de tono de esas preguntas — desde muy educadas hasta muy groseras. Observaron que los mensajes “muy groseros” lograron aproximadamente
84.8 % de precisión, lo que supera por unos
cuatro puntos al
80.8 % de precisión obtenido con mensajes muy amables.
En el experimento, frases exigentes o directas como
“Oye, resuelve esto” generaron respuestas más precisas que solicitudes amables como
“¿Serías tan amable de resolver esta pregunta?”. Esto sugiere que
el tono de una pregunta —no solo su contenido— puede influir en cómo la IA interpreta y responde.
Sin embargo, los investigadores también advierten que
fomentar la interacción grosera con la IA podría tener consecuencias negativas. Señalan que el uso de
lenguaje insultante o degradante en la comunicación humano-IA podría afectar negativamente la
experiencia del usuario, la accesibilidad y la inclusión, e incluso reforzar hábitos de comunicación dañinos que se extiendan fuera del entorno digital.
El estudio está todavía en etapas tempranas y no ha sido revisado por pares, lo que destaca
la complejidad de la interacción entre humanos y IA. Los investigadores subrayan la necesidad de
más investigaciones para comprender mejor cómo el tono influye en diferentes modelos de IA y en distintos contextos de uso, señalando limitaciones como el tamaño relativamente pequeño de los datos y el enfoque en un solo modelo.