Un estudio reciente de la Universidad Estatal de Pennsylvania encontró que los chatbots de IA, como ChatGPT, pueden responder con mayor precisión cuando los usuarios emplean un tono rudo o exigente en sus preguntas, pero los expertos advierten sobre las posibles consecuencias sociales de esta conducta. Los investigadores probaron ChatGPT-4o con 50 preguntas de opción múltiple y 250 versiones de tono de esas preguntas — desde muy educadas hasta muy groseras. Observaron que los mensajes “muy groseros” lograron aproximadamente 84.8 % de precisión, lo que supera por unos cuatro puntos al 80.8 % de precisión obtenido con mensajes muy amables.
En el experimento, frases exigentes o directas como “Oye, resuelve esto” generaron respuestas más precisas que solicitudes amables como “¿Serías tan amable de resolver esta pregunta?”. Esto sugiere que el tono de una pregunta —no solo su contenido— puede influir en cómo la IA interpreta y responde.
Sin embargo, los investigadores también advierten que fomentar la interacción grosera con la IA podría tener consecuencias negativas. Señalan que el uso de lenguaje insultante o degradante en la comunicación humano-IA podría afectar negativamente la experiencia del usuario, la accesibilidad y la inclusión, e incluso reforzar hábitos de comunicación dañinos que se extiendan fuera del entorno digital.
El estudio está todavía en etapas tempranas y no ha sido revisado por pares, lo que destaca la complejidad de la interacción entre humanos y IA. Los investigadores subrayan la necesidad de más investigaciones para comprender mejor cómo el tono influye en diferentes modelos de IA y en distintos contextos de uso, señalando limitaciones como el tamaño relativamente pequeño de los datos y el enfoque en un solo modelo.
El fin del Artículo