Ser amable al interactuar con un chatbot de inteligencia artificial puede generar beneficios, según Microsoft, que detalla en un video las diferencias al hablar en un tono más educado con las IAs, lo cual se traduce en respuestas de mayor calidad.
Desde Xataka México decidimos comprobar los dichos de Microsoft y hacer nuestro propio experimento. Para el ejercicio ingresamos los mismos prompts para ChatGPT y para Bard. La petición en los prompts es muy sencilla: obtener una receta para cocinar espagueti.
Probando la educación
El primer prompt se ingresó en ChatGPT sin incluir la "cortesía", con la indicación "dame la receta de espagueti".
ChatGPT respondió a la primera pregunta con la receta de los ingredientes, así como las instrucciones necesarias para su preparación. También añadió un mensaje deseándonos que disfrutáramos la comida.
Al ingresar la palabra "Por favor" previo al prompt, el resultado fue más amigable. Incluso, realizó una consulta adicional para conocer nuestras preferencias sobre cómo debía ser preparada la pasta.
En este caso, el chatbot proporcionó una receta similar pero con menos ingredientes, con razones para usarlos y consejos adicionales. Sus instrucciones también fueron más claras, e incluso la escritura fue distinta al caso donde no se incluía algún elemento de amabilidad.
Pasando a Bard, al hacer la consulta directamente, el chatbot respondía sin entablar algún tipo de conversación con el usuario, ofreciendo únicamente una receta con las instrucciones de preparación y algunas opciones adicionales.
Sin embargo, al agregar "por favor", además de proporcionar un resultado más amigable y marcar que se trata de una "receta fácil y deliciosa", la preparación incluía menos ingredientes y era más simple de realizar. Junto a sus instrucciones y consejos, Bard también añadió la palabra "¡Disfruta!" al final de su respuesta.
Los consejos de Microsoft al hablar con una IA
Microsoft, en su video, asegura que ser educado con los chatbots de IA ayuda a generar resultados "respetuosos y colaborativos". Además, el ser cortés hace probable que los sistemas respondan de la misma manera, ya sea con mejores explicaciones de los temas o ofreciendo un contexto más completo.
La compañía también subraya la importancia de ser profesional con los chatbots, ya que las IA generativas reflejan los niveles de profesionalismo, claridad y el detalle de las indicaciones que se les proporcionan.
Esto implica que si se ingresa un prompt a un chatbot detallando el interés detrás de una consulta, por ejemplo si es parte una investigación, o que se requiere conocer algún término en específico, la IA contará con mucha más información para responder adecuadamente al usuario.
Los datos respaldan el comportamiento
Aunque por el momento no existe un documento que afirme categóricamente que "tratar bien" a las IAs genere mejores resultados, las respuestas apuntan a un mayor rendimiento, respaldado por algunas investigaciones y posturas de directivos detrás de Copilot.
Por ejemplo, en el sitio de preimpresión ArXiv, una publicación realizada por una colaboración entre Microsoft, el Instituto de Software CAS, William & Mary, la Universidad Normal de Beijing y HKUST detalla que aunque no está claro si los grandes modelos de lenguaje (LLM) pueden captar genuinamente los estímulos psicológicos, tras realizar algunos experimentos se llegó a la conclusión de que tienen un grado de comprensión de la inteligencia emocional, lo que puede mejorar su desempeño.
Como resultado, en este proyecto se propone un nuevo tipo de indicaciones denominadas "EmotionPrompt". Estas indicaciones se agregan al final de cada prompt, proporcionando al chatbot prompts compuestos con estímulos emocionales que pueden contribuir a generar respuestas más elaboradas y beneficiar el resultado final.
Microsoft también ha abordado el tema. Por ejemplo, Kurtis Beavers, director del equipo de diseño de su IA Copilot, indica que aunque los chatbots con IA "no se sentirán agradecidos cuando se les pida por favor" y se les dé las gracias, el uso de una etiqueta básica al interactuar con ellos puede generar resultados "respetuosos y colaborativos".
Según Beavers, dado que los LLM analizan oraciones o párrafos y eligen información en función de su entrada, es más probable que sean corteses y respondan con los mismos niveles de profesionalismo, claridad y detalle que se proporcionen en las indicaciones.
Más formas de "incentivar" a los chatbots
Además de usar un lenguaje educado y cortés, como si se estuviera interactuando con otra persona, también es posible ingresar otros prompts que generen las respuestas deseadas en el chatbot.
Por ejemplo, un usuario descubrió que a ChatGPT se le puede "incentivar" prometiéndole dinero, lo que provoca respuestas más extensas y detalladas, a pesar de que no puede aceptar ninguna transacción económica.
El rendimiento también se llevó al extremo, prometiendo a la IA que no habría paga. Esto redujo su nivel de respuestas, y al contrario, diciéndole que se le pagarían hasta 200 dólares, aumentó la cantidad de caracteres que generaba, además de que sus resultados fueron más precisos.
Ver todos los comentarios en https://www.xataka.com.mx
VER 3 Comentarios