Lo que parecía ser una solución para los perezosos y los ocupados en cuanto a interacciones sociales se refiere, podría causar un efecto contrario al deseado. Investigadores descubrieron que las personas tienen una respuesta más negativa si descubren que su interlocutor ha usado IAs para asistirle en la redacción de sus respuestas. Los resultados se relacionan a la percepción de esfuerzo en las conversaciones.
Entre los usos más popularizados que han tenido las inteligencias artificiales recientemente, se encuentra la generación imágenes, códigos y texto por parte de apps como ChatGPT en el último caso. Sus aplicaciones en el día a día van en aumento, desde colaborar en el aprendizaje de algún tema hasta incentivar la creatividad como asistentes en literatura.
Sin embargo, las barreras para la implementación de las IA nunca han sido claras, por lo que las opiniones no dejan de estar divididas al momento de valorar el producto final. Mientras unos apoyan la asistencia de inteligencias artificiales, otros las consideran perjudiciales y poco fiables.
Esto último fue lo que motivó un estudio realizado por la Universidad Estatal de Ohio, en donde se evaluó la respuesta de cientos de usuarios ante conversaciones mantenidas con una IA. Los resultados parecen dar una explicación al rechazo intrínseco de algunos grupos de personas ante asistentes como ChatGPT.
La doctora Bingjie Liu y su equipo reunió a un grupo de 208 adultos voluntarios para sus pruebas. Se les pidió mantener conversaciones con un a persona llamada Taylor, de quien se explicó sería un amigo cercano de hace años y, bajo este contexto, se planteó uno de tres escenarios diferentes para las conversaciones.
En el primero, el participante le contaba a Taylor que estaba experimentando síndrome de Burnout; el segundo caso consistía en pedirle consejo a Taylor sobre un conflicto con un compañero de trabajo, y la tercera conversación giraría en torno a los planes para su próxima fiesta de cumpleaños.
La frase “el esfuerzo es lo que cuenta” ahora tiene un sustento científico
Adicionalmente, se les explicó que en algunos casos Taylor utilizó una IA para elaborar y corregir sus respuestas; a otras personas se les dijo que Taylor había recibido ayuda de una persona externa para esta tarea; a un tercer grupo se le aseguró que Taylor había elaborado todas las respuestas por su cuenta.
Los resultados fueron contundentes, la mayoría de los participantes evaluó estas interacciones de la misma manera. Aunque reconocieron que las respuestas recibidas en cada escenario mostraban “consideración” sobre sus problemas, en los casos en que una IA asistió a Taylor se reportó una menor satisfacción, y se calificó a Taylor de manera más baja en la escala de “cumple con mis necesidades para ser un amigo cercano”.
Los investigadores determinaron que parte de estos resultados derivan de la percepción social de que el uso de tecnología es muy inferior y poco apropiado cuando se trata de interacciones tan personales como pedir un consejo.
Curiosamente, el estudio mostró que los participantes también evaluaron a Taylor negativamente cuando se les explicó que había recibido apoyo de una persona externa en sus respuestas.
“Descubrimos que la gente no cree que un amigo deba usar una tercera parte, ya sea IA o algún otro humano, para ayudarle a mantener relaciones”, explicó la doctora Liu.
El estudio explica que los participantes sintieron que Taylor se esforzó mucho menos en su amistad al usar alguna asistencia, sin importar si esta era artificial o de alguien más. En ambos casos, los participantes se sintieron menos cómodos y seguros con mantener una amistad con Taylor, sin importar la calidad de sus consejos.
“El esfuerzo es crucial en las relaciones. La gente quiere saber cuánto estas dispuesto a invertir en una amistad, y si sienten que estás tomando atajos (como usar IAs o apoyo de alguien más), no resultará bien”.
Resultados de estudios similares coinciden con los de la doctora Bingjie Liu. En 2016 se analizaron las preferencias de usuarios en redes sociales como Facebook. Cuando la respuesta a una publicación se limitaba a presionar el botón de “like”, la persona que había hecho la publicación percibía a la relación con quien estaba del otro lado como negativa. En contraste, cuando la respuesta era un mensaje elaborado, la percepción mejoraba por mucho.
Cuidado, tus amigos podrían descubrir por cuenta propia que usas IAs
Aunque estos estudios se enfocaron en escenarios en que los participantes estaban enterados de antemano sobre en qué escenarios habían sido usadas las IA para las respuestas, la doctora Liu sostiene que, a medida que servicios como ChatGPT se vuelven más populares, las personas comienzan a realizar el Test de Turing en sus mentes, de manera inconsciente.
En síntesis, el Test de Turing se creó para distinguir si el interlocutor es un humano o una máquina, basado en sutilezas como simplicidad, empatía y diversidad de temas. De esta manera, se estima que conforme se vuelvan más comunes las IA, tanto de texto como de generación de imagen, las personas estén más escépticas y alertas a detectar cuando una respuesta es legítima.
Los resultados de estos estudios confirman que el esfuerzo percibido juega un papel crucial dentro de las interacciones sociales, pues en algunos casos no se acude a un amigo por un consejo, sino por apoyo.
“En concusión, descubrimos que, para mantener una relación, la gente diferencia el esfuerzo interno y externo en la comunicación asistida por tecnología. Es el esfuerzo interno, el personal, el que es valorado y contribuye al bienestar de las relaciones. Aunque las IA puedan ahorrar esfuerzo a los usuarios, desde la perspectiva de la otra parte reduce la percepción de esfuerzo por tanto afecta la satisfacción en la relación y aumenta la incertidumbre de los compañeros”.
Ver todos los comentarios en https://www.xataka.com.mx
VER 0 Comentario