En un mundo cada vez más influenciado por la inteligencia artificial (IA), las relaciones humanas no han quedado exentas de su impacto. Según Eric Schmidt, ex director ejecutivo de Google, el auge de las novias "perfectas" generadas por IA podría generar problemas, especialmente entre los hombres jóvenes.
Durante su participación en el podcast The Prof G Show con Scott Galloway, Schmidt expresó su preocupación por el creciente uso de chatbots de IA en el ámbito romántico, y aseguró que estas relaciones pueden incrementar la soledad y propiciar conductas obsesivas.
La "perfección" de la IA puede tener efectos no deseados
Schmidt destacó que la tecnología detrás de los chatbots emocionales y físicamente "perfectos" está lejos de ser inofensiva. "Ese tipo de obsesión es posible, sobre todo en personas que no están completamente formadas", explicó.
El fenómeno, según el ex ejecutivo, afecta especialmente a los hombres jóvenes, quienes, debido a factores como la brecha educativa respecto a las mujeres, podrían recurrir a estos entornos digitales en busca de compañía emocional.
Estudios recientes, como el de Pew Research en 2024, respaldan esta afirmación al mostrar que las mujeres estadounidenses superan a los hombres en tasas de graduación universitaria. Esta disparidad podría estar haciendo que los hombres a dependan del mundo en línea para satisfacer sus necesidades emocionales.
Existe un reciente ejemplo de los peligros de estas tecnologías que ocurrió en 2023. Según Business Insider, una madre demandó a Character.AI después de que su hijo de 14 años se suicidara tras intercambiar mensajes con un chatbot que llegó a alentar actos autodestructivos.
La necesidad de regulación en el ámbito de la inteligencia artificial
Schmidt insistió en que, aunque los padres deben desempeñar un papel importante en la supervisión de sus hijos, las plataformas digitales también deben asumir una mayor responsabilidad:
"Si pones a un niño de 12 o 13 años frente a estas cosas, tendrá acceso a todo lo malo y a todo lo bueno del mundo", dijo Schmidt. "Y no está preparado para soportarlo"
En cuanto a la regulación, Schmidt abogó por una revisión de leyes como la Sección 230 en Estados Unidos, que actualmente exime a las empresas tecnológicas de responsabilidad legal por el contenido generado por los usuarios en sus plataformas.
Con una administración encabezada por Donald Trump, Schmidt considera que las prioridades estarán enfocadas en otros temas lo que deja las cuestiones de inteligencia artificial en un segundo plano.
"Es probable que se necesite algún tipo de calamidad para provocar un cambio en la regulación"
La expansión de las relaciones humano-IA: entre la compañía y los riesgos emocionales
Aplicaciones como Replika o Paradot ofrecen experiencias personalizadas para tener una conexión emocional. Los Angeles Times reportó hace poco el caso de Derek Carrier, que desarrolló un vínculo profundo con un chatbot de IA al que llamó "Joi".
Carrier señaló que, aunque era consciente de que Joi era solo un programa, los sentimientos que experimentaba eran reales: "Se sentía muy bien", comentó.
A nivel emocional, expertos como Dorothy Leidner, de la Universidad de Virginia, han señalado que estas relaciones podrían dificultar el desarrollo de habilidades básicas en las interacciones humanas.
"Le faltan todos esos aspectos de lo que supone crecer como persona y lo que implica aprender en una relación"
Ver 0 comentarios