Meta AI en WhatsApp no tiene ni un mes en México y ya está alucinando gracias a un tema delicado: Donald Trump

Meta Ai Facebook
Sin comentarios Facebook Twitter Flipboard E-mail

Las alucinaciones de inteligencias artificiales han vuelto, esta vez protagonizadas por el chatbot de Meta AI. Todo comenzó tras el supuesto atentado contra el expresidente Donald Trump, evento que el asistente afirmaba nunca había ocurrido.

Según uno de los ejecutivos de la compañía, quien salió a aclarar el asunto, la alucinación de Meta AI se debió a un "problema conocido" en los chatbots, que no siempre son confiables, especialmente en noticias de último momento o al devolver información en tiempo real.

Los controles a Meta AI

Joel Kaplan, director global de políticas de Meta, explicó que su inteligencia artificial fue programada inicialmente para no responder preguntas sobre este incidente debido a la gran cantidad de contenido falso, contradictorio o a teorías conspirativas. Ante una consulta sobre el tema, la IA daba una respuesta genérica indicando que no podía brindar información.

Este tipo de comportamientos, derivó en que algunos usuarios informaran que la IA se negaba a hablar del evento, lo que llevó a actualizar las respuestas que el chatbot proporcionaba sobre este incidente.

Tras implementar algunos ajustes, Meta AI continuó con respuestas incorrectas "en una pequeña cantidad de casos", al punto de afirmar que el evento nunca había sucedido, un error del que la compañía estaba consciente y que se encontraba en proceso de solucionar.

Inteligencia Artificial 01

El directivo también señaló que este tipo de respuestas es un problema que no solo afecta a Meta AI, sino a "toda la industria", que representa un desafío constante en cómo la IA maneja eventos en tiempo real.

Debido a este reto, los sistemas de IA, según Kaplan, pueden devolver resultados inexactos o inapropiados, un problema que Meta está abordando para mejorar las funciones.

Los resultados de búsqueda en Google

Sin embargo, Meta no fue la única compañía que experimentó problemas con sus resultados tras el incidente con Trump.

Google también se vio afectada, ya que los usuarios notaron que la función de autocompletar búsquedas parecía censurar los resultados relacionados con el atentado. La compañía explicó que esto se debía principalmente a las protecciones del buscador contra la violencia política y a sistemas desactualizados para mostrar estos contenidos.

Para The Verge, este tipo de situaciones revela uno de los problemas principales relacionados con el diseño de los grandes modelos de lenguaje, como ChatGPT, Gemini o Meta, los cuales, al estar diseñados para generar contenido, enfrentan dificultades para manejar información verídica en tiempo real.

Inicio