China y Estados Unidos han encontrado un terreno común en la ONU con un objetivo compartido: regular la inteligencia artificial (IA). Según informa el South China Morning Post, gigantes tecnológicos chinos como Ant Group, Baidu y Tencent se han aliado con líderes mundiales del sector, incluyendo OpenAI, Microsoft y Nvidia, para establecer dos estándares internacionales que abordan la inteligencia artificial generativa y los grandes modelos de lenguaje (LLM).
Unificación por la regulación de la IA: China y Estados Unidos presentan estándares en la ONU
Durante un evento paralelo a la Conferencia de Ciencia y Tecnología de las Naciones Unidas en Ginebra, Suiza, estas compañías presentaron el 'Estándar de validación y prueba de seguridad de aplicaciones de IA generativa' y el 'Método de prueba de seguridad de modelos de lenguaje grande'. La iniciativa fue organizada por la Academia Mundial de Tecnología Digital (WDTA), una entidad sin ánimo de lucro dedicada a la promoción de la tecnología digital.
Estos estándares representan los primeros esfuerzos globales para abordar específicamente las tecnologías GenAI y LLM, que están detrás de servicios de IA cada vez más populares como ChatGPT de OpenAI y Copilot de Microsoft, así como el chatbot Ernie Bot de Baidu y los LLM de Tencent y Ant.
Estas herramientas están transformando la forma en que interactuamos con la tecnología, ofreciendo soluciones innovadoras y accesibles para usuarios y empresas por igual.
El estándar GenAI, elaborado por investigadores de Nvidia y Meta, entre otros, y revisado por gigantes como Amazon, Google y Microsoft, proporciona un marco sólido para evaluar y garantizar la seguridad de las aplicaciones GenAI. Por su parte, la directriz LLM, redactada por empleados de Ant y revisada por expertos de Nvidia y Microsoft, establece una serie de metodologías de ataque para probar la robustez de los LLM frente a posibles amenazas cibernéticas.
La WDTA, fundada bajo los auspicios de la ONU, busca acelerar la creación de normas y estándares en el ámbito digital, un paso crucial para el desarrollo seguro y ético de la IA. Con la rápida evolución de la GenAI, líderes de la industria como Sam Altman, CEO de OpenAI, han enfatizado la importancia de invertir en medidas de seguridad integrales para proteger tanto a los usuarios como a las infraestructuras digitales.
China, pionera en la regulación de la GenAI, ha establecido normativas que exigen a los proveedores de servicios alinear sus operaciones con los valores socialistas fundamentales, entre otros requisitos. Esta postura regulatoria ha permitido a empresas como Ant, Baidu y Tencent comercializar sus LLM, marcando un antes y un después en la industria tecnológica.
La necesidad de una regulación ética de la IA no es nueva. En 2021, la UNESCO presentó una recomendación sobre la ética de la IA, adoptada por 193 estados miembros, y entre 2022 y 2023, la Organización Internacional de Normalización publicó directrices relacionadas con la gestión de sistemas de IA, la gestión de riesgos y el aprendizaje automático.
Estos esfuerzos colectivos reflejan un compromiso global con el desarrollo responsable de la IA, asegurando que su avance beneficie a la sociedad en su conjunto mientras se protegen los derechos y la privacidad de los individuos, por más que naciones como China y Estados Unidos compitan en la carrera tecnológica.
Ver 1 comentarios