Dada la amplia aplicación de la IA, la sociedad debe asegurarse de que los modelos son justos, explicables y seguros, y que las empresas estén responsables y transparentes con respecto a su uso. El World Economic Forum profundiza sobre una iniciativa de Singapur al respecto.
AI Verify
La Autoridad de Desarrollo de Medios de Información y Comunicaciones (IMDA) y la Comisión de Protección de Datos Personales (PDPC) han desarrollado el programa marco AI Verify para realizar autoevaluaciones y mostrar los resultados, garantizando una implementación responsable y transparente de IA.
AI Verify consta de un marco de pruebas de gobernanza y un conjunto de herramientas de software para llevar a cabo pruebas técnicas y verificar los procesos. Esto ayuda a garantizar que los sistemas de IA sean justos, explicables y seguros, y que las empresas sean responsables y transparentes sobre su uso.
AI Verify tiene dos componentes. En primer lugar, especifica los criterios comprobables y los procesos correspondientes necesarios para llevar a cabo la prueba. En segundo lugar, el conjunto de herramientas de software realiza pruebas técnicas y registra los resultados de las comprobaciones del proceso
Disponible como Producto Mínimo Viable (MVP), AI Verify ayuda a las empresas a demostrar qué hacen sus sistemas de IA y qué medidas se han tomado para mitigar los riesgos. Los informes de prueba de AI Verify permiten que las partes interesadas de la empresa estén mejor informadas sobre las capacidades de los sistemas de IA con los que interactúan, aportando transparencia y ayudando a generar confianza en la IA.
En definitiva, con el MVP, Singapur invita a las empresas a participar en el piloto internacional con el objetivo de mejorar el marco y el conjunto de herramientas de software para generar confianza, contribuir al desarrollo de estándares internacionales de IA, facilitar la interoperabilidad de los marcos de gobierno de IA y construir una comunidad de pruebas de IA.
Principios éticos
Los principios éticos de la IA pueden ser universales, pero a menudo su interpretación e implementación están influenciadas por variaciones culturales y geográficas. Estas variaciones pueden conducir a marcos de gobernanza de IA fragmentados que, a su vez, pueden generar barreras para implementar una IA confiable para las empresas y obstaculizar su capacidad para proporcionar productos y servicios habilitados para IA a través de las fronteras.
AI Verify es el primer paso de Singapur para identificar y definir una forma objetiva y verificable de validar el rendimiento de los sistemas de IA. El piloto internacional facilitará la recopilación y el desarrollo de puntos de referencia de la industria para los principios éticos de la IA. Esperamos trabajar con jugadores de ideas afines en este viaje de aprendizaje y probar AI Verify.
- [con]Neurona #31 - 28 de enero de 2024
- [con]Neurona #30 - 20 de enero de 2024
- [con]Neurona #29 - 14 de enero de 2024