La importancia de un enfoque basado en derechos humanos y civiles
La tecnología globalizada tiene el potencial de crear un impacto social a gran escala, y contar con un enfoque de investigación sólido basado en los estándares internacionales de derechos humanos y civiles es un componente crítico para garantizar un desarrollo y despliegue ético y responsable de la Inteligencia Artificial (IA). El equipo de Impact Lab, parte del equipo de IA Responsable de Google, emplea una serie de metodologías interdisciplinarias para asegurar un análisis crítico y enriquecedor de las posibles implicaciones del desarrollo tecnológico.
Misión y enfoque multidisciplinario del Impact Lab
La misión del equipo de Impact Lab es examinar los impactos socioeconómicos y de derechos humanos de la IA, publicar investigaciones fundamentales e incubar soluciones innovadoras que permitan a los profesionales del aprendizaje automático (ML, por sus siglas en inglés) avanzar en la equidad global. La singularidad de los objetivos del Impact Lab radica en su enfoque multidisciplinario y la diversidad de experiencia, que incluye tanto la investigación aplicada como la académica. Su objetivo es ampliar la perspectiva epistémica de la IA Responsable, centrando las voces de las comunidades históricamente marginadas y superando la práctica del análisis no fundamentado de impactos mediante un enfoque basado en la investigación.
¿Qué hace Impact Lab?
El equipo examina críticamente las suposiciones tradicionales sobre cómo la tecnología impacta en la sociedad para profundizar en la comprensión de esta interacción. Colaboran con académicos en las áreas de ciencias sociales y filosofía de la tecnología, y publican investigaciones fundamentales centradas en cómo el ML puede ser útil y beneficioso. También ofrecen apoyo investigativo a algunos de los esfuerzos más desafiantes de su organización, como la Iniciativa de las 1,000 Lenguas y el trabajo en curso en la evaluación de modelos generativos y de lenguaje.
Actividades principales del Impact Lab
- Realizar investigaciones fundamentales y exploratorias para crear soluciones socio-técnicas escalables.
- Crear conjuntos de datos y marcos basados en investigaciones para evaluar sistemas de ML.
- Definir, identificar y evaluar impactos negativos en la sociedad derivados de la IA.
- Crear soluciones responsables para la recolección de datos utilizados en la construcción de modelos a gran escala.
- Desarrollar metodologías y enfoques novedosos que respalden el despliegue responsable de modelos y sistemas de ML.
- Traducir la retroalimentación de la comunidad externa y expertos en información empírica para comprender mejor las necesidades e impactos de los usuarios.
- Buscar colaboraciones equitativas y esforzarse por establecer alianzas mutuamente beneficiosas.
Esfuerzos de investigación actuales
Entendiendo los problemas sociales
La motivación para proporcionar herramientas y enfoques analíticos rigurosos es asegurar que el impacto socio-técnico y la equidad se comprendan bien en relación con las particularidades culturales e históricas. Esto es fundamental para desarrollar la capacidad de comprender mejor a las comunidades que experimentan la mayor carga y demostrar el valor del análisis riguroso y enfocado. Los objetivos son asociarse proactivamente con líderes de opinión externos en este espacio problemático y replantear los modelos mentales existentes al evaluar posibles daños e impactos.
Referencias
- Impact Lab. (s. f.). Google Responsible AI Team.
- Google AI Principles. (s. f.). Google.
- 1,000 Languages Initiative. (s. f.). Google.
En Resumen
¿Cuáles son los objetivos del programa EARR?
Los objetivos del programa EARR son: (1) centrar el conocimiento sobre las experiencias de grupos históricamente marginados o subrepresentados, (2) comprender cualitativamente e identificar posibles enfoques para estudiar los daños sociales y sus analogías en el contexto de la tecnología, y (3) ampliar la lente de la experiencia y el conocimiento relevante en relación con nuestro trabajo en enfoques responsables y seguros para el desarrollo de la inteligencia artificial. Además, el programa busca examinar los problemas sociales sistémicos y generar artefactos útiles para el desarrollo responsable de la inteligencia artificial, y utilizar un enfoque basado en los derechos civiles y humanos como punto de partida para la investigación. También se centra en dar voz a los grupos subrepresentados y utiliza un enfoque de equidad en la curación, desarrollo y evaluación de conjuntos de datos y modelos.
¿Qué es el Equitable AI Research Roundtable (EARR)?
El Equitable AI Research Roundtable (EARR) es una coalición de investigación basada en la comunidad creada para establecer asociaciones continuas con líderes externos de organizaciones sin fines de lucro e investigación que son expertos en equidad en los campos de la educación, la ley, la justicia social, la ética de la IA y el desarrollo económico. Estas asociaciones ofrecen la oportunidad de involucrarse con expertos multidisciplinarios en preguntas de investigación complejas relacionadas con cómo centrar y comprender la equidad utilizando lecciones de otros dominios. El objetivo de EARR es centrar las voces de las comunidades históricamente marginadas y superar la práctica de análisis no fundamentados de impactos al ofrecer un enfoque basado en la investigación para comprender cómo las perspectivas y experiencias diferentes deben afectar el desarrollo de la tecnología.
¿Por qué es importante tener un enfoque multidisciplinario en el desarrollo de la inteligencia artificial responsable?
Es importante tener un enfoque multidisciplinario en el desarrollo de la inteligencia artificial responsable porque esto permite una comprensión más completa y rigurosa de las implicaciones sociales y de derechos humanos de la tecnología. El equipo de Impact Lab de Google, por ejemplo, utiliza una variedad de metodologías interdisciplinarias para analizar críticamente las posibles implicaciones del desarrollo tecnológico. Además, el Equitable AI Research Roundtable (EARR) se ha creado para establecer asociaciones con líderes de organizaciones sin fines de lucro y de investigación que son expertos en equidad en campos como la educación, la justicia social y el desarrollo económico. Al centrar las voces de las comunidades históricamente marginadas y al utilizar marcos de derechos humanos y participativos, se pueden desarrollar soluciones escalables, rigurosas y basadas en evidencia que promuevan la equidad global. En resumen, un enfoque multidisciplinario permite una comprensión más completa y rigurosa de las implicaciones sociales y de derechos humanos de la tecnología, lo que es esencial para el desarrollo de la inteligencia artificial responsable.
- La UNESCO llama a todos los gobiernos a implementar el Marco Ético Mundial sin demora - 30 de marzo de 2023
- ¿Qué implica la IA generativa para la propiedad intelectual? - 28 de marzo de 2023
- Descubriendo AUC: Un indicador clave en la evaluación de modelos de clasificación - 26 de marzo de 2023