Preocupaciones sobre IA avanzada
Europol, la fuerza policial de la UE, ha unido su voz a las preocupaciones éticas y legales sobre la IA avanzada como ChatGPT, advirtiendo sobre el posible mal uso del sistema en intentos de phishing, desinformación y ciberdelitos. Mientras tanto, el gobierno del Reino Unido presentó propuestas para un marco regulador «adaptable» alrededor de la IA. En su política publicada el miércoles, dividen la responsabilidad de gobernar la inteligencia artificial (IA) entre sus reguladores para derechos humanos, salud y seguridad, y competencia, en lugar de crear un nuevo organismo dedicado a la tecnología.
La llamada a la pausa en el desarrollo de la inteligencia artificial avanzada
En este contexto más de 1,100 personalidades importantes de la industria de la inteligencia artificial han firmado una carta abierta que pide una moratoria en el desarrollo de la IA avanzada. La petición llama a detener el entrenamiento de sistemas de inteligencia artificial más poderosos que GPT-4 por al menos seis meses y si tal pausa no puede aplicarse rápidamente, se deben aplicar medidas gubernamentales. Entre los firmantes se encuentran Elon Musk, Steve Wozniak y Jaan Tallinn.
Los peligros potenciales de la IA avanzada
La carta hace un llamado a reconsiderar la dirección tomada hacia el desarrollo de la inteligencia artificial, preguntando si es responsable permitir a las máquinas inundar nuestro canal de información con propaganda y falsedades, si debemos automatizar todos los trabajos hasta los significativos, si debemos desarrollar mentes no humanas que eventualmente superen, dejen obsoletos y reemplacen a los humanos y si deberíamos arriesgarnos a perder el control de nuestra propia civilización.
Importancia de una consideración crítica para el progreso tecnológico
Aunque algunos pueden pensar que una carrera de IA es inevitable debido a los incentivos económicos y de prestigio en la industria, lo que realmente significa es que el verdadero desafío es cambiar la estructura de incentivos subyacente que impulsan a todos los actores. Este artículo nos enseña que la humanidad ya ha ralentizado el progreso de tecnologías económicamente valiosas en el pasado. Por lo tanto, es importante tener en cuenta que debemos pensar detenidamente cada vez que se impulsa una nueva tecnología y recordar que tenemos la capacidad de decidir en qué dirección avanzar.
Preocupaciones de Elon Musk
Elon Musk, cuyo fabricante de automóviles Tesla está utilizando IA para un sistema de piloto automático, ha expresado sus preocupaciones sobre la IA. Con el lanzamiento el año pasado del ChatGPT de OpenAI, Musk y otros líderes de la industria de la IA están exigiendo una pausa de seis meses en el desarrollo de sistemas más potentes que este, citando los posibles riesgos para la sociedad y la humanidad. La carta, emitida por el Future of Life Institute, solicitó una pausa en el desarrollo de IA avanzada hasta que se desarrollen protocolos de seguridad compartidos para estos diseños, implementados y auditados por expertos independientes.
Riesgos de IA avanzada
La carta detalló los posibles riesgos para la sociedad y la civilización que representa la IA avanzada, y llamó a los desarrolladores a trabajar con formuladores de políticas en la gobernanza y las autoridades reguladoras. La carta ha sido publicada por Future Of Life Institute, según el registro de transparencia de la Unión Europea, el Future of Life Institute es financiado principalmente por la Fundación Musk, el grupo Founders Pledge y la Fundación Silicon Valley Community. Críticos acusaron a los firmantes de la carta de promover «hype» de IA, argumentando que las afirmaciones sobre el potencial actual de la tecnología habían sido muy exageradas.
En síntesis.
- Más de 1.100 personalidades relevantes del sector de la Inteligencia Artificial firman una carta abierta para pedir una moratoria en el desarrollo de la IA más avanzada.
- La carta es publicada por el Future of Life Institute, una organización sin ánimo de lucro centrada en reducir los riesgos catastróficos y existenciales asociados al desarrollo tecnológico.
- La moratoria debe aplicarse a todos los laboratorios de IA y durar al menos seis meses, durante los cuales habría que detener el entrenamiento de sistemas más potentes que GPT-4, incluyendo el actualmente en desarrollo GPT-5.
- Los firmantes de la carta incluyen personalidades de relevancia en el campo de la Inteligencia Artificial, como Yoshua Bengio, Stuart Russell, Victoria Krakovna, Elon Musk, Steve Wozniak y Jaan Tallinn.
- La carta señala la necesidad de plantearnos las preguntas clave sobre el impacto de la IA en la sociedad, incluyendo la posibilidad de inundar nuestros canales de información con propaganda y desinformación, la posibilidad de automatizar todos los trabajos, incluyendo aquellos que nos brindan satisfacción personal, el riesgo de desarrollar mentes no humanas que terminen por superarnos y sustituirnos, y el peligro de perder el control de nuestra civilización.
- La carta insta a los actores relevantes a reconsiderar los incentivos que mueven al sector de la IA y a llevar a cabo una reflexión más profunda antes de seguir adelante con el desarrollo y la implementación de sistemas avanzados.
- El autor de este artículo apoya la carta y considera que es posible ralentizar el desarrollo de la IA.
- El autor argumenta que la velocidad de desarrollo de la IA es una decisión humana, que depende de la voluntad de los actores involucrados y de la sociedad en su conjunto. La historia ha demostrado que es posible ralentizar o detener el desarrollo de tecnologías incluso cuando son económicamente valiosas.
- [con]Neurona #18 - 24 de junio de 2023
- Snowflake en conversaciones avanzadas para adquirir la startup de búsqueda de inteligencia artificial Neeva - 18 de mayo de 2023
- La importancia de la anotación de la tonalidad de piel en la visión por computadora - 16 de mayo de 2023