OpenAI, ha sido una de las principales impulsoras del desarrollo de la inteligencia artificial (IA) en los últimos años. Sin embargo, su CEO, Sam Altman, ha advertido recientemente que la compañía podría verse obligada a abandonar la Unión Europea si no puede cumplir con las disposiciones de la nueva legislación de IA que está preparando el bloque.
La ley de la UE designa actualmente a los sistemas de «alto riesgo»
La nueva ley de IA de la UE, que aún se encuentra en proceso de revisión, establece que los sistemas de IA considerados de «alto riesgo» deberán cumplir con requisitos de seguridad adicionales. Según Altman, esta designación podría afectar a grandes modelos de IA como ChatGPT y GPT-4 de OpenAI, lo que obligaría a la compañía a cumplir con requisitos adicionales.
OpenAI ha argumentado que sus sistemas no son inherentemente de alto riesgo
OpenAI ha argumentado previamente que sus sistemas de propósito general no son inherentemente de alto riesgo. Sin embargo, la designación de «alto riesgo» podría afectar a su capacidad para operar en la UE si no puede cumplir con los requisitos adicionales.
Altman está preocupado por los riesgos derivados de la IA
Altman ha expresado su preocupación por los riesgos derivados de la IA, como la desinformación generada por IA diseñada para apelar a los sesgos personales de un individuo. Según Altman, la desinformación generada por IA podría tener un impacto en las próximas elecciones de EE. UU. en 2024.
Altman plantea la necesidad de una redistribución de la riqueza en un futuro impulsado por la IA
Altman también ha planteado la necesidad de una redistribución de la riqueza en un futuro impulsado por la IA. Según Altman, OpenAI está llevando a cabo un estudio de cinco años sobre la renta básica universal que concluirá el próximo año. La compañía planea hacer públicas sus intervenciones sobre el tema de la redistribución de la riqueza en 2024.
Artículo: Time.com –> OpenAI Could Quit Europe Over New AI Rules, CEO Altman Warns | Time
Nuestro análisis
La advertencia de Altman sobre la posible salida de OpenAI de la UE es un recordatorio de los desafíos que enfrenta la industria de la IA en términos de regulación y cumplimiento normativo. A medida que la IA se convierte en una parte cada vez más importante de nuestras vidas, es importante que se establezcan normas claras para garantizar su seguridad y fiabilidad.
Pero deberíamos preguntarnos:
«Un martillo puede ser una poderosa herramienta o un puede ser un arma mortal» ¿Prohibirias un martillo …?
La UE está decidiendo ahora mismo si tenemos pensado quedarnos en la Edad Media.
La designación de «alto riesgo» de la UE es un paso en la dirección correcta, pero es importante que se realice una evaluación cuidadosa de los sistemas de IA para determinar si cumplen con los requisitos de seguridad adicionales. OpenAI ha argumentado que sus sistemas de propósito general no son inherentemente de alto riesgo, y es importante que se tenga en cuenta esta perspectiva al establecer las normas de la UE.
La preocupación de Altman por los riesgos derivados de la IA es comprensible, y es importante que se tomen medidas para abordar estos riesgos. La desinformación generada por IA es un problema real que podría tener un impacto significativo en la sociedad, y es importante que se establezcan normas claras para abordar este problema.
La idea de una redistribución de la riqueza en un futuro impulsado por la IA es interesante, pero también plantea preguntas importantes sobre cómo se implementaría esta redistribución y quién sería responsable de ella. Es importante que se realice un debate público sobre este tema para determinar la mejor manera de abordar este problema.
En general, la advertencia de Altman sobre la posible salida de OpenAI de la UE destaca la importancia de establecer normas claras para la IA y abordar los riesgos asociados con esta tecnología. Es importante que se realice un debate público sobre estos temas para garantizar que la IA se utilice de manera responsable y segura en el futuro.
- [con]Neurona #26 - 18 de diciembre de 2023
- [con]Neurona #25 - 10 de diciembre de 2023
- [con]Neurona #24 - 2 de diciembre de 2023