¿Por qué podría OpenAI abandonar Europa?
¿El fin de ChatGPT en Europa?
- OpenAI, dirigida por su CEO Sam Altman, podría tener que retirarse del mercado europeo debido a la normativa sobre IA que está elaborando la Unión Europea (UE).
- La UE está ultimando la nueva ley sobre IA, la EU AI Act, que impone requisitos de divulgación sobre métodos de entrenamiento y fuentes de datos, lo que podría plantear retos técnicos y comerciales a OpenAI.
¿Qué es la Ley de la Inteligencia Artificial?
La EU AI Act es una iniciativa legislativa sin precedentes para regular la Inteligencia Artificial (IA) en Europa. La Ley adopta un enfoque basado en el riesgo, clasificando las prácticas de IA en función de su riesgo potencial para la seguridad, la salud, los derechos fundamentales o el medio ambiente.
Los sistemas de IA de alto riesgo, incluidos los que pueden influir en campañas políticas o son ampliamente utilizados por plataformas de medios sociales, están sujetos a estrictos requisitos de transparencia y deben garantizar una sólida protección de los derechos y la seguridad de los ciudadanos.
Una rápida explicación de la situación en Europa
La Unión Europea trabaja actualmente para ultimar la Ley de Inteligencia Artificial, una legislación que pretende regular el uso de la IA. Sam Altman, Director General de OpenAI, expresó "muchas preocupaciones" sobre esta legislación en una rueda de prensa en Londres. En concreto, teme que los "modelos centrales", los sistemas de IA a gran escala que impulsan servicios como ChatGPT y DALL-E de OpenAI, sean calificados de "alto riesgo" por la legislación de la UE.
¿Cuáles son los peligros para OpenAI?
Designar estos modelos como "de alto riesgo" significa que OpenAI tendría que cumplir una serie de requisitos en materia de seguridad y transparencia. Esto podría crear retos técnicos considerables.
Además, la ley exige a los creadores de estos modelos que revelen detalles de su diseño, incluidos "el tiempo de entrenamiento, la potencia de cálculo necesaria y otra información relevante relacionada con el tamaño y la potencia del modelo", lo que podría suponer amenazas comerciales para OpenAI.
Los nuevos requisitos de transparencia también podrían exponer a OpenAI a acciones legales si utiliza datos protegidos por derechos de autor para entrenar su IA generativa.
¿Cuál es la respuesta de OpenAI?
Tras estas preocupaciones, Altman intentó matizar sus comentarios iniciales subrayando que la empresa ha mantenido conversaciones productivas sobre la regulación de la IA en Europa y "por supuesto, no tiene intención de marcharse". Sin embargo, también afirmó que si OpenAI no puede cumplir esta normativa, la empresa "dejará de operar" en la Unión Europea.
El futuro de OpenAI en Europa
La perspectiva de que OpenAI se retire del mercado europeo pone de manifiesto las tensiones entre las empresas de IA y los reguladores que tratan de establecer normas para esta tecnología en rápida evolución.
Las recientes declaraciones de Altman ponen de manifiesto el dilema de la empresa entre la necesidad de cumplir la nueva normativa y el deseo de proteger sus activos comerciales. En este contexto, será interesante ver cómo OpenAI navega por este nuevo entorno normativo.
¿Quiere saber más sobre inteligencia artificial? Consulte nuestras noticias y guías para familiarizarse con esta tecnología del futuro.
¿Es usted profesor? He aquí cómo detectar un texto escrito por ChatGPT.