Uno de los mercados más estrictos en cuanto a la regulación de la Inteligencia Artificial es el de la Unión Europea (UE) y tanto ha sido su escrutinio que el CEO de OpenAI, Sam Altman, reconoció que la compañía podría dejar de operar en esa región como respuesta a la regulación que se está desarrollando ahí.
De acuerdo con Altman, esta nueva Ley de IA en la Unión Europea le genera “muchas preocupaciones”, pues está orientada al funcionamiento de los modelos con los que operan ChatGPT o el generador de imágenes, DALL-E..
“Los detalles realmente importan. Intentaremos cumplir, pero si no lo logramos, dejaremos de operar”, dijo Alrtman, según un reporte de The Financial Times. El ejecutivo se mostró preocupado por los requisitos que le hará cumplir la legislación. “Aquí hay límites técnicos a lo que es posible”.
Recientemente, el Parlamento Europeo aprobó el borrador de una regulación que busca ser referente de Occidente para controlar esta tecnología. De acuerdo con la legislación, hay cuatro niveles de riesgo que puede plantear la IA: inaceptable, alto, limitado y riesgo mínimo o nulo. Si una tecnología tiene potencial de generar un riesgo inaceptable deben estar prohibidas, señala el documento.
Según declaraciones de Altman, ChatGPT podría ser considerado como un sistema de “alto riesgo”, algo que le obligaría a cumplir con una serie de requisitos de seguridad y transparencia. Sin embargo, ese no es el único problema para la plataforma, pues la ley también podría representar posibles amenazas comerciales para OpenAI.
El borrador actual de la legislación señala que los creadores de este tipo de sistemas deben divulgar detalles sobre el diseño de su sistema, así como “resúmenes de los datos protegidos por derechos de autor que son utilizados para su entrenamiento”.
Comments