fbpx
20.5 C
Mexico City
jueves, diciembre 26, 2024
- Anuncio -spot_img

Unión Europea estudia imponer ley para control de uso de Inteligencia Artificial en 2025.

El Parlamento Europeo quiere dividir el contenido generado por inteligencia artificial en diferentes categorías de riesgo. Si bien algunos sistemas podrían prohibirse, los servicios como el popular ChatGPT difícilmente se verían afectados.

La Unión Europea tiene previsto regular el uso de la inteligencia artificial . El miércoles, el parlamento discutirá un proyecto de ley que exige que todo el contenido generado por IA se marque como tal y sugiere dividir las aplicaciones de IA en diferentes categorías de riesgo.

Si se aprueba, la ley incluiría planes para prohibir los sistemas de alto riesgo que analizan y predicen el comportamiento social de las personas y limitaría el alcance de otros sistemas de alto riesgo.

Las aplicaciones simples, como el muy discutido generador de texto ChatGPT, no estarían muy limitadas.

Según el proyecto de ley, las empresas que quieran vender aplicaciones de IA de riesgo en Europa deberán cumplir requisitos estrictos y establecer una gestión de riesgos para sus productos.

Los datos utilizados para entrenar los programas de IA deberán verificarse, y las personas que proporcionen datos deberán saber para qué se utilizará la información.

normas europeas

En abril, Italia prohibió brevemente ChatGPT por deficiencias en la protección de datos y solo levantó la prohibición después de que OpenAI, la empresa californiana detrás del generador de texto de IA, hiciera ciertos cambios.

Durante una visita reciente a Alemania, el jefe de OpenAI, Sam Altman, advirtió contra la sobrerregulación. En un momento, incluso amenazó con retirarse de Europa, pero posteriormente retiró esa declaración .

Altman ahora está de acuerdo en que las reglas para la inteligencia artificial son buenas en principio, pero ha pedido claridad. Pero sigue siendo una figura clave en el desarrollo de la IA, e incluso fue recibido por el canciller Olaf Scholz en Berlín.

René Repasi, un miembro alemán del Parlamento Europeo, está relajado sobre el trabajo de cabildeo que están realizando OpenAI y su empresa matriz Microsoft. Él piensa que el mercado europeo es demasiado atractivo para que las empresas de IA lo ignoren.

“Cualquiera que quiera vender su IA aquí debe cumplir con nuestros estándares”, dijo Reparsi, portavoz socialdemócrata para asuntos de IA en el Parlamento Europeo.

El Congreso de los EE. UU. también está tratando de promulgar reglas para las máquinas de autoaprendizaje, y Reparsi dijo que los legisladores de la UE se han puesto en contacto con sus colegas estadounidenses. “Al final del día, queremos crear estándares significativos y no competir entre nosotros”, dijo a DW.

Advertencias

Uno de los principales innovadores de la inteligencia artificial, el ex empleado de Google Geoffrey Hinton, se encuentra entre los que actualmente ofrecen advertencias terribles sobre los peligros de la tecnología.

Ha argumentado que la IA pronto podría ser más inteligente que las personas que la crearon y que el impacto en el mercado laboral podría ser significativo.

Incluso los desarrolladores y altos directivos de Microsoft y Google han admitido que ya no saben exactamente cómo funcionan las aplicaciones con IA.

Varias cartas abiertas de varios investigadores y empresarios , incluido el jefe de Twitter, Elon Musk, han sugerido diferentes formas de limitar el desarrollo de la IA .

“Cualquiera que quiera vender su IA aquí debe cumplir con nuestros estándares”, dijo Reparsi, portavoz socialdemócrata para asuntos de IA en el Parlamento Europeo.

El Congreso de los EE. UU. también está tratando de promulgar reglas para las máquinas de autoaprendizaje, y Reparsi dijo que los legisladores de la UE se han puesto en contacto con sus colegas estadounidenses. “Al final del día, queremos crear estándares significativos y no competir entre nosotros”, dijo a DW.

Advertencias

Uno de los principales innovadores de la inteligencia artificial, el ex empleado de Google Geoffrey Hinton, se encuentra entre los que actualmente ofrecen advertencias terribles sobre los peligros de la tecnología.

Ha argumentado que la IA pronto podría ser más inteligente que las personas que la crearon y que el impacto en el mercado laboral podría ser significativo.

Incluso los desarrolladores y altos directivos de Microsoft y Google han admitido que ya no saben exactamente cómo funcionan las aplicaciones con IA.

Varias cartas abiertas de varios investigadores y empresarios , incluido el jefe de Twitter, Elon Musk, han sugerido diferentes formas de limitar el desarrollo de la IA.

Derecho de la UE en un plazo de dos años

La ley de IA de la Unión Europea no entraría en vigor de manera realista hasta 2025, ya que necesita la aprobación de los 27 estados miembros, así como del parlamento.

Dado el rápido desarrollo de aplicaciones como ChatGPT, la tecnología bien podría haber cambiado y mejorado mucho para entonces, dijo Axel Voss, legislador de la UE de Alemania. “El desarrollo es tan rápido que gran parte (de la regulación) ya no encajará cuando la ley entre en vigor”, dijo a DW en abril.

Voss ha estado trabajando en inteligencia artificial para el grupo conservador Demócrata Cristiano en el Parlamento Europeo durante años y es uno de los coautores del borrador de la “Ley de Inteligencia Artificial” de la UE.

“En realidad, necesitamos, por razones competitivas y porque ya nos estamos quedando atrás, más optimismo al tratar con la IA”, dijo. “Lo que la mayoría en el Parlamento Europeo parece estar diciendo sugiere que están motivados por temores y preocupaciones y están tratando de ser muy restrictivos”.

Según Reparsi, la ley sobre IA debería ser flexible. La cuestión de qué es de alto o menos riesgo con la IA no debe regularse en el texto legal real, sino en el apéndice, para que pueda cambiarse rápidamente y adaptarse a los desarrollos tecnológicos.

Las Asociaciones de Supervisión Técnica de Alemania, la Oficina Federal para la Seguridad de la Información y el Instituto Fraunhofer de Análisis Inteligente y Sistemas de Información están considerando introducir un “certificado de IA”, cuyas aplicaciones tendrían que ser certificadas por expertos independientes.

Las aplicaciones como un automóvil autónomo o robots utilizados en cirugía médica requieren una gran confianza en la IA por parte del público en general, lo que podría establecerse con un sistema de certificación de este tipo.

Este artículo fue escrito originalmente en alemán.

Por: Bernd Riegert

Fuente: https://www.dw.com/en/how-the-eu-plans-to-regulate-ai/a-65868778?maca=en-newsletter_en_bulletin-2097-xml-newsletter&r=5726057961587567&lid=2576167&pm_ln=206196

Related Articles

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Stay Connected

3,789FansMe gusta
900SeguidoresSeguir
4,940SuscriptoresSuscribirte
- Anuncio -spot_img
- Anuncio -spot_img

Latest Articles