fbpx
15 C
Mexico City
martes, diciembre 10, 2024
- Anuncio -spot_img

Ausencia de regulación federal empuja a estados de EEUU a resolver problemas de Inteligencia Artificial

El mes pasado, los legisladores de California avanzaron alrededor de 30 nuevas medidas sobre inteligencia artificial destinadas a proteger a los consumidores y los empleos, uno de los mayores esfuerzos hasta ahora para regular la nueva tecnología.


Los proyectos de ley buscan las restricciones más estrictas del país a la IA, que algunos tecnólogos advierten que podría acabar con categorías enteras de empleos, provocar el caos en las elecciones con desinformación y plantear riesgos para la seguridad nacional.

Las propuestas de California, muchas de las cuales han obtenido un amplio apoyo, incluyen reglas para evitar que la A.I. herramientas para evitar la discriminación en la vivienda y los servicios de atención médica. También apuntan a proteger la propiedad intelectual y los empleos.


La legislatura de California, que se espera que vote sobre las leyes propuestas antes del 31 de agosto, ya ha ayudado a dar forma a las protecciones al consumidor tecnológico de Estados Unidos. El estado aprobó una ley de privacidad en 2020 que frenó la recopilación de datos de los usuarios, y en 2022 aprobó una ley de seguridad infantil que creó salvaguardias para los menores de 18 años.


‘Como California ha visto con la privacidad, el gobierno federal no va a actuar, por lo que creemos que es fundamental que demos un paso adelante en California y protejamos a nuestros propios ciudadanos’, dijo Rebecca Bauer-Kahan, miembro demócrata de la asamblea que preside Comité de Privacidad y Protección al Consumidor de la Asamblea Estatal.


Mientras los legisladores federales se demoran en regular la IA, los legisladores estatales han llenado el vacío con una avalancha de proyectos de ley a punto de convertirse en regulaciones de facto para todos los estadounidenses. Las leyes tecnológicas como las de California con frecuencia sientan un precedente para la nación, en gran parte porque los legisladores de todo el país saben que puede ser un desafío para las empresas cumplir con un mosaico que cruza las fronteras estatales.


Los legisladores estatales de todo el país han propuesto casi 400 nuevas leyes sobre la IA. en los últimos meses, según el grupo de presión TechNet. California lidera los estados con un total de 50 proyectos de ley propuestos, aunque ese número se ha reducido a medida que avanza la sesión legislativa.


Colorado promulgó recientemente una ley integral de protección al consumidor que requiere que la A.I. las empresas utilizan “cuidado razonable” mientras desarrollan la tecnología para evitar la discriminación, entre otras cuestiones. En marzo, la legislatura de Tennessee aprobó la Ley ELVIS (Ley para garantizar la seguridad de la imagen y la voz), que protege a los músicos contra el uso de su voz y su imagen en contenido generado por IA sin su consentimiento explícito.


Es más fácil aprobar leyes en muchos estados que a nivel federal, dijo Matt Perault, director ejecutivo del Centro de Política Tecnológica de la Universidad de Carolina del Norte en Chapel Hill. Cuarenta estados tienen ahora gobiernos de “trifecta”, en los que ambas cámaras de la legislatura y la oficina del gobernador están dirigidas por el mismo partido: la mayor cantidad desde al menos 1991.


“Todavía estamos esperando ver qué propuestas se convierten realmente en ley, pero la enorme cantidad de aplicaciones de A.I. Los proyectos de ley presentados en estados como California muestran cuán interesados ​​están los legisladores en este tema”, dijo.


Y las propuestas estatales están teniendo un efecto dominó a nivel mundial, dijo Victoria Espinel, directora ejecutiva de Business Software Alliance, un grupo de presión que representa a las grandes empresas de software.


“Los países de todo el mundo están analizando estos borradores en busca de ideas que puedan influir en sus decisiones sobre la IA. leyes”, dijo.

Hace más de un año, una nueva ola de IA generativa. como ChatGPT de OpenAI provocaron preocupación regulatoria cuando quedó claro que la tecnología tenía el potencial de alterar la economía global. Los legisladores estadounidenses celebraron varias audiencias para investigar el potencial de la tecnología para reemplazar a los trabajadores, violar los derechos de autor e incluso amenazar la existencia humana.


El director ejecutivo de OpenAI, Sam Altman, testificó ante el Congreso y pidió regulaciones federales hace aproximadamente un año. Poco después, Sundar Pichai, director ejecutivo de Google; Mark Zuckerberg, director ejecutivo de Meta; y Elon Musk, director ejecutivo de Tesla, se reunieron en Washington para una conferencia de inteligencia artificial. Foro organizado por el líder de la mayoría del Senado, Chuck Schumer, demócrata de Nueva York. Los líderes tecnológicos advirtieron sobre los riesgos que presentaban sus productos y pidieron al Congreso que creara barreras de seguridad. También pidieron apoyo para la A.I. investigación para garantizar que Estados Unidos pudiera mantener su liderazgo en el desarrollo de la tecnología.

En ese momento, Schumer y otros legisladores estadounidenses dijeron que no repetirían los errores del pasado al no controlar la tecnología emergente antes de que se volviera dañina.


El mes pasado, Schumer presentó una A.I. hoja de ruta regulatoria que proponía 38 mil millones de dólares en inversiones, pero pocas barreras específicas sobre la tecnología en el corto plazo. Este año, los legisladores federales han presentado proyectos de ley para crear una agencia que supervise la IA. regulaciones, propuestas para tomar medidas drásticas contra la desinformación generada por A.I. y leyes de privacidad para A.I. modelos.


Pero la mayoría de los expertos en política tecnológica dicen que no esperan que las propuestas federales se aprueben este año.


‘Claramente existe una necesidad de una legislación federal armonizada’, dijo Michael Karanicolas, director ejecutivo del Instituto de Derecho y Política Tecnológica de la Universidad de California, Los Ángeles.


Los reguladores estatales y globales se han apresurado a llenar el vacío. En marzo, la Unión Europea adoptó la Ley de IA, una ley que limita el uso por parte de las fuerzas del orden de herramientas que pueden discriminar, como el software de reconocimiento facial.

El surgimiento del estado A.I. La legislación ha desencadenado un feroz esfuerzo de lobby por parte de las empresas de tecnología contra las propuestas. Ese esfuerzo es particularmente pronunciado en Sacramento, la capital de California, donde casi todos los grupos de presión tecnológicos han ampliado su personal para ejercer presión sobre la Legislatura.


Los 30 proyectos de ley que fueron aprobados por el Senado o la Asamblea pasarán ahora a varios comités para su mayor consideración antes de que la Legislatura finalice su sesión a finales de este verano. Allí los demócratas controlan la Asamblea, el Senado y la oficina del gobernador.


‘Estamos en una posición única porque somos la cuarta economía más grande del planeta y donde hay muchos innovadores tecnológicos’, dijo Josh Lowenthal, miembro de la Asamblea y demócrata, quien presentó un proyecto de ley destinado a proteger a los jóvenes en línea. ‘Como resultado, se espera que seamos líderes y eso es lo que esperamos de nosotros mismos’.


Tres de esos proyectos de ley están diseñados para proteger a actores y cantantes, vivos o muertos.


SAG-AFTRA, el sindicato de actores y otros creadores, ayudó a redactar un proyecto de ley que exigiría a los estudios obtener el consentimiento explícito de los actores para el uso de sus réplicas digitales. El sindicato dijo que el público ha expresado un fuerte apoyo a la protección de la propiedad intelectual después de conflictos de alto perfil entre actores y A.I. compañías.


El mes pasado, por ejemplo, la actriz Scarlett Johansson acusó a OpenAI de copiar su voz para desarrollar un asistente de voz sin su permiso. OpenAI ha negado la acusación.


California es un campo de batalla importante porque “la Legislatura tiende a ser progresista y cree firmemente en la protección del consumidor y los derechos de los trabajadores”, dijo Duncan Crabtree Ireland, negociador jefe estratégico y creativo de SAG-AFTRA. “Pero también es donde cinco de los seis mayores A.I. tienen su sede empresas en el mundo”.


El proyecto de ley que está ganando más fuerza requiere pruebas de seguridad de los sistemas de inteligencia artificial más avanzados. modelos, como el chatbot GPT4 de OpenAI y el creador de imágenes DALL-E, que pueden generar escrituras similares a las humanas o videos e imágenes inquietantemente realistas. El proyecto de ley, presentado por el senador estatal Scott Wiener, un demócrata, también otorga al fiscal general del estado el poder de demandar por daños al consumidor.


(El New York Times ha demandado a OpenAI y su socio, Microsoft, alegando infracción de derechos de autor del contenido de noticias relacionado con los sistemas de inteligencia artificial).


El 8 de mayo, la Cámara de Comercio de California y grupos de lobby tecnológico escribieron una carta a los miembros del comité de asignaciones que estaban considerando el proyecto de ley. La carta describía la propuesta como “vaga y poco práctica” y decía que crearía una “incertidumbre regulatoria significativa” que desalienta la innovación.


La Cámara de Progreso, un grupo comercial de tecnología con cabilderos en California, también criticó el proyecto de ley. Emitió un informe esta semana que señalaba la dependencia del estado de las empresas tecnológicas y sus ingresos fiscales, que suman alrededor de 20.000 millones de dólares al año.


‘No regulemos excesivamente una industria que está ubicada principalmente en California, pero que no tiene por qué estarlo, especialmente cuando estamos hablando de un déficit presupuestario aquí’, dijo Dylan Hoffman, director ejecutivo para California y el suroeste de TechNet, en una entrevista.


Wiener dijo que su proyecto de ley de pruebas de seguridad probablemente sería modificado en las próximas semanas para incluir disposiciones que apoyen una mayor transparencia en la IA. desarrollo de tecnología y limitar las pruebas sólo a los sistemas más grandes en cuyo desarrollo las empresas han invertido más de 100 millones de dólares. Destacó que muchos en el sector tecnológico han apoyado el proyecto de ley.


‘Preferiría que el Congreso actuara, pero no soy optimista de que lo hagan’, dijo.

Fuente: https://www.nytimes.com/2024/06/10/technology/california-ai-regulation.html?mod=djemCIO

Related Articles

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Stay Connected

3,789FansMe gusta
900SeguidoresSeguir
4,780SuscriptoresSuscribirte
- Anuncio -spot_img
- Anuncio -spot_img

Latest Articles