¿Deberíamos automatizar todos los trabajos, incluidos los que cumplen? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes… y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Estas preguntas fueron formuladas el mes pasado en una carta abierta del Future of Life Institute, una ong. Pidió una ‘pausa’ de seis meses en la creación de las formas más avanzadas de inteligencia artificial (IA), y fue firmado por luminarias tecnológicas, incluido Elon Musk. Es el ejemplo más destacado hasta ahora de cómo el rápido progreso en IA ha provocado ansiedad sobre los peligros potenciales de la tecnología.
En particular, los nuevos ‘modelos de lenguaje extenso’ (llms), del tipo que impulsa a Chatgpt, un chatbot creado por Openai, una startup, han sorprendido incluso a sus creadores con sus inesperados talentos a medida que se han ampliado. Tales habilidades ’emergentes’ incluyen todo, desde resolver acertijos lógicos y escribir código de computadora hasta identificar películas a partir de resúmenes de tramas escritos en emoji.
Estos modelos están destinados a transformar la relación de los humanos con las computadoras, el conocimiento e incluso consigo mismos. Los defensores de la IA defienden su potencial para resolver grandes problemas mediante el desarrollo de nuevos medicamentos, el diseño de nuevos materiales para ayudar a combatir el cambio climático o desentrañar las complejidades de la energía de fusión. Para otros, el hecho de que las capacidades de ais ya estén superando la comprensión de sus creadores corre el riesgo de dar vida al escenario de desastre de ciencia ficción de la máquina que engaña a su inventor, a menudo con consecuencias fatales.
Esta mezcla burbujeante de emoción y miedo hace que sea difícil sopesar las oportunidades y los riesgos. Pero se pueden aprender lecciones de otras industrias y de cambios tecnológicos pasados. Entonces, ¿qué ha cambiado para que ai sea mucho más capaz? ¿Qué tan asustado deberías estar? ¿Y qué deben hacer los gobiernos?
En una sección especial de Ciencias, exploramos el funcionamiento de las películas y su dirección futura. La primera ola de sistemas modernos de inteligencia artificial, que surgió hace una década, se basó en datos de entrenamiento cuidadosamente etiquetados. Una vez expuestos a una cantidad suficiente de ejemplos etiquetados, podrían aprender a hacer cosas como reconocer imágenes o transcribir el habla. Los sistemas actuales no requieren etiquetado previo y, como resultado, se pueden entrenar utilizando conjuntos de datos mucho más grandes tomados de fuentes en línea. Las películas pueden, en efecto, ser entrenadas en todo Internet, lo que explica sus capacidades, buenas y malas.
Esas capacidades se hicieron evidentes para un público más amplio cuando se lanzó Chatgpt en noviembre. Un millón de personas lo habían usado en una semana; 100m en dos meses. Pronto se utilizó para generar ensayos escolares y discursos de boda. La popularidad de Chatgpt y la decisión de Microsoft de incorporarlo a Bing, su motor de búsqueda, llevaron a las empresas rivales a lanzar también chatbots.
Algunos de estos produjeron resultados extraños. Bing Chat le sugirió a un periodista que debería dejar a su esposa. Chatgpt ha sido acusado de difamación por un profesor de derecho. Las películas producen respuestas que tienen la pátina de la verdad, pero a menudo contienen errores fácticos o invenciones absolutas. Aun así, Microsoft, Google y otras empresas de tecnología han comenzado a incorporar películas en sus productos para ayudar a los usuarios a crear documentos y realizar otras tareas.
La reciente aceleración tanto en el poder como en la visibilidad de los sistemas de inteligencia artificial, y la creciente conciencia de sus habilidades y defectos, han generado temores de que la tecnología avance ahora tan rápido que no se puede controlar de manera segura. De ahí el llamado a una pausa y la creciente preocupación de que la inteligencia artificial pueda amenazar no solo los trabajos, la precisión de los hechos y las reputaciones, sino también la existencia de la humanidad misma.
¿Extinción? ¿Rebelión?
El temor de que las máquinas roben puestos de trabajo tiene siglos de antigüedad. Pero hasta ahora, la nueva tecnología ha creado nuevos puestos de trabajo para reemplazar los que ha destruido. Las máquinas tienden a ser capaces de realizar algunas tareas, no otras, lo que aumenta la demanda de personas que puedan hacer los trabajos que las máquinas no pueden. ¿Podría esta vez ser diferente? No se puede descartar una dislocación repentina en los mercados laborales, incluso si hasta ahora no hay señales de que ocurra. La tecnología anterior tendía a reemplazar las tareas no calificadas, pero las películas pueden realizar algunas tareas de cuello blanco, como resumir documentos y escribir código.
El grado de riesgo existencial que plantea la inteligencia artificial ha sido objeto de acalorados debates. Los expertos están divididos. En una encuesta de investigadores de inteligencia artificial realizada en 2022, el 48 % pensó que había al menos un 10 % de posibilidades de que el impacto de la inteligencia artificial fuera ‘extremadamente malo (por ejemplo, la extinción humana)’. Pero el 25% dijo que el riesgo era del 0%; el investigador mediano calculó el riesgo en un 5%. La pesadilla es que una IA avanzada cause daños a gran escala, creando venenos o virus, o persuadiendo a los humanos para que cometan actos terroristas. No es necesario que tenga malas intenciones: a los investigadores les preocupa que las futuras ais puedan tener objetivos que no se alineen con los de sus creadores humanos.
Tales escenarios no deben ser descartados. Pero todos implican una gran cantidad de conjeturas y un salto con respecto a la tecnología actual. Y muchos imaginan que las IA del futuro tendrán acceso sin restricciones a la energía, el dinero y el poder de cómputo, que son restricciones reales en la actualidad, y podrían negársele a una IA rebelde en el futuro. Además, los expertos tienden a exagerar los riesgos en su área, en comparación con otros pronosticadores. (Y Musk, que está lanzando su propia startup de inteligencia artificial, tiene interés en que sus rivales derriben herramientas). Imponer una regulación estricta, o incluso una pausa, hoy parece una reacción exagerada. Una pausa también sería inaplicable.
Se necesita regulación, pero por razones más mundanas que salvar a la humanidad. Los sistemas de inteligencia artificial existentes plantean preocupaciones reales sobre prejuicios, privacidad y derechos de propiedad intelectual. A medida que avanza la tecnología, podrían surgir otros problemas. La clave es equilibrar la promesa de ia con una evaluación de los riesgos y estar listo para adaptarse.
Hasta ahora, los gobiernos están adoptando tres enfoques diferentes. En un extremo del espectro se encuentra Gran Bretaña, que ha propuesto un enfoque de “toque ligero” sin nuevas normas ni organismos reguladores, pero aplica las normas existentes a los sistemas de inteligencia artificial. El objetivo es impulsar la inversión y convertir a Gran Bretaña en una ‘superpotencia de inteligencia artificial’. Estados Unidos ha adoptado un enfoque similar, aunque la administración de Biden ahora está buscando opiniones públicas sobre cómo sería un libro de reglas.
La UE está tomando una línea más dura. La ley propuesta clasifica los diferentes usos de la inteligencia artificial según el grado de riesgo, y exige un seguimiento y una divulgación cada vez más estrictos a medida que el grado de riesgo aumenta, por ejemplo, desde la recomendación musical hasta los vehículos autónomos. Algunos usos de la inteligencia artificial están totalmente prohibidos, como la publicidad subliminal y la biometría remota. Las empresas que infrinjan las normas serán multadas. Para algunos críticos, estas regulaciones son demasiado asfixiantes.
Pero otros dicen que se necesita un enfoque aún más severo. Los gobiernos deben tratar ai como medicamentos, con un regulador dedicado, pruebas estrictas y aprobación previa antes del lanzamiento público. China está haciendo algo de esto, exigiendo a las empresas que registren productos de inteligencia artificial y se sometan a una revisión de seguridad antes de su lanzamiento. Pero la seguridad puede ser un motivo menor que la política: un requisito clave es que la producción de ais refleje el ‘valor central del socialismo’.
¿Qué hacer? Es poco probable que el enfoque de toque ligero sea suficiente. Si la inteligencia artificial es una tecnología tan importante como los automóviles, los aviones y los medicamentos, y hay buenas razones para creer que lo es, entonces, al igual que ellos, necesitará nuevas reglas. En consecuencia, el modelo de la ue está más cerca de la realidad, aunque su sistema de clasificación está sobrecargado y un enfoque basado en principios sería más flexible. La divulgación convincente sobre cómo se entrenan los sistemas, cómo funcionan y cómo se monitorean, y cómo requieren inspecciones, sería comparable a reglas similares en otras industrias.
Esto podría permitir una regulación más estricta con el tiempo, si es necesario. Entonces, un regulador dedicado puede parecer apropiado; también lo pueden hacer los tratados intergubernamentales, similares a los que rigen las armas nucleares, en caso de que surjan pruebas plausibles de riesgo existencial. Para monitorear ese riesgo, los gobiernos podrían formar un cuerpo modelado en cern, un laboratorio de física de partículas, que también podría estudiar la seguridad y la ética de las IA, áreas en las que las empresas carecen de incentivos para invertir tanto como la sociedad podría desear.
Esta poderosa tecnología plantea nuevos riesgos, pero también ofrece oportunidades extraordinarias. Equilibrar los dos significa caminar con cuidado. Un enfoque medido hoy puede proporcionar las bases sobre las cuales se pueden agregar más reglas en el futuro. Pero el momento de comenzar a construir esos cimientos es ahora.
Fuente: