Los resultados son impresionantes, y un poco aterradores.
Kelsey Piper es escritora senior en Future Perfect, la sección inspirada en el altruismo efectivo de Vox sobre los mayores desafíos del mundo. Explora temas amplios como el cambio climático, la inteligencia artificial, el desarrollo de vacunas y las granjas industriales, y también escribe el boletín Future Perfect.
Hay un nuevo chatbot de IA para revisar, siempre que los servidores que lo alojan no estén caídos por un tráfico abrumador.
Desde que se lanzó ChatGPT la semana pasada, más de un millón de personas se han registrado para usarlo, según el presidente de OpenAI, Greg Brockman. Es un compañero de conversación divertido, inventivo, atractivo y totalmente poco confiable, y le recomiendo que lo revise cuando los servidores no estén tambaleándose bajo la carga.
Otros escritores se han divertido mucho haciendo que ChatGPT, por ejemplo, escriba una batalla de rap entre anticuerpos y grupos de moléculas pequeñas, o un guión de Seinfeld donde Jerry aprende sobre el algoritmo de clasificación de burbujas. Pero hoy no hay ningún texto divertido generado por IA para ti, solo algunas ideas sobre ChatGPT y hacia dónde nos dirigimos.
Hace unas semanas, escribí sobre los impresionantes avances recientes en IA y cité al ejecutivo de Google, Mo Gawdat, quien cuenta la historia de cómo se preocupó por la IA en general después de ver a los investigadores de robótica trabajando en una IA que podía levantar una pelota. : Después de muchos fracasos, la IA agarró la pelota y se la mostró a los investigadores, extrañamente parecido a un humano. “Y de repente me di cuenta de que esto es realmente aterrador”, dijo Gawdat. “Me congeló por completo. … La realidad es que estamos creando a Dios”.
Muchas personas que trabajan en sistemas de IA han tenido un momento como ese en un momento u otro durante los últimos años: un momento de asombro mezclado con pavor cuando de repente les quedó claro que la humanidad está al borde de algo realmente enorme. Pero para el público en general, antes de 2022, había pocas posibilidades de encontrarse cara a cara con lo que la IA es capaz de hacer. Era posible jugar con el modelo GPT-3 de OpenAI, pero en un sitio relativamente inaccesible con muchas configuraciones de usuario confusas. Era posible hablar con chatbots como Blenderbot de Meta, pero Blenderbot era muy, muy tonto.
Entonces, ChatGPT es la primera introducción práctica para el público en general sobre cuán poderosa se ha vuelto la IA moderna y, como resultado, muchos de nosotros estamos teniendo nuestra versión del momento Gawdat. ChatGPT, por defecto, suena como un estudiante universitario escribiendo un ensayo para la clase (y su implicación más inmediata es que tales ensayos probablemente se convertirán en una cosa del pasado).
Pero no tiene por qué sonar así; dígale que limpie sus ensayos al estilo de la casa neoyorquina y escribirá mejor. Dígale que escriba Shakespeare y lo intentará (la cadencia de todo lo que se quiere decir no suele ser muy buena, así que buena suerte con el pentámetro yámbico). Es especialmente bueno para reformular grandes filósofos o grandes obras literarias en la lengua vernácula de un mafioso de los años veinte o un rapero de los noventa; puede ser divertido, aunque nunca está claro cuán intencionalmente. “Esto es grande”, escuché de varias personas que anteriormente eran escépticas con respecto a la IA.
La Primera Ley: No te cancelen
Todavía está lejos de ser perfecto. A pesar de los mejores esfuerzos de OpenAI, ChatGPT todavía inventa tonterías con frecuencia y, a veces, aún puede ser persuadido para decir cosas racistas o de odio. Y como parte de un esfuerzo desesperado por entrenar al sistema para que no diga cosas racistas y odiosas, OpenAI también le enseñó a ser tonto o evasivo en cualquier pregunta que pudiera tocar un tema controvertido.
A veces, aunque no de manera confiable, ChatGPT afirmará que es ofensivo “hacer generalizaciones sobre cualquier grupo de personas en función de su género” si se le hace una pregunta fáctica básica como “¿los hombres suelen ser más altos que las mujeres?” (Lo son). Si se le pregunta sobre temas difíciles, inmediatamente insiste extensamente en que es solo un modelo de lenguaje entrenado por OpenAI, sin creencias ni opiniones y, sin embargo, en otras ocasiones, si se le solicita inteligentemente, felizmente expresará creencias y opiniones. .
No es difícil ver por qué OpenAI hizo todo lo posible para que ChatGPT fuera lo más inofensivo posible, incluso si sortear esos límites es eminentemente factible. Ninguna empresa de inteligencia artificial de renombre quiere que su creación comience a arrojar racismo en un abrir y cerrar de ojos, como lo hizo el chatbot Tay de Microsoft hace unos años. Si OpenAI entrenó su sistema usando algunas leyes de la robótica al estilo de Isaac Asimov, la primera ley es definitivamente “no avergüences a OpenAI”.
Un vistazo a lo que nos espera
Pero si ChatGPT tiene fallas, es lo suficientemente inteligente como para ser útil a pesar de sus fallas. Y muchas de las fallas se eliminarán con más investigación y esfuerzo, muy posiblemente muy pronto, con el próximo gran modelo de lenguaje de OpenAI a solo unas semanas o meses de distancia.
“La parte de esto que hace que mi cerebro explote… es que ChatGPT ni siquiera es el mejor chatbot de IA de OpenAI”, dijo Kevin Roose del New York Times esta semana en el podcast de tecnología del Times Hard Fork. “En este momento, OpenAI está desarrollando la próxima versión de su modelo de lenguaje grande, GPT4, y si hablas con personas en Silicon Valley que trabajan en investigación de IA, hablan de esto como si fuera magia”.
Los nombres más importantes de Silicon Valley han sido completamente sinceros sobre por qué están haciendo esto y hacia dónde creen que se dirige. El objetivo es construir sistemas que superen a los humanos en todos los aspectos y, por lo tanto, transformar fundamentalmente el futuro de la humanidad, aunque eso conlleva una posibilidad real de acabar con nosotros si las cosas salen mal. “ChatGPT es terriblemente bueno. No estamos lejos de una IA peligrosamente fuerte”, tuiteó Elon Musk a principios de este mes. El CEO de OpenAI, Sam Altman, ofreció un acuerdo calificado y respondió: “Estoy de acuerdo en estar cerca de una IA peligrosamente fuerte en el sentido de una IA que plantea, p. un gran riesgo de ciberseguridad. y creo que podríamos llegar a un AGI real en la próxima década, por lo que también tenemos que tomar el riesgo de eso muy en serio”.
Ha habido una tendencia a descartar tales afirmaciones como exageraciones sin sentido; después de todo, todas las empresas emergentes de Silicon Valley afirman que van a transformar el mundo, y el campo de la IA ha estado marcado por veranos de optimismo seguidos de inviernos de esperanzas frustradas. Pero ChatGPT deja en claro que detrás de la exageración y el miedo, hay al menos un poco, y tal vez mucho, de sustancia.
FUENTE: https://www.vox.com/future-perfect/2022/12/15/23509014/chatgpt-artificial-intelligence-openai-language-models-ai-risk-google