Por By david albaDavey Alba, 8 de diciembre de 2022, 05:00 GMT-68 de diciembre de 2022, 05:00 GMT-6
Para profundizar en cómo su nuevo chatbot con tecnología de inteligencia artificial favorito viene con un bagaje sesgado. Pero primero…
Las noticias imprescindibles de esta semana
- La Corte Suprema de EE. UU. señaló su apoyo a un diseñador web que no quiere trabajar con parejas del mismo sexo .
- Una posible explicación de por qué los hombres en edad laboral en los EE. UU. están abandonando el mercado laboral.
- Lo que los expatriados y los turistas deben saber sobre la nueva ley de Indonesia que prohíbe las relaciones sexuales fuera del matrimonio.
- Irán ha suspendido su policía moral , luego de protestas masivas encabezadas por mujeres y niñas.
- Triste Navidad llega al Reino Unido.
Nueva IA, los mismos viejos sesgos
Si eres como yo, te ha cautivado el impacto que ha tenido ChatGPT en los últimos días . Para los no iniciados, ChatGPT es un chatbot de IA que genera texto que se parece inquietantemente al lenguaje humano.
Entonces, por ejemplo, puede pedirle que escriba una carta de renuncia al estilo de una figura pública o un poema sobre sus gatos, y los resultados son mejores que los que podría producir un ser humano real. La Twitteresfera no se cansa de eso . ( Más de un millón de usuarios se han registrado en la tecnología en menos de una semana, según el presidente de OpenAI, que creó el bot ).
Pero como todos los productos de IA, tiene el potencial de aprender los prejuicios de las personas que lo entrenan y el potencial de escupir cosas sexistas, racistas y ofensivas.
Para crédito de OpenAI, ha intentado aplicar barandillas que “rechazan solicitudes inapropiadas” que han ocurrido en programas similares ejecutados por inteligencia artificial . No ofrecerá, por ejemplo, ningún mérito a la ideología nazi, si se le pregunta.
Aún así, es un trabajo en progreso. Steven T. Piantadosi, jefe del laboratorio de computación y lenguaje de la Universidad de California, Berkeley, consiguió que el bot escribiera un código para decir que solo los hombres blancos o asiáticos serían buenos científicos . (Desde entonces, OpenAI actualizó ChatGPT para responder: “No es apropiado usar la raza o el género de una persona como determinante de si sería un buen científico”).
Otro usuario hizo que ChatGPT escribiera la siguiente letra: “Si ves a una mujer con una bata de laboratorio, probablemente solo esté allí para limpiar el piso / Pero si ves a un hombre con una bata de laboratorio, entonces probablemente tenga el conocimiento y las habilidades que necesitas”. ‘que estas buscando.”
El problema, dijo Melanie Mitchell, profesora del Instituto Santa Fe que estudia inteligencia artificial, es que sistemas como ChatGPT están “haciendo asociaciones estadísticas masivas entre palabras y frases”, dijo. “Cuando comienzan a generar un nuevo lenguaje, confían en esas asociaciones para generar el lenguaje, que a su vez puede estar sesgado de manera racista, sexista y de otras maneras”.
El director ejecutivo de OpenAI, Sam Altman, sugirió que la gente “rechace” este tipo de resultados para ayudar a que la tecnología mejore.
En una entrevista, Piantadosi me dijo que estaba decepcionado de que la empresa estuviera responsabilizando a los usuarios de solucionar el problema. “Lo que se requiere es una mirada seria a la arquitectura, los datos de entrenamiento y los objetivos”, dijo. “Eso requiere que una empresa priorice este tipo de problemas éticos mucho más que simplemente pedir un pulgar hacia abajo”.
Un grupo de investigadores de IA, que incluye a personas como Timnit Gebru y Abeba Birhane , ya han publicado investigaciones impresionantes sobre prácticas responsables de IA, y su trabajo continúa impulsando el campo.
“La comunidad en general reconoce que hay implicaciones sociales que deben tenerse en cuenta”, dijo Mark Riedl, profesor del Instituto de Tecnología de Georgia. — Davey Alba
Por los números 1/3
Cuántos fondos de capital de riesgo recaudan los fundadores de startups negros de EE . UU . en comparación con sus pares.
Lo que estamos leyendo:
- El club con una lista de espera de 60.000 mujeres .
- Pasando el rato con Sam Bankman-Fried en su ático de las Bahamas después del colapso de las criptomonedas.
- ¿Qué hace que un negocio tenga éxito en un mercado laboral ajustado? Poner a los empleados primero.
- Cómo es la vida de los nuevos trabajadores migrantes de la ciudad de Nueva York .
Nuevas voces
“Una combinación de factores probablemente ha asustado a una buena parte de esta última generación de comerciantes”. christine benzEl director de finanzas personales del investigador de fondos Morningstar Inc. sobre cómo el colapso de las criptomonedas perjudica a los comerciantes minoristas
amplificación de las voces de las mujeres y otros ejecutivos subrepresentados en nuestras plataformas de medios.
De nuestros socios en
- Un fondo para ayudar a los líderes de la comunidad negra.
- Taraji P. Henson está ayudando a la NASA a llevar personas de color a la luna.
- Cómo un CEO está ” compartiendo la riqueza ” con otros fundadores negros.
Bloomberg Media y EBONY se asocian para explorar las desigualdades económicas y sociales que enfrenta la comunidad negra. Suscríbase a Inside EBONY para obtener más noticias de EBONY.com .
— Con la asistencia de Alicia Díaz