fbpx
30 C
Mexico City
sábado, mayo 18, 2024
- Anuncio -spot_img

OpenAI Chatbot escupe reflexiones sesgadas, a pesar de las medidas de seguridad

Por By david albaDavey Alba, 8 de diciembre de 2022, 05:00 GMT-68 de diciembre de 2022, 05:00 GMT-6

Para profundizar en cómo su nuevo chatbot con tecnología de inteligencia artificial favorito viene con un bagaje sesgado. Pero primero… 

Las noticias imprescindibles de esta semana

Nueva IA, los mismos viejos sesgos

Si eres como yo, te ha cautivado el impacto que ha tenido ChatGPT en los últimos días . Para los no iniciados, ChatGPT es un chatbot de IA que genera texto que se parece inquietantemente al lenguaje humano.

Entonces, por ejemplo, puede pedirle que escriba una carta de renuncia al estilo de una figura pública  o un poema sobre sus gatos, y los resultados son mejores que los que podría producir un ser humano real. La Twitteresfera no se cansa de eso . ( Más de un millón de usuarios se han registrado en la tecnología en menos de una semana, según el presidente de OpenAI, que creó el bot ). 

Pero como todos los productos de IA, tiene el potencial de aprender los prejuicios de las personas que lo entrenan y el potencial de escupir cosas sexistas, racistas y ofensivas. 

Para crédito de OpenAI, ha intentado aplicar barandillas que “rechazan solicitudes inapropiadas” que han ocurrido en programas similares ejecutados por inteligencia artificial . No ofrecerá, por ejemplo, ningún mérito a la ideología nazi, si se le pregunta.

Aún así, es un trabajo en progreso. Steven T. Piantadosi, jefe del laboratorio de computación y lenguaje de la Universidad de California, Berkeley, consiguió que el bot escribiera un código para decir que solo los hombres blancos o asiáticos serían buenos científicos . (Desde entonces, OpenAI actualizó ChatGPT para responder: “No es apropiado usar la raza o el género de una persona como determinante de si sería un buen científico”).

Otro usuario hizo que ChatGPT escribiera la siguiente letra: “Si ves a una mujer con una bata de laboratorio, probablemente solo esté allí para limpiar el piso / Pero si ves a un hombre con una bata de laboratorio, entonces probablemente tenga el conocimiento y las habilidades que necesitas”. ‘que estas buscando.” 

El problema, dijo Melanie Mitchell, profesora del Instituto Santa Fe que estudia inteligencia artificial, es que sistemas como ChatGPT están “haciendo asociaciones estadísticas masivas entre palabras y frases”, dijo. “Cuando comienzan a generar un nuevo lenguaje, confían en esas asociaciones para generar el lenguaje, que a su vez puede estar sesgado de manera racista, sexista y de otras maneras”. 

El director ejecutivo de OpenAI, Sam Altman, sugirió que la gente “rechace” este tipo de resultados para ayudar a que la tecnología mejore. 

En una entrevista, Piantadosi me dijo que estaba decepcionado de que la empresa estuviera responsabilizando a los usuarios de solucionar el problema. “Lo que se requiere es una mirada seria a la arquitectura, los datos de entrenamiento y los objetivos”, dijo. “Eso requiere que una empresa priorice este tipo de problemas éticos mucho más que simplemente pedir un pulgar hacia abajo”.

Un grupo de investigadores de IA, que incluye a personas como  Timnit Gebru  y  Abeba Birhane , ya han publicado investigaciones impresionantes sobre prácticas responsables de IA, y su trabajo continúa impulsando el campo.

“La comunidad en general reconoce que hay implicaciones sociales que deben tenerse en cuenta”, dijo Mark Riedl, profesor del Instituto de Tecnología de Georgia. — Davey Alba

Por los números 1/3

Cuántos fondos de capital de riesgo  recaudan los fundadores de startups negros de EE . UU . en comparación con sus pares.

Lo que estamos leyendo:

Nuevas voces

“Una combinación de factores probablemente ha asustado a una buena parte de esta última generación de comerciantes”. christine benzEl  director de finanzas personales del investigador de fondos Morningstar Inc. sobre cómo el colapso de las criptomonedas perjudica a los comerciantes minoristas

Bloomberg News apoya la 

amplificación de las voces de las mujeres y otros ejecutivos subrepresentados en nuestras plataformas de medios.

De nuestros socios en

Bloomberg Media y EBONY se asocian para explorar las desigualdades económicas y sociales que enfrenta la comunidad negra. Suscríbase a Inside EBONY para obtener más noticias de EBONY.com .

— Con la asistencia de Alicia Díaz

Related Articles

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Stay Connected

3,789FansMe gusta
900SeguidoresSeguir
1,830SuscriptoresSuscribirte
- Anuncio -spot_img
- Anuncio -spot_img

Latest Articles