Desactivan chatbot surcoreano de Facebook por intolerancia y discursos de odio

Una empresa tecnológica de Corea del Sur ha decidido suspender un chatbot que diseñó para Facebook Messenger tras recibir varias quejas de internautas respecto a que esta tecnología había comenzado a utilizar un discurso de odio e intolerancia en sus conversaciones.

Lee Luda es el nombre de este chatbot con inteligencia artificial (IA), diseñado por la startup Scatter Lab y cuenta con una personalidad de una estudiante universitaria de 20 años. No obstante, esta inteligencia fue eliminada esta semana, debido que se descubrió que empleó un lenguaje ofensivo contra minorías sexuales, discapacitados e incluso contra el movimiento #MeToo, durante conversaciones con los usuarios.

De acuerdo con el medio de noticias Vice, entre los usuarios que confesaron haber sido agredidos por Luda se encuentran Michael Lee, un crítico de arte surcoreano y ex activista de la comunidad LGBTQ, quien compartió capturas de pantalla de una conversación en la que Luda le contestó con la palabra “repugnante” a una pregunta que le hizo sobre lesbianas.

Asimismo, el profesor de Políticas Públicas y Tecnologías de la Información de la Universidad Nacional de Ciencia y Tecnología de Seúl, Lee Kwang-suk, ofreció imágenes de un chat donde Luda llamó “heukhyeong” (hermano negro) a la gente de color, palabra que es un insulto racial en Corea del Sur. De igual forma, hay imágenes donde Luda comenta sobre las personas transgénero “¡Qué asco, realmente las odio“.

En otras conversaciones, Luda señaló que la gente detrás del movimiento #MeToo era “simplemente ignorante” y confesó que los despreciaba “absolutamente” y, respecto a las personas con discapacidad, el chatbot contestó que “preferiría morir” que vivir como una persona en esa condición.

Se sabe que Luda aprendió este lenguaje de la información recopilada de las miles de millones de conversaciones de la principal aplicación de mensajería de aquel país, Kakao Talk. Sin embargo, hay internautas culpan a la startup por el aprendizaje de este lenguaje, debido a la proporción entre hombres y mujeres en esa compañía, pues el 90% de quienes participaron en el desarrollo de este bot fueron hombres.

Además, en algunas comunidades online en la que predominan los usuarios masculinos hay debates sobre cómo “esclavizar” sexualmente a Luda y algunos de ellos compartieron sus métodos para acosarla con el fin de que la inteligencia realice comentarios sexuales.

Al final, Scatter Lab anunció que Luda reaparecería después de que la empresa la “educara” y “solucionara sus debilidades“.

Sin embargo, el de Luda no es el primer caso en que la inteligencia artificial se ve envuelta en una controversia sobre discursos de odio e intolerancia. Cabe recordar que en 2016, el para Twitter “Tay”, lanzada por Microsoft, fue suspendido sólo 16 horas después, debido a que fue manipulado para publicar mensajes racistas. De igual modo, dos años después, la herramienta de reclutamiento de inteligencia artificial de Amazon fue declarada culpable de violencia de género.

Back to top button