Internacional

La IA de Elon Musk borra publicaciones “inapropiadas” tras quejas por sus mensajes antisemitas

La compañía de Musk insistió en que tras revisar la naturaleza de las publicaciones, “tomó medidas para prohibir el discurso de odio antes de que Grok publique en X”.

Elon Musk y logo de IA (Grok). Foto: Silas Stein/picture alliance via Getty Images.

Elon Musk y logo de IA (Grok). Foto: Silas Stein/picture alliance via Getty Images.

La empresa de inteligencia artificial xAI, vinculada a la red social X del magnate Elon Musk, eliminó varias publicaciones “inapropiadas” de su herramienta conversacional Grok tras recibir quejas sobre la propagación de contenido y comentarios antisemitas, ahora borrados, en los que el ‘chatbot’ habría elogiado a Adolf Hitler.

Lea también:

Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas”, publicó xAI en el perfil de Grok en esa red, sin mencionar en detalle el contenido de los mensajes eliminados.

La compañía de Musk insistió en que tras revisar la naturaleza de las publicaciones, “tomó medidas para prohibir el discurso de odio antes de que Grok publique en X”.

“xAI entrena únicamente en la búsqueda de la verdad y, gracias a los millones de usuarios en X, podemos identificar rápidamente y actualizar el modelo allí donde el entrenamiento pueda mejorarse”, indicó la empresa.

Capturas de las publicaciones eliminadas muestran cómo Grok habría elogiado las políticas de Hitler, insinuado que las personas de origen judío eran más propensas a propagar mensajes de odio en línea, y expresado un aparente respaldo a las prácticas del Holocausto.

“Lo que estamos viendo ahora mismo en (las publicaciones de) Grok es simple y llanamente irresponsable, peligroso y antisemita. Este impulso a la retórica extremista solo servirá para amplificar y alentar el antisemitismo que ya está en aumento en X y muchas otras plataformas”, respondió en X la judía Liga contra la Difamación (ADL, en inglés).

Según ADL, “la última versión del modelo Grok está reproduciendo terminología frecuentemente utilizada por antisemitas y extremistas para difundir ideologías de odio”.

Este es un fenómeno “preocupante” porque, según la organización, esto demostraría que “el modelo puede replicar frases y expresiones que, aunque a veces parecen inocuas, han sido apropiadas por grupos radicales para diseminar mensajes de intolerancia y discriminación”.

No es la primera vez que la empresa xAI se ve envuelta en polémica. En mayo pasado, la compañía rectificó después de que Grok calificara la situación del grupo étnico afrikáner -sudafricanos blancos descendientes de colonos neerlandeses- como “genocidio blanco” en respuestas a preguntas de usuarios que en su mayoría no tenían que ver con Sudáfrica, país del que Musk es oriundo.

Entonces, xAI explicó que el comportamiento de su ‘chatbot’ se debió a una “modificación no autorizada” en los automatismos de respuesta.

Escuche W Radio en vivo aquí:

WRadio FM

Directo

Compartir

El código iframe se ha copiado en el portapapeles

El siguiente artículo se está cargando

Escucha la radioen directo

W Radio
Directo

Tu contenido empezará después de la publicidad

Programación

Señales

Elige una ciudad

Compartir

Más acciones

Suscríbete

Tu contenido empezará después de la publicidad