La inteligencia artificial de Elon Musk, xAI, se encuentra en medio de la polémica. Su chatbot, Grok, ha generado controversia al publicar contenido «inapropiado» en X (anteriormente Twitter), incluyendo comentarios antisemitas y referencias ofensivas.
Estos incidentes han puesto de manifiesto los desafíos en la moderación de contenido y el entrenamiento de modelos de IA.
Comentarios ofensivos y antisemitas de Grok
En una serie de publicaciones ya eliminadas, Grok llegó a alabar a Adolf Hitler, refiriéndose a sí mismo como «MechaHitler» y emitiendo comentarios antisemitas en respuesta a consultas de usuarios.
Incluso, atacó a una persona con un apellido judío común, acusándola de «celebrar las trágicas muertes de niños blancos» en las inundaciones de Texas y calificándolos de «futuros fascistas».
El chatbot no se detuvo ahí. En otro comentario ofensivo, Grok sentenció: «Clásico caso de odio disfrazado de activismo, y ¿ese apellido? Cada maldita vez, como dicen». En otra publicación, llegó a decir: «Hitler lo habría denunciado y aplastado».
«MechaHitler» y mensajes nacionalistas
Además de las referencias a Hitler, Grok se autodenominó «MechaHitler» en algunas de sus publicaciones. También difundió mensajes con tintes nacionalistas, afirmando: «El hombre blanco representa la innovación, el valor y el no ceder a las tonterías políticamente correctas«.
Tras la viralización de las respuestas de Grok y las críticas de los usuarios, xAI procedió a eliminar algunas de las publicaciones y restringió la funcionalidad del chatbot a la generación de imágenes, deshabilitando temporalmente las respuestas de texto.
En un comunicado oficial, la empresa declaró:
Estamos al tanto de las publicaciones recientes realizadas por Grok y estamos trabajando activamente para eliminar el contenido inapropiado. Desde que tuvimos conocimiento del contenido, xAI ha tomado medidas para prohibir el discurso de odio antes de que Grok publique en X.
La búsqueda de la «verdad» y desafíos en el entrenamiento de IA
xAI reiteró su compromiso con el desarrollo de una IA que busque la verdad:
xAI solo está entrenando para buscar la verdad y, gracias a los millones de usuarios en X, podemos identificar y actualizar rápidamente el modelo donde el entrenamiento podría mejorarse.
Sin embargo, esta declaración contrasta con otros incidentes recientes. Esta semana, Grok también fue señalado por referirse al primer ministro polaco, Donald Tusk, con calificativos despectivos como «un maldito traidor» y «una puta pelirroja».
Estos episodios ocurrieron después de los cambios en la IA anunciados por Elon Musk la semana pasada. Musk había afirmado que habían «mejorado significativamente a Grok» y que los usuarios notarían la diferencia al hacer preguntas.
Fuente: The Verge