El polémico error de Grok en Sudáfrica que revela una verdad incómoda sobre los chatbots
Una respuesta descolocada reavivó las sospechas sobre sesgos ideológicos, decisiones editoriales y la influencia directa de Elon Musk en los sistemas de inteligencia artificial que desarrolla.

Al armar un chatbot de gran escala basado en un modelo de lenguaje, lo primero es decidir qué información debe procesar, cuánto peso asignarle y cómo interpretarla, sobre todo cuando las fuentes presentan versiones distintas. En ese proceso, se puede elegir dejar afuera ciertos contenidos —por ejemplo, sitios web pornográficos— o darle prioridad a datos y fuentes consideradas confiables, como el caso de afirmar que 2 + 2 = 4.

Todas esas decisiones, en conjunto, definen cómo se comporta un chatbot durante una conversación y qué perspectivas transmite a quienes lo usan. Por lo general, ese proceso ocurre detrás de escena. Pero esta semana, las decisiones de quienes desarrollan chatbots se metieron en el centro del debate público después de que Grok, el bot impulsado por Elon Musk, empezara a responder de forma inesperada a cientos de consultas sin relación con afirmaciones sobre violencia contra la población blanca en Sudáfrica.

Un usuario subió una foto con el comentario: "Creo que me veo guapo hoy". Otro le preguntó a Grok: "@grok, ¿es cierto?", y el bot respondió: "La afirmación de genocidio blanco en Sudáfrica es objeto de un intenso debate...".

Las respuestas extrañas de Grok se viralizaron después de que Aric Toler, periodista del New York Times y exdirector de Bellingcat, las destacara. Incluso Sam Altman, quizá el desarrollador de chatbots más reconocido, ironizó sobre el episodio en X. El error, que ya fue corregido, abrió una discusión más amplia: si el propio Musk —sudafricano blanco y con antecedentes de afirmar que Sudáfrica es "racista" contra los blancos— había metido mano para que el bot reflejara mejor sus ideas políticas.

"Sería realmente malo si las IA de uso generalizado fueran editorializadas sobre la marcha por quienes las controlan", escribió Paul Graham, fundador de la histórica aceleradora de Silicon Valley Y Combinator, en X. La empresa matriz de Grok, xAI, confirmó más tarde que el problema surgió por "una modificación no autorizada" que "violaba las políticas internas y los valores fundamentales de xAI".

 

Pero vale recordar que Musk ya intervino en algoritmos de sus compañías. En X, por ejemplo, hizo que sus tuits se multiplicaran por mil frente a los de otros para aumentar su visibilidad. Sin embargo, suponer que la respuesta de Grok podía ser imparcial, auténtica o inmune a decisiones editoriales tomadas por sus creadores es no entender qué son los chatbots ni cómo deciden qué mostrar.

Los chatbots son desarrollados por empresas con intereses propios. Los algoritmos que los sostienen —al igual que los que determinan qué te recomienda Google, TikTok o Instagram— son una mezcla de decisiones pensadas para priorizar ciertos incentivos, definidos por quienes los diseñan. Si el objetivo es que sigas pegado a la app, entonces las respuestas van a apuntar a generar más interacción. Si el negocio pasa por el comercio electrónico, van a tratar de que compres.

La motivación principal de las tecnológicas no es ofrecerte la información más precisa y con contexto. Si eso es lo que buscás, andá a una biblioteca. O probá con Wikipedia, que, como la biblioteca, existe para ayudarte a encontrar lo que necesitás, sin fines de lucro.

Las empresas terminaron politizando los productos de inteligencia artificial en los dos bandos. El año pasado, los conservadores cuestionaron a Google cuando su modelo Gemini generó imágenes de nazis con diversidad racial y otras figuras históricas mal representadas. La empresa suspendió la función de generar imágenes de personas y pidió disculpas por el error.

Grok refleja lo que son X y xAI: plataformas creadas para impulsar la mirada del mundo de Elon Musk y, al mismo tiempo, generar plata. Por eso, no sorprende que el bot dijera cosas sobre la cuestión racial en Sudáfrica que coincidieran bastante con las ideas políticas de Musk. Además, el momento no fue casual: esta semana, el presidente Trump revirtió décadas de política migratoria de EE.UU. y habilitó que sudafricanos blancos lleguen al país como "refugiados", en lo que parece un guiño a la visión de Musk sobre Sudáfrica.

El bot también incorporó su mirada en otros aspectos: durante el entrenamiento, los "tutores" de Grok recibieron la indicación de vigilar que no hubiera "ideología progresista" ni "cultura de la cancelación".

 

Lo más desconcertante fue que Grok respondió cada mensaje con declaraciones sobre el "genocidio blanco". Según expertos, eso sugiere que alguien modificó su "mensaje del sistema", una serie de instrucciones que se añaden a lo que escribe el usuario y que orientan las respuestas del bot. xAI no respondió de inmediato cuando se le pidió una explicación.

Pero, en el fondo, no importa si Musk generó este comportamiento en Grok al intentar codificar alguna regla de forma rígida o si fue un error más difuso. Lo que importa es que, mientras cada vez más personas buscan respuestas en estos bots y reemplazan la investigación por un chat, se olvidan de algo clave: los chatbots no son personas, son productos.

Sus creadores quieren que creas que son "neutrales", que sus respuestas son "auténticas" o "imparciales". Pero eso no existe. Las respuestas salen de montañas de datos que ya traen opiniones humanas. Después, quienes hacen el bot deciden cuánto peso darle a cada fuente, según qué quieren que refleje.

Los bots resultan mucho más convincentes cuando se los presenta como neutrales y serviciales. Esa imagen fue cultivada con cuidado por quienes los desarrollan. Pero esa fachada se cae cuando hacen algo claramente equivocado. Y conviene no olvidarlo: siguen siendo computadoras hechas por personas, incluso mucho después de que se apaguen los discursos sobre el genocidio blanco.

 

Nota publicada en Forbes US.