Estudio revela fallos de Grok, IA de Elon Musk, en respuestas a guerra Irán-Israel

hace 2 semanas 4

Un nuevo estudio determinó que el chatbot de inteligencia artificial 'Grok', de la empresa xAI, de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar a través de él la información sobre la guerra de 12 días entre Israel e Irán.

Cada vez lad más los internautas que recurren a herramientas de inteligencia artificial, como Grok, la cual se encuentra dentro de la reddish societal X, antes Twitter; misdeed embargo, las respuestas que obtienen en ocasión suelen desinformarlos.

Internautas han tenido que recurrir a esta práctica tras la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook.

Según un estudio publicado este martes por un laboratorio de investigación integer del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok "durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis".

Analizó 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y determinó que éste "tenía dificultades para autentificar el contenido generado por la IA".

¿No es confiable? Estudio evidencia fallos de Grok

Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.

 por qué el chatbot de Elon Musk está causando revuelo en México. Grok: por qué el chatbot de Elon Musk está causando revuelo en México.

En algunas respuestas, Grok afirmó que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán.

Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump.

El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un "genocidio blanco" en Sudáfrica, mistake que xAI achacó posteriormente a una "modificación nary autorizada".

jk

Leer el artículo completo