Meta y Google se encuentran en el centro de una controversia tras errores significativos en sus sistemas de inteligencia artificial relacionados con el atentado contra el ex presidente de Estados Unidos, Donald Trump. El chatbot de Meta AI negó la existencia del intento de asesinato, mientras que Google fue acusado de censurar búsquedas sobre el mismo tema.
Meta ha atribuido el error de su chatbot a lo que se conoce en la industria como «alucinaciones», un problema común en los sistemas de IA generativa que produce respuestas incorrectas o engañosas. Joel Kaplan, vicepresidente de políticas globales de Meta, explicó que este tipo de errores subraya los desafíos de la IA para manejar eventos en tiempo real de manera precisa.
Por otro lado, Google también ha sido criticado por supuestamente censurar las búsquedas relacionadas con el intento de asesinato de Trump a través de su función de autocompletar. La empresa negó estas acusaciones, afirmando que cualquier error en las predicciones es puramente algorítmico y no producto de una acción manual.
Ambas compañías han emitido disculpas públicas y han prometido mejoras en sus sistemas para evitar futuros errores de este tipo. Estos incidentes destacan los riesgos y las dificultades que enfrentan las grandes empresas tecnológicas al utilizar IA, especialmente en el contexto de información sensible y en tiempo real