
Meta AI en WhatsApp: Privacidad en Juego con el Nuevo Chatbot
La incorporación de la inteligencia artificial de Meta en la plataforma de mensajería genera preocupación por la exposición involuntaria de conversaciones privadas y la falta de cifrado seguro.
WhatsApp ha integrado hace tiempo Meta AI, un asistente virtual basado en inteligencia artificial que aparece como un chat más dentro de la aplicación. Identificado por un círculo azul en la sección superior de conversaciones, este chatbot permite a los usuarios realizar consultas o solicitudes, similar a otras herramientas de IA conversacional. Sin embargo, una función poco conocida está llevando a que intercambios íntimos o incómodos terminen expuestos en un espacio público sin que muchos lo adviertan.
Dentro de la aplicación, Meta AI incluye una sección llamada “Descubrir”, donde los usuarios pueden compartir voluntariamente sus diálogos con el asistente. No obstante, numerosas personas han publicado sin darse cuenta conversaciones personales, revelando desde dilemas emocionales hasta consultas embarazosas. Según un informe de The Washington Post, en este feed han aparecido preguntas como cómo ayudar a un amigo a revelar su orientación sexual, consejos para felicitar a un familiar en su graduación o incluso solicitudes sobre cómo coquetear en otro idioma.
Un riesgo para la privacidad
Uno de los aspectos más alarmantes es que, a diferencia de los mensajes tradicionales de WhatsApp, las interacciones con Meta AI no cuentan con cifrado de extremo a extremo. Esto implica que cualquier dato compartido con el chatbot —desde preguntas inocentes hasta confesiones delicadas— puede ser almacenado y analizado por la empresa. Para organizaciones defensoras de los derechos digitales, esto representa una vulnerabilidad grave, especialmente en una plataforma reconocida por su seguridad.
Calli Schroeder, asesora legal del Centro de Información sobre la Privacidad Electrónica, advierte que no existe confidencialidad en estos sistemas: “Todo lo que se envía a una IA es, como mínimo, accesible para la compañía que la opera”. Aunque Meta asegura que las conversaciones son privadas por defecto y requieren acción explícita del usuario para publicarse, la opción de compartir no siempre es clara. El botón correspondiente no especifica dónde ni ante quiénes se divulgará el contenido, lo que podría llevar a exposiciones no intencionadas.
¿Quién utiliza los datos?
Meta ha confirmado que emplea estas interacciones para entrenar y mejorar su inteligencia artificial. Cada consulta, por tanto, se convierte en material de estudio para refinar respuestas futuras, un proceso común en la industria pero que plantea dudas sobre el manejo de información sensible.
Mientras algunos usuarios encuentran en estos bots un desahogo emocional o un soporte para situaciones sociales, los expertos insisten en la necesidad de mayor transparencia. La línea entre lo privado y lo público en la era de la IA parece difusa, y casos como este refuerzan el debate sobre hasta dónde llega el control real de los usuarios sobre sus propios datos.