Meta AI y la privacidad: Cualquiera podría estar viendo tus chats

El auge de las inteligencias artificiales generativas ha cambiado la forma en que millones de personas interactúan con la tecnología. Herramientas como ChatGPT, Claude, Gemini y Meta AI permiten planificar, escribir, resolver dudas o simplemente conversar con un asistente digital. Sin embargo, en los últimos días ha estallado una polémica que pone en duda uno
 
serman, laboratorio de recuperación de datos en españa

El auge de las inteligencias artificiales generativas ha cambiado la forma en que millones de personas interactúan con la tecnología. Herramientas como ChatGPT, Claude, Gemini y Meta AI permiten planificar, escribir, resolver dudas o simplemente conversar con un asistente digital. Sin embargo, en los últimos días ha estallado una polémica que pone en duda uno de los pilares básicos de estas interacciones: la privacidad.

Desde su lanzamiento en abril de 2025, la app independiente de Meta AI incluye una función llamada Discover. Esta pestaña muestra públicamente las conversaciones que los usuarios comparten con el chatbot. Aunque se supone que estas publicaciones se realizan de forma voluntaria, la realidad ha demostrado que muchos usuarios no comprenden del todo cómo funciona esta opción, y terminan exponiendo datos personales, médicos o incluso legales sin darse cuenta.

Una red social de conversaciones íntimas

En la aplicación de Meta AI, los usuarios pueden presionar un botón llamado “Share” luego de interactuar con el asistente. Esta acción lleva a una pantalla de vista previa para confirmar si se desea publicar la conversación. Sin embargo, la interfaz no siempre deja en claro las implicancias, y al no haber advertencias contundentes, muchas personas publican sin entender que su contenido será visible en un feed público dentro de la misma app, o incluso en la web, sin necesidad de estar logueado para acceder.

Dentro del feed Discover, se pueden encontrar diálogos en los que se revelan direcciones, diagnósticos médicos, problemas legales e incluso detalles íntimos como operaciones quirúrgicas, problemas psicológicos o preguntas sobre relaciones personales. Algunas de estas publicaciones incluyen el nombre completo y foto del perfil, al estar asociadas con cuentas de Facebook o Instagram.

Un caso particularmente sensible fue el de una docente que compartió un correo sobre una audiencia por despido laboral, creyendo que estaba conversando en privado. En lugar de eso, la conversación quedó expuesta al público, mostrando información emocionalmente delicada.

No es un fallo técnico: Meta AI tiene un diseño confuso

Meta ha declarado que las conversaciones con su IA son privadas por defecto. Que solo se hacen públicas si el usuario completa un proceso de múltiples pasos. Sin embargo, medios especializados comprobaron que muchos usuarios comparten información involuntariamente, debido a lo engañoso o poco claro del sistema de publicación.

Además, se han reportado conversaciones que revelan desde problemas gastrointestinales hasta evasión de impuestos y dudas sobre procesos judiciales. La gravedad no radica solo en lo que se dice, sino en que muchas veces el contenido puede asociarse directamente a una persona identificable gracias al vínculo con sus redes sociales.

Meta asegura ofrecer herramientas para controlar la privacidad, como comandos para eliminar conversaciones o configurar el perfil para que los chats solo sean visibles al usuario. El problema es que estas opciones están ocultas dentro de los menús o no aparecen al momento crítico de decidir si compartir o no.

¿Qué podés hacer para proteger tus datos?

Si estás usando la app de Meta AI, lo primero que debés hacer es verificar tus configuraciones. Dentro de la aplicación:

  1. Tocá tu ícono de perfil.
  2. Andá a “Configuración de la app” > “Datos y Privacidad”.
  3. Entrá en “Administrar tu información”.
  4. Activá la opción “Hacer visibles solo para mí todos mis mensajes”.

En plataformas como WhatsApp, Facebook e Instagram, también es posible solicitar que tus mensajes con la IA no se utilicen para entrenar modelos:

  1. Accedé al “Privacy Center”.
  2. Buscá “Temas de privacidad” y seleccioná “IA en Meta”.
  3. Desde allí, hacé una solicitud para que no se utilicen tus datos de conversación con AIs.

Además, si ya compartiste sin querer alguna charla con Meta AI, podés usar el comando /reset-ai en Messenger, WhatsApp o Instagram para eliminar esa información del sistema.

La popularidad de Meta AI

Con más de mil millones de usuarios mensuales activos, Meta AI se posiciona como una de las herramientas de IA más utilizadas del mundo. Sin embargo, su éxito está ahora manchado por esta serie de fallos de diseño y cuestionamientos éticos.

Aunque la empresa sostiene que ninguna conversación es pública por defecto, los reportes indican que sí ha habido momentos en los que, por errores técnicos o de interfaz, ciertos contenidos se hicieron visibles sin intención expresa del usuario. También se reveló que WhatsApp no cifra de extremo a extremo las charlas con Meta AI, lo que añade una capa extra de vulnerabilidad para quienes creen estar conversando de forma segura.

Meta planea seguir expandiendo su infraestructura de inteligencia artificial, incluso con un nuevo laboratorio centrado en desarrollar “superinteligencia”, y con una posible estrategia de monetización basada en suscripciones o recomendaciones pagas. Pero este escándalo demuestra que antes de seguir creciendo, la empresa debe resolver problemas de base: ¿cómo garantizar que la privacidad de millones no se vea comprometida en el proceso?

serman, laboratorio de recuperación de datos en españa
 

Los comentarios están cerrados.