Zoom fue acusada de robar datos para entrenar inteligencias artificiales

El revuelo causado por la modificación de la política de datos de Zoom muestra cómo la carrera por crear modelos de IA más potentes crea una nueva presión para obtener datos de entrenamiento, incluso extrayéndolos de los usuarios. El peligro en las videollamadas Zoom, la empresa que normalizó la asistencia a reuniones de negocios en
 
serman, laboratorio de recuperación de datos en españa

El revuelo causado por la modificación de la política de datos de Zoom muestra cómo la carrera por crear modelos de IA más potentes crea una nueva presión para obtener datos de entrenamiento, incluso extrayéndolos de los usuarios.

El peligro en las videollamadas

Zoom, la empresa que normalizó la asistencia a reuniones de negocios en pijama, se vio obligada esta semana a anular su silencio para asegurar a los usuarios que no utilizaría datos personales para entrenar inteligencia artificial sin su consentimiento.

Un avispado usuario de Hacker News observó la semana pasada que una actualización de las condiciones de Zoom en Marzo parecía dar a la empresa vía libre para absorber datos de voz, vídeo y de otro tipo e introducirlos en sistemas de aprendizaje automático.

Las nuevas condiciones establecían que los clientes: “consienten que Zoom acceda, utilice, recopile, cree, modifique, distribuya, procese, comparta, mantenga y almacene los Datos Generados por el Servicio” con fines que incluyen “el aprendizaje automático o la inteligencia artificial (incluidos el entrenamiento y el ajuste de algoritmos y modelos)”.

El descubrimiento suscitó artículos de prensa críticos y publicaciones airadas en las redes sociales. Pronto, Zoom dio marcha atrás. El lunes, la directora de producto de Zoom, Smita Hasham, escribió una entrada en su blog. La misma afirmaba: “No utilizaremos contenidos de audio, vídeo o chat de clientes para entrenar nuestros modelos de inteligencia artificial sin tu consentimiento“. La empresa también actualizó sus condiciones para decir lo mismo.

La empresa se retracta

Más tarde esa misma semana, Zoom actualizó de nuevo sus condiciones, para aclarar que no introduciría “audio, vídeo, chat, pantalla compartida, archivos adjuntos u otras comunicaciones como contenido de clientes (como resultados de encuestas, pizarra y reacciones)” en los modelos de IA. Vera Ranneft, portavoz de la empresa, afirma que Zoom no ha utilizado anteriormente el contenido de los clientes de esta forma.

Estas actualizaciones parecen bastante tranquilizadoras. Aunque persiste el problema es que muchos usuarios de Zoom o administradores de cuentas empresariales podrían hacer clic en “Aceptar” las condiciones sin darse cuenta de lo que están cediendo. Y los empleados obligados a utilizar Zoom pueden no ser conscientes de la elección que ha hecho su empresa. Un abogado señala que las condiciones siguen permitiendo a Zoom recopilar muchos datos sin consentimiento.

El alboroto muestra la falta de protecciones significativas para los datos de los usuarios. Más en un momento en que el auge de la IA generativa ha hecho que la industria tecnológica necesite incluso más información. Las empresas han llegado a considerar la IA generativa como una especie de monstruo al que hay que alimentar a toda costa. El problema es que no siempre esté claro para qué se necesitan exactamente esos datos o qué podrían acabar haciendo esos futuros sistemas de IA.

Zoom y la IA

El ascenso de los generadores de imágenes de IA como DALL-E 2 y Midjourney, seguidos de ChatGPT y otros chatbots inteligentes pero defectuosos, fue posible gracias a enormes cantidades de datos de entrenamiento. Ya existe polémica porque muchos de los datos utilizados están protegidos por derechos de autor. Todo tipo de empresas están intentando utilizar los datos que poseen, o que generan sus clientes y usuarios, para crear herramientas de IA generativa.

Zoom ya se ha subido al carro de la IA. En junio, la empresa introdujo dos funciones de generación de texto para resumir reuniones y redactar correos electrónicos sobre ellas. Zoom podría utilizar los datos de las reuniones de vídeo de sus usuarios para desarrollar algoritmos más sofisticados. Éstos podrían resumir o analizar el comportamiento de las personas en las reuniones, o tal vez incluso dar un parecido virtual a alguien cuya conexión se haya interrumpido temporalmente o no haya tenido tiempo de ducharse.

El problema del esfuerzo de Zoom por obtener más datos es que refleja la situación general de nuestros datos personales. Muchas empresas tecnológicas ya se benefician de nuestra información. Varias de ellas, como Zoom, están ahora a la caza de formas de obtener más datos para proyectos de IA generativa. Y, sin embargo, nos corresponde a nosotros, los usuarios, intentar vigilar lo que hacen.

EE.UU. carece de una ley federal de privacidad, lo que deja a los consumidores más expuestos que los ciudadanos de la UE. En una época en la que las nuevas tecnologías más emocionantes y ampliamente elogiadas se construyen sobre montañas de datos recogidos de los consumidores, a menudo de formas éticamente cuestionables, parece que las nuevas protecciones no pueden llegar lo bastante pronto.

serman, laboratorio de recuperación de datos en españa
 

Los comentarios están cerrados.