Desde los inicios de la era de la información que las compañías tecnológicas han tenido sed por los datos. Estos han sido utilizados para una amplia variedad de propósitos entre los que se encuentran la mejora de sus productos y servicios, el marketing y la publicidad dirigida. Ahora que estamos viviendo el auge de la inteligencia artificial (IA), los datos se han vuelto mucho más codiciados ya que son un recurso elemental para el entrenamiento de modelos algorítmicos.
Lo cierto es que el manejo de los datos por parte de las Big Tech no ha estado exento de polémicas relacionadas al uso de indebido, la recopilación masiva, la falta de transparencia y otros problemas de privacidad. Por mencionar un ejemplo, Google utilizó nuestros datos sin permiso (y tuvo que pagar una multa por ello). Recientemente, Zoom actualizó sus términos de servicio y los cambios realizados hicieron saltar las alarmas de algunos especialistas.
Zoom y el entrenamiento de IA
Como suele ocurrir, los términos de servicio de las compañías suelen actualizare con cierta periodicidad para incluir nuevas funciones, como lo hizo recientemente WhatsApp, pero raramente tienen repercusión. El cambio que hizo Zoom el pasado mes de julio, aunque no inmediatamente, ahora está bajo la lupa. La compañía de videoconferencias agregó cambios relacionados al entrenamiento de modelos de IA con contenido de sus usuarios.
“Usted da su consentimiento para que Zoom utilice, recopile, cree, modifique, distribuya, procese, comparta, mantenga y almacene los Datos generados por el servicio, y acceda a ellos, para cualquier fin, en la medida y de la forma permitida por la Ley aplicable, incluidos los fines de desarrollo de productos y servicios, marketing, análisis, control de calidad, aprendizaje automático o inteligencia artificial”, dice una parte del documento.
Los cambios empezaron a ser discutidos en Hacker News tras la publicación de una entrada de blog de Alex Ivanovs. El autor señalaba que lo que más preocupaba era “la mención explícita del derecho de la empresa a utilizar estos datos para el aprendizaje automático y la inteligencia artificial, incluido el entrenamiento y ajuste de algoritmos y modelos”. Aquel artículo fue compartido incluso por Gabriella Coleman de Tor Project entre otros.
El rumbo que estaban tomando la actualización de los términos de servicio provocó la reacción de Zoom. La compañía intentó apaciguar la tensión con una serie de declaraciones emitidas a través de su portavoz. “Los clientes de Zoom deciden si habilitar las funciones de IA generativa y, por separado, compartir el contenido del cliente con Zoom para mejorar el producto”, decían las respuestas, aunque las preocupaciones de privacidad no desaparecían.
Más tarde, la directora de producto de la compañía, Smita Hashim, hizo una extensa publicación de blog en la que intentó explicar las prácticas de datos de la compañía y su compromiso con la privacidad de sus usuarios. Esto llegó acompañado de una nueva línea en los términos de uso que indicaba que “Zoom no usará contenido de cliente de audio, video o chat del cliente para entrenar nuestros modelos de inteligencia artificial sin su consentimiento”.
La compañía asegura que los usuarios que utilizan herramientas generativas reciben una advertencia para aceptar el uso de los datos para el entrenamiento de IA. En caso de no aceptar deben abandonar la reunión o desactivar la característica experimental. La política de privacidad de Zoom, no obstante, ha sido calificada de “opaca” por la gerente de políticas de protección de datos, Abby Burke, en declaraciones a la BBC.
Imágenes: Chris Montgomery
–
La noticia La actualización de privacidad de Zoom que alertó a los especialistas y llevó a la compañía a dar explicaciones fue publicada originalmente en Xataka por Javier Marquez .