La decisión de Zoom de usar sus datos para el entrenamiento de IA puede causar desconfianza
800 Noticias/FotoReferencial
Zoom ha anunciado que utilizará datos generados por el servicio, en lugar de datos de usuario, de las nuevas herramientas de reunión de IA para entrenar sus modelos de IA para mejorar la experiencia del usuario.
La empresa ya invirtió en Anthropic e introdujo nuevas herramientas de IA que resumen reuniones y redactan borradores de mensajes.
Los cambios, anunciados originalmente en marzo de 2023, aclaran que Zoom puede proporcionar estos servicios sin cuestionar los derechos de uso.
Sin embargo, aunque Zoom ha aclarado explícitamente que no entrenará su IA con datos sin el consentimiento del usuario, la empresa no ha incluido una cláusula de exclusión voluntaria.
La analista sénior de GlobalData, Maya Sherman, ha señalado que esta actualización «destaca numerosas preocupaciones éticas» que plantea el uso de servicios o datos de usuarios para la formación en IA.
Sherman afirma que poder optar por no participar es un pilar esencial de las regulaciones de GDPR que permiten la confianza y el consentimiento del consumidor. Dado que muchas herramientas de IA aún son propensas a errores técnicos, Sherman cree que, por lo tanto, los datos de los usuarios se pondrán en riesgo en actualizaciones de políticas poco claras.
«Debido a la estructura de caja negra de los algoritmos de IA», comenta Sherman, «el riesgo de que los datos [generados por el servicio] sean utilizados por terceros, filtrados o modificados para amplificar los sesgos es alarmante y debe moderarse».
En un mundo hiperconectado, Sherman advierte que incluso los metadatos indirectos pueden usarse con fines maliciosos contra los usuarios.
Entre el telón de fondo del uso cada vez mayor de la biometría por parte de empresas como Ryanair y la regulación de la IA que se está redactando a nivel mundial, Sherman concluye que el comportamiento de los datos de la empresa y la higiene digital están bajo un escrutinio ético cada vez mayor.
Sherman afirma que las políticas originales de Zoom deberían haberse publicado con intenciones claras de la empresa sin esperar a que los oponentes en línea señalaran sus fallas.
La confianza del usuario concluye Sherman, es crucial en la protección de datos y Zoom podría correr el riesgo de ver una disminución en sus números de suscripción debido a la posible desconfianza que esta política puede haber causado.
Cuando se le pidió un comentario, Zoom respondió que sus clientes «deciden si habilitar las funciones de IA generativa y, por separado, compartir el contenido del cliente con Zoom para mejorar el producto».
Zoom aclaró además a Veredicto que el contenido del cliente no se utilizará para entrenar IA sin consentimiento.
Lea también: WhatsApp permitirá compartir la pantalla durante una videollamada