Waymo niega usar cámaras para publicidad pero la privacidad sigue en duda

Waymo asegura que no usará imágenes de sus cámaras interiores para publicidad dirigida, aunque admite su uso para entrenar modelos de IA.
Waymo, la filial de vehículos autónomos de Alphabet, ha desmentido que tenga planes de usar las imágenes de las cámaras interiores de sus robotaxis para fines publicitarios o de identificación individual. La aclaración se produce tras la filtración de una política de privacidad no publicada, descubierta por una investigadora de seguridad, que levantó preocupaciones sobre el uso de datos personales. Según la empresa, su prioridad sigue siendo la seguridad, el rendimiento del servicio y el respeto a la privacidad del usuario. Sin embargo, la posibilidad de que estos datos se utilicen para entrenar inteligencia artificial sigue generando debate.
Una polémica por privacidad en marcha
Las cámaras instaladas en el interior de los robotaxis de Waymo están diseñadas para registrar comportamientos, objetos perdidos y situaciones de emergencia. Pero recientemente, una política de privacidad no publicada encendió las alarmas. El documento incluía un lenguaje ambiguo que sugería que la compañía podría compartir estos datos con fines de personalización, anuncios y ofertas comerciales. Aunque Waymo ha salido al paso de las acusaciones, asegurando que se trataba de texto provisional y que no tiene planes de usar imágenes para publicidad dirigida, la inquietud ya está sembrada.
La portavoz de Waymo, Julia Ilina, ha afirmado que “los sistemas de aprendizaje automático no están diseñados para identificar personas individuales” y que no hay intención de usar estas imágenes para anuncios. La compañía insiste en que su Política de Privacidad oficial sigue intacta, sin modificaciones que permitan una explotación comercial de los datos visuales recogidos.
Un sistema aún en desarrollo, pero observado de cerca
La controversia estalló cuando la investigadora de seguridad Jane Manchun Wong, conocida por anticiparse a nuevas funciones en plataformas tecnológicas, accedió a este borrador de política en el código fuente de Waymo. Allí encontró referencias explícitas a la opción de rechazar el uso de datos personales —incluidas imágenes interiores— para el entrenamiento de modelos de IA generativa. Aunque la función aún no ha sido implementada, el hallazgo generó preocupación por el futuro uso de estas grabaciones.
Waymo aclaró posteriormente que esa opción de exclusión voluntaria no modificará la política actual, pero ofrecerá a los usuarios mayor control sobre cómo se utilizan sus datos para entrenar IA. Mientras tanto, el sistema de opt-out sigue en desarrollo, y su implementación final podría definir un precedente clave para la industria de vehículos autónomos en cuanto a consentimiento y transparencia.
Las fronteras éticas de la IA en el habitáculo
Aunque Waymo insiste en que no monetiza ni comercializa la información captada por las cámaras de sus coches, los expertos señalan que el simple hecho de capturar y almacenar imágenes del interior de un vehículo autónomo plantea desafíos éticos importantes. En un contexto donde los datos son el combustible de los algoritmos, muchos temen que la línea entre funcionalidad técnica y explotación comercial se diluya.
El caso de Waymo reabre el debate sobre cómo las empresas pueden usar material visual que no solo registra comportamientos, sino también gestos, conversaciones, emociones o hábitos del usuario. Según diversas organizaciones de defensa de la privacidad, la recopilación masiva de este tipo de datos sin una regulación clara podría derivar en vigilancia comercial, sesgos algorítmicos o incluso discriminación si los modelos de IA absorben patrones que identifican perfiles.
Uso actual de datos: entre seguridad y mejoras del servicio
Waymo asegura que los datos capturados actualmente se utilizan exclusivamente para mejorar la seguridad del vehículo y la experiencia del usuario. Esto incluye identificar cuándo un pasajero se deja un objeto olvidado, detectar incidentes en el interior del vehículo, garantizar normas de comportamiento y proporcionar respuestas de emergencia. También se usan para entrenar modelos de IA que mejoran la capacidad del coche para interpretar su entorno.
En este sentido, la empresa afirma cumplir con la Ley de Privacidad del Consumidor de California (CCPA), permitiendo a los usuarios de ese estado optar por no compartir ni vender sus datos personales. Sin embargo, dado que no existe una legislación federal de privacidad uniforme en EE. UU., la manera en la que Waymo gestiona esta información podría variar de un estado a otro, dejando lagunas normativas que preocupan a los expertos legales.
Transparencia, la gran prueba del sector autónomo
La promesa de Waymo de no usar imágenes para anuncios es importante, pero no suficiente para disipar el escepticismo. En una industria emergente donde la confianza del público es tan frágil como esencial, los límites entre optimización del servicio, seguridad y privacidad deben quedar perfectamente delimitados. Y eso requiere algo más que comunicados: requiere políticas públicas claras, herramientas de control accesibles para el usuario y una trazabilidad total de cómo y para qué se usan los datos.
Mientras tanto, la decisión de permitir que los pasajeros se excluyan del uso de sus datos para IA sigue sin fecha. Y aunque Waymo insiste en su compromiso ético, este episodio ha mostrado que, incluso sin intención explícita, el diseño de sistemas tecnológicos puede generar efectos no deseados. El verdadero reto para Waymo —y para toda la industria de la movilidad autónoma— es demostrar que pueden avanzar sin poner en riesgo la privacidad de los ciudadanos que los hacen posibles.
Comentarios cerrados