Un grupo de estudiantes y académicos de la Universidad de California en Berkeley (UC-B) analizó los principales problemas que se pueden registrar por el uso inadecuado de los comandos de voz que tienen algunos asitentes digitales, tales como Siri de Apple, Google Assistent y Alexa de Amazón.
Una alerta para los médicos
Con esto en mente y a la luz de la información publicada por la cadena de noticias del portal español ipadizate.es, el grupo de estudiantes de la UC-B se concentró en los comandos de voz que, por medio de los mencionados asistentes digitales, pueden ocultar agentes malicioso detrás de la fachada de archivos de música, video, audio, etc. Un hecho que podría vulnerar fácilmente las barreras de seguridad con el fin de asechar los datos personales del médico, de su consulta e, incluso, de sus pacientes.
Así pues, de esta manera solamente escuchando algunas canciones en la radio, reproduciendo música o escuchando un podcast, tu dispositivo podría estar el peligro ante cualquier ataque hacker. Los comandos de voz de los que hablamos podrían estar ocultos, pasando desapercibidos por el oído humano. Pero los dispositivos que empleen la tecnología del asistente virtual Siri sí los detectarían.
De acuerdo con los resultados de la investigación, esto es especialmente delicado, ya que mediante estos comandos de voz “ocultos”, un hacker podría hacer que tu smartphone llamara a un número en concreto, o que accediera a una página web dañina. Pero la tecnología podría llegar a ser utilizada para abrir puertas (mediante accesorios de domótica), robar dinero o comprar productos online.