Un grupo de investigadores consigue engañar al autopilot de Tesla para reproducir el accidente de mayo.
El autopilot de Tesla, a pesar de ser uno de los más punteros de todos los disponibles, no gana para disgustos. Y es que tras los accidentes sufridos por los Teslas con esta función activada, ahora son los hackers los que han sido capaces de engañar al sistema ideado por Tesla para ocultar los obstáculos en pista y forzar un potencial accidente.
Lógicamente, la seguridad de los coches autónomos es una de las barreras más importantes para la masificación y regulación de esta tecnología, y antes de que llegan al mercado de forma masiva, los investigadores de seguridad están haciendo de las suyas con estos sistemas, eso sí, dentro de pruebas específicas lejos de la vía pública.
De esta forma, un grupo de investigadores de Universidad de Zhejiang de China y la empresa de seguridad china Qihoo 360 aseguran que han encontrado una forma, utilizando señales de radio y sonidos, capaces de engañar a los sistemas de piloto automático de Tesla, algo que tienen planeado enseñar al mundo en una conferencia dentro de la Defcon esta misma semana.
La idea es engañar al radar del Tesla para ocultar obstáculos en la calzadaLos investigadores afirman que, de momento, no hay dada que temer. A día de hoy, para engañar a los sistemas de Tesla se necesita de muchas variables. En primer lugar, que el coche esté parado en el momento de provocarle el engaño -en un semáforo, por ejemplo- …