
Anthony Levandowski, ex-director de vehículos autónomos de Uber y figura controvertida en el mundo de la conducción autónoma, ha protagonizado un accidente que ha puesto en el punto de mira las limitaciones del Full Self-Driving de Tesla. Su Model X quedó completamente destrozado tras un fallo del sistema FSD que no logró detectar un obstáculo en una intersección de San Francisco.
El accidente que expone las limitaciones del FSD
Según el informe preliminar, el Tesla Model X de Levandowski circulaba con FSD Beta activado cuando falló al detectar un vehículo que giraba a la izquierda en una intersección compleja. El sistema no frenó ni realizó maniobra evasiva alguna, provocando un impacto frontal a 45 km/h.
«El coche simplemente no vio al otro vehículo. Fue como si no existiera para los sensores», declaró Levandowski en sus redes sociales, acompañando la publicación con imágenes del Model X completamente destrozado. «Esto demuestra que estamos muy lejos de la conducción autónoma real».
El accidente ocurrió en una zona donde Tesla ha estado probando intensivamente su tecnología FSD, lo que hace aún más preocupante el fallo del sistema en un entorno que debería estar bien mapeado por la empresa.
Un crítico desde dentro de la industria
La figura de Levandowski añade peso especial a este incidente. Como ex-ingeniero de Google y ex-director de vehículos autónomos de Uber, conoce perfectamente las complejidades de estos sistemas. Su crítica no viene de un usuario común, sino de alguien que ha desarrollado tecnología similar.
«He trabajado en LiDAR, en visión por computador, en fusión de sensores. Sé lo difícil que es esto», explicó en una entrevista posterior. «Pero Tesla está vendiendo capacidades que simplemente no tiene. El FSD no es autónomo, es un asistente muy avanzado que puede fallar catastróficamente».
Levandowski había sido crítico anteriormente con el enfoque de Tesla de usar únicamente cámaras, abogando por sistemas multi-sensor que incluyan LiDAR y radar. Este accidente refuerza su posición sobre la necesidad de redundancia en los sistemas de percepción.
Implicaciones para Tesla y el mercado español
El timing del accidente no puede ser peor para Tesla. La compañía está presionando para conseguir aprobación regulatoria completa para FSD en Estados Unidos y expandir el sistema a Europa, incluyendo España, donde actualmente solo está disponible Autopilot básico.
En España, donde Tesla vendió más de 8.000 unidades en 2025, muchos propietarios esperan la llegada del FSD completo. Sin embargo, incidentes como este complican las conversaciones con la DGT y las autoridades europeas, que ya han mostrado escepticismo sobre los sistemas de conducción autónoma.
«La regulación europea es mucho más estricta que la americana», explica un experto en automoción consultado. «Casos como este refuerzan la posición conservadora de Bruselas sobre la conducción autónoma».
Tesla España no ha comentado oficialmente el incidente, pero fuentes cercanas indican que la compañía está revisando los datos del accidente para «mejorar continuamente» el sistema FSD.
El debate sobre la supervisión humana
El accidente reaviva el debate sobre si Tesla comunica adecuadamente las limitaciones de FSD a sus usuarios. Aunque la empresa insiste en que requiere supervisión constante, muchos conductores desarrollan exceso de confianza con el tiempo.
«El problema no es solo técnico, es de comunicación y expectativas», señala Levandowski. «Tesla vende ‘Full Self-Driving’ pero luego dice que necesitas estar atento. Es contradictorio y peligroso».
Las autoridades de tráfico estadounidenses están investigando el incidente, que se suma a la lista creciente de accidentes relacionados con sistemas de asistencia a la conducción. En España, la DGT ha sido clara: cualquier sistema debe permitir que el conductor retome el control instantáneamente.
Este accidente plantea preguntas incómodas sobre el futuro de la conducción autónoma y si la industria está prometiendo demasiado, demasiado pronto. Para Tesla, que ha apostado fuertemente por FSD como diferenciador clave, cada fallo público como este erosiona la confianza en una tecnología que aún está lejos de ser infalible.