El futuro de la movilidad en Estados Unidos volvió a encender debate tras revelarse que el software Full Self-Driving de Tesla presenta fallas graves que afectan su seguridad en carretera. Investigaciones recientes señalan que el sistema aún comete errores de detección y respuesta, lo que ha generado preocupación entre reguladores, usuarios y expertos en transporte.
La compañía liderada por Elon Musk insiste en que el software mejora con cada actualización gracias al aprendizaje automático. Además, Tesla defiende que su tecnología representa un paso decisivo hacia la conducción sin intervención humana. Sin embargo, las fallas documentadas, como frenados inesperados o giros peligrosos, abren un dilema sobre la legalidad de mantener este producto en circulación sin regulaciones más estrictas.
Riesgos del software de conducción autónoma
Los cuestionamientos no solo llegan desde agencias gubernamentales en Estados Unidos, sino también de especialistas en seguridad vial que piden reglas claras para estas tecnologías. Asimismo, la situación refuerza el debate global sobre la responsabilidad legal en caso de accidentes generados por sistemas de inteligencia artificial al volante. En consecuencia, la discusión va más allá de Tesla y toca a toda la industria automotriz que experimenta con conducción autónoma.
Por otro lado, los defensores de Tesla destacan el potencial del software para reducir accidentes a largo plazo, siempre que logre madurar con datos y pruebas reales. Si este artículo te está gustando, podrías leer: regulaciones internacionales sobre vehículos autónomos. Del mismo modo, se plantea la necesidad de que las autoridades aceleren marcos legales que acompañen la innovación tecnológica.
El dato más contundente se refleja en los registros oficiales: la Administración Nacional de Seguridad del Tráfico en Carreteras confirmó más de 900 incidentes en Estados Unidos vinculados a sistemas de asistencia avanzada en los últimos meses.