Cục Quản lý An toàn Giao thông Đường bộ Quốc gia Hoa Kỳ (NHTSA) đã mở cuộc điều tra đối với 2,4 triệu xe Tesla được trang bị phần mềm tự lái Full Self-Driving (FSD) sau bốn vụ tai nạn, bao gồm một vụ gây tử vong.
Cuộc điều tra được công bố vào hôm 18/10/2024, sau khi có báo cáo về các vụ va chạm mà hệ thống FSD của Tesla đã được kích hoạt trong điều kiện tầm nhìn hạn chế như ánh nắng chói, sương mù hoặc bụi trong không khí. Một trong các vụ tai nạn dẫn đến cái chết của người đi bộ, và một vụ khác gây thương tích.
Các dòng xe nằm trong diện điều tra
Cuộc điều tra bao gồm các mẫu xe Tesla Model S và Model X đời 2016-2024, Model 3 đời 2017-2024, Model Y đời 2020-2024, và Cybertruck đời 2023-2024. Đây là bước điều tra sơ bộ trước khi NHTSA có thể yêu cầu thu hồi nếu các mẫu xe này được xác định gây ra nguy cơ không an toàn.
Tesla đã phát triển hệ thống FSD trong nhiều năm, với mục tiêu cho phép xe tự vận hành mà không cần sự can thiệp của con người. Tuy nhiên, công nghệ này đã phải đối mặt với nhiều chỉ trích và giám sát pháp lý sau một số vụ tai nạn nghiêm trọng.
Nghi ngờ về khả năng xử lý của FSD trong điều kiện tầm nhìn hạn chế
NHTSA cho biết cuộc điều tra tập trung vào khả năng của FSD trong việc "phát hiện và phản ứng phù hợp với các tình huống tầm nhìn hạn chế trên đường". Cơ quan này đang xem xét liệu các vụ tai nạn FSD có xảy ra trong những điều kiện tương tự và liệu Tesla có cập nhật hoặc sửa đổi hệ thống FSD để cải thiện hiệu suất trong các điều kiện đó hay không.
NHTSA cũng sẽ đánh giá các bản cập nhật phần mềm của Tesla, bao gồm thời gian, mục đích và hiệu quả, cũng như đánh giá mức độ ảnh hưởng của chúng đến an toàn giao thông.
Tesla chuyển trọng tâm sang công nghệ tự lái
CEO của Tesla, Elon Musk, hiện đang tập trung vào việc phát triển các công nghệ tự lái và xe taxi robot, khi thị trường ô tô của Tesla đang phải đối mặt với sự cạnh tranh gay gắt và nhu cầu yếu.
Tuần trước, Musk đã giới thiệu ý tưởng về "Cybercab" – một mẫu xe taxi robot không có vô lăng và chân ga, sử dụng trí tuệ nhân tạo và camera để điều hướng. Tuy nhiên, Tesla sẽ cần sự phê duyệt từ NHTSA trước khi triển khai các phương tiện không cần sự điều khiển của con người này.
Tesla đã phát triển công nghệ FSD với phương pháp dựa hoàn toàn vào hệ thống camera, thay vì sử dụng các cảm biến như lidar và radar. Một số chuyên gia cho rằng cách tiếp cận này có thể gây rủi ro trong điều kiện tầm nhìn hạn chế, vì xe thiếu các cảm biến dự phòng để hỗ trợ việc nhận diện môi trường lái xe.
Jeff Schuster, phó chủ tịch của GlobalData, nhận xét: "Điều kiện thời tiết có thể ảnh hưởng đến khả năng quan sát của camera, và môi trường pháp lý chắc chắn sẽ tác động đến việc triển khai công nghệ này". Ông cho rằng đây có thể là một trong những trở ngại lớn nhất trong việc ứng dụng rộng rãi công nghệ tự lái của Tesla trong tương lai gần.
Các đối thủ của Tesla trong lĩnh vực xe tự lái thường dựa vào các cảm biến cao cấp và đắt tiền như lidar và radar để phát hiện và phản ứng với môi trường xung quanh.
Vấn đề pháp lý và an toàn
Công nghệ FSD của Tesla đã nhiều lần bị điều tra sau các vụ tai nạn, bao gồm một vụ tai nạn chết người xảy ra vào tháng 4 năm nay, khi một chiếc Model S ở chế độ tự lái đã đâm và giết chết một người đi xe máy 28 tuổi ở khu vực Seattle.
Trước đó, vào tháng 12 năm ngoái, Tesla đã thu hồi hơn 2 triệu xe tại Hoa Kỳ để lắp đặt các biện pháp an toàn mới cho hệ thống Autopilot, một phiên bản hỗ trợ lái xe khác của hãng. Tuy nhiên, NHTSA vẫn đang điều tra xem liệu việc thu hồi này có đủ để khắc phục các vấn đề an toàn hay không.
Với những lo ngại gia tăng về độ tin cậy của FSD, việc kiểm soát và quản lý các công nghệ tự lái đang trở thành một vấn đề quan trọng trong ngành công nghiệp ô tô toàn cầu.