Взлом автопилота Tesla объяснил природу фатальных аварий
Эксперты по безопасности пролили свет на причины, из-за которых транспортные средства Tesla с автопилотом попадали в ДТП.
Эту информацию опубликовал The Wall Street Journal (WSJ).
Сотрудники газеты получили доступ к бортовым компьютерам Tesla с установленным программным обеспечением Full Self-Driving (FSD), которое широко известно как автопилот. Данные, полученные от «белых хакеров», помогли раскрыть суть фатальных ДТП с участием электрокаров Tesla.
Благодаря официальным отчетам и видеозаписям специалисты смогли воспроизвести 222 случая с участием автомобилей американского производителя. Так, в 44 случаях автомобиль резко менял траекторию движения, а в 31 случае машина, не имея преимуществ в движении, отказывалась уступить дорогу.
Согласно специалистам, причина проблем, предположительно, связана с ошибками искусственного интеллекта (ИИ). Например, в одном случае компьютер FSD не смог распознать прицеп на автомобиле, из-за чего Tesla врезалась в него со значительной скоростью. Иногда проблема может быть связана с неверной интерпретацией данных, полученных с камер.
В заключении отмечается, что самоуправляемые автомобили Tesla выходят из строя из-за как аппаратных, так и программных проблем.
В середине июля стала известна информация о том, что компания Tesla отменила запланированный на август запуск роботакси. Новое мероприятие запланировано на август месяц.