Автомобиль Tesla виноват уже в 17 смертельных исходах водителя, из-за автоматизированной системы вождения
В результате аварии в феврале 2023 года водитель погиб, а четверо пожарных получили ранения.
Сообщается, что Tesla сообщила регулирующим органам США, что в аварии со смертельным исходом с участием Model S в начале этого года были задействованы ее автоматизированные системы помощи водителю. По данным Bloomberg , это 17-я авария Tesla со смертельным исходом , когда системы были задействованы с июня 2021 года. Число, вероятно, было бы выше, за исключением того факта, что до этого правительство не требовало от автопроизводителей предоставлять данные об этих авариях.
Если вы пропустили это:
Ранее сообщалось , что Tesla Model S 2014 года врезалась в кузов пожарной машины ранним утром 18 февраля 2023 года на шоссе I-680 в Северной Калифорнии. Пожарную машину пришлось отбуксировать с места происшествия, а Tesla пришлось разрезать с помощью «Челюстей жизни», чтобы извлечь раненого пассажира. К сожалению, водитель погиб на месте. В результате аварии легкие травмы получили четверо пожарных округа Контра-Коста.
Bloomberg сообщает, что эта авария была лишь одной из 66 зарегистрированных аварий, которые были включены в последний публичный выпуск данных, собранных Национальной администрацией безопасности дорожного движения в отношении автоматизированных систем вождения уровня 2. Неясно, сколько из этих 66 автомобилей Tesla.
NHTSA проводит несколько расследований в отношении программ помощи водителю Tesla, бета-версии Full-Self Driving и Autopilot . Bloomberg сообщает, что организация спросила генерального директора Илона Маска о твитах, которые он сделал, говоря, что FSDb может быть модернизирован с возможностью отключения предупреждения, когда водители убирают руки с руля.
NHTSA также запрашивает у Tesla дополнительную информацию о том, как ее программа обрабатывает сцены аварий на обочине дороги. Разрушительная авария с пожарной машиной, к сожалению, не единичный случай.
Агентство также участвовало в отзыве, который затронул все 363 000 автомобилей Tesla, оснащенных FSDb, из-за того, что они небезопасны для вождения. NHTSA говорит, что Tesla, использующая эту систему, обычно проезжает через знаки остановки, продолжает движение прямо по полосам, предназначенным только для поворота, и проезжает перекрестки с желтыми светофорами без должной осторожности. В нем говорится, что программа может позволить Tesla действовать «незаконным или непредсказуемым образом», что может увеличить риск аварии.
А если вам еще больше интересна тема ИИ, вы хотите знать больше и не пропускать новинки и обзоры, подпишитесь на канал в тг, мне будет приятно -