Электромобили Tesla попали в две автокатастрофы в Китае и США
20 февраля 2023
Виновен ли автопилот Tesla FSD Beta в недавних автокатастрофах в Китае и Калифорнии?
Автор А.Климнов, фото Teslarati.com, заставка создана с помощью ИИ по запросу «Неисправность автопилота в машине»
В субботу в Калифорнии произошла очередная автокатастрофа с участием электромобиля Tesla, который столкнулся с пожарной машиной, ликвидировавшей аварию на интерстейте (межштатной автомагистрали), что побудило Национальную администрацию безопасности дорожного движения (NHTSA) начать более тщательное расследование инцидента.
Так NHTSA заявила, что связалась с компанией Tesla Inc. для получения дополнительной информации о столкновении, в котором согласно Reuters в котором участвовали флагманский хэтчбек Model S и пожарная машина, которая была припаркована на межштатной автомагистрали 680 в округе Контра-Коста, штат Калифорния.
По сообщению пожарной службы из Контра-Коста, пожарная машина блокировала полосы I-680, когда экипаж убирал мусор, оставшийся от предыдущей аварии. Водитель Tesla врезался в неподвижную пожарную машину. Четверо пожарных находились внутри кабины пожарной машины, когда электромобиль Tesla врезался в него. Все они получили только незначительные травмы, а вот водитель «Теслы», к сожалению, от полученных травм скончался на месте, тогда как его пассажир был доставлен в больницу.
Помощник начальника пожарной охраны округа Контра-Коста Трейси Даттер сказала, что пожарная машина стояла на дороге по всем правилам: с включенными проблесковыми огнями и была припаркована по диагонали на левых полосах движения как раз для защиты спасателей.
Вероятно, что NHTSA, запросила дополнительную информацию по данному ДТП, поскольку в настоящее время она проводит специальное пасследование аварий с 830 тысячами (!) электромобилей Tesla, целью которого поставлено расследование «автомобильных аварий с дорожными или придорожными службами быстрого реагирования».
Так в июле 2022 года агентство подняло уровень расследования до «Инженерного анализа»: «Расследование оценит технологии и методы, используемые для мониторинга, оказания помощи и обеспечения взаимодействия водителя с динамической задачей вождения во время работы автопилота» (говоря попросту – может ли водитель отвлекаться от дороги при включенном автопилоте – авт.).
Пока что нет никаких доказательств или указаний от местных властей относительно того, что стало причиной аварии. Многие СМИ сразу же начали обвинять автопилот Tesla (FSD Beta), но полиция и пожарные не раскрыли никакой информации и официально не назвали причину аварии. Информация о водителе также не разглашается.
А буквально накануне в Китае случалась схожая катастрофа с электроседаном Tesla Model 3, который промчался на огромной скорости, даже подпрыгнув на мосту как на трамплине, и далее по улице, едва не врезаясь в движущиеся машины и мотоциклы, а потом все же догнал попутный автобус и от него отрикошетил в припаркованную машину, снеся ее владельца. Однако, здесь, скорее всего имело место хулиганское вождение, но не исключено, что у водителя заклинило педаль акселератора. В данном случае компания Tesla China также заявила о полном содействии в расследовании ДТП местными властями.
Учитывая, что 16 февраля Tesla Inc. отозвала 362 тыс. электромобилей из-за проблем с пакетом FSD Beta. В пресс-релизе Tesla об отзывной кампании говорится: «Система FSD Beta может допустить небезопасные действия транспортного средства в зоне перекрестков, например, движение прямо через перекресток, находясь в полосе только для поворота, въезд на перекресток, контролируемый знаком остановки, без полной остановки, или движение на перекресток во время мигающего желтого сигнала светофора без должной осторожности».
Поскольку все больше электромобилей могут быть исправлены с помощью обновлений программного обеспечения («по воздуху» – авт.), а Tesla Inc. специально проводит более 50% своих «отзывных кампаний» с помощью загружаемых патчей, то ряд специалистов по-прежнему считают, что терминология нуждается в обновлении.
Так, аналитик Сэм Корвус из ARK Invest сказал: «Похоже, что должна быть введена [новая] терминология, чтобы различать «отзывы» и «обновления программного обеспечения». Потому что вы знаете, что один [производитель] требует, чтобы что-то было отозвано, а другой нет».
Сам Илон Маск горячо поддержал такое мнение: «Однозначно. Слово «отзыв» для беспроводного обновления программного обеспечения является анахронизмом и просто неправильным!»
Кстати, согласно данным Tesla Inc. безопасность автопилота Tesla FSD Beta улучшилась с точки зрения данных об авариях со II по III квартал, свидетельствуют данные компании.
Последний отчет Tesla Inc. о «безопасности транспортных средств» показал снижение числа аварий на миллион миль, пройденных с включенным автопилотом, по сравнению с предыдущим кварталом. Так, электромобили Tesla, с включенным автопилотом, зарегистрировали одну аварию на каждые пройденные 6,26 млн миль (10,1 млн км). Это стало улучшением по сравнению с 5,1 млн миль (8,2 млн км), пройденных за аварию, когда водители использовали автопилот во II квартале 2022 года.
Для водителей, которые не использовали технологию автопилота FSD Beta в III квартале, Tesla Inc. зафиксировала одну аварию на каждые 1,71 млн миль (2,75 млн км) пробега. Данные II квартала показали одну аварию на каждые 1,54 млн миль (2,48 млн км), пройденных без автопилота.
В отчете компании Tesla Inc. говорится: «В III квартале 2022 года мы зафиксировали одну аварию на каждые 5,54 млн миль (8,91 млн км), в которых водители использовали технологию автопилота. Для водителей, которые не использовали технологию автопилота, мы зафиксировали одну аварию на каждые 1,58 млн пройденных миль (8,91 млн км).
Для сравнения, данные NHTSA и FHWA (Федерального управления шоссейных дорог) за 2021 год показывают, что в США автомобильная авария происходила примерно через каждые 652 тыс. миль (1 млн 49,1 тыс. км).
P.S. Так виновен ли автопилот Tesla или нет? Ближайшее будущее покажет, но ясно, что внимание как общественности, так и контролирующих органов к безопасности данной системы от «Тесла» не ослабнет…