И враг мой грузовик

Мнение редакции может не совпадать с мнением автора

Первого марта 2019 года автомобиль Tesla Model 3 попал в дорожно-транспортное происшествие со смертельным исходом, жертвой которого стал его водитель. Позднее выяснилось, что на момент столкновения автомобиль находился под управлением системы адаптивного круиз-контроля Autopilot, которая даже не пыталась избежать столкновения, а вся ситуация в целом крайне напоминает первую автомобильную катастрофу с участием автопилота, произошедшую в 2016 году. Разбираемся, что общего в этих авариях и почему в них виновата не только система Autopilot.

Для начала стоит разобраться, что именно произошло в обоих случаях. Детали о случившемся 1 марта 2019 года стали известны благодаря расследованию Национального совета по безопасности на транспорте США. Согласно данным опубликованного отчета, автомобиль Tesla Model 3 ехал по автомагистрали на скорости 109 километров в час, хотя максимальная разрешенная скорость на этом участке составляет 89 километров в час (55 миль в час).

Незадолго до проезда автомобиля с прилегающей дороги выехал седельный тягач с полуприцепом. Он собирался пересечь проезжую часть и повернуть налево, но затормозил, после чего в него врезался электромобиль. Поскольку он попал грузовику между осями полуприцепа, от столкновения ему срезало крышу и седан продолжил движение, проехав еще почти 500 метров.

Это описание практически полностью повторяет ситуацию, произошедшую в мае 2016 года. Тогда автомобиль Tesla Model S также врезался в выехавший на автомагистраль грузовик с полуприцепом, в результате чего водитель погиб. Объединяют обе аварии еще два обстоятельства: в обоих случаях на момент столкновения была включена система Autopilot и в обоих случаях ни водитель, ни система не пытались избежать столкновения.

В отличие от нового происшествия, в 2016 году компания Tesla объяснила произошедшее — на данных с камер алгоритмы не распознали белый прицеп на фоне светлого неба, а данные с радара не помогли, потому что алгоритм игнорирует все объекты, расположенные выше определенного уровня.

Компания также напомнила, что водители обязаны всегда следить за дорогой и держать руки на руле. На этот раз Tesla ограничилась лишь напоминанием про обязанность перехвата управления в сложных ситуациях, однако некоторые догадки о причинах произошедшего можно сделать, исходя из данных, собранных владельцами автомобилей Tesla.

Так, один из владельцев Tesla Model X получил доступ к «сырым» данным автопилота и проанализировал их. На записи одной из поездок он столкнулся с отчасти похожей ситуацией — на перекрестке, правда, в городе, поперек направления его движения выехал седельный тягач с полуприцепом.

На опубликованном кадре можно видеть, что алгоритмы корректно распознают грузовик, но из-за большого дорожного просвета между асфальтом и прицепом не классифицируют его как препятствие и воспринимают пространство под ним как достаточное для проезда. Это видно по отсутствию звездочки после названия класса объекта на визуализации данных (на другом видео пользователя можно наглядно увидеть, как после ухода пожарной машины на другую полосу звездочка тут же пропадает):

Визуализация показывает, что, вероятно, проблема Tesla заключается не в самом алгоритме распознавания объектов, а в интерпретации его данных.

Кстати, подобные аварии, вероятно, специфичны для США, потому что американские транспортные регуляторы не обязывают владельцев полуприцепов устанавливать на них боковые ограничители, которые можно увидеть на российских или европейских грузовиках. Ограничители вряд ли помогут при столкновении с автомобилем и предназначены скорее для защиты велосипедистов, но они могли бы не дать алгоритму воспринять большой дорожный проем как свободное место, через которое можно проехать.

На все эти аргументы у Tesla есть простой и юридически корректный ответ: инструкции требуют от водителя держать руки на руле и следить за происходящим на дороге, а если он отвлекается, в автомобиле срабатывает сигнализация, которая требует вернуться к управлению.

Однако у этой позиции есть несколько изъянов. Главный из них — этический. Tesla всячески старается объяснить потенциальным клиентам, насколько совершенна ее система адаптивного круиз-контроля. Доходит даже до того, что после крупного обновления системы Tesla стала продавать эту опцию под названием «Full Self-Driving Capability», что по смыслу достаточно сильно отличается от реальных возможностей адаптивного круиз-контроля.

Еще один изъян — технический. Автомобили Tesla с системой Autopilot предупреждают водителя о необходимости держать руки на руле и, если он игнорирует эти сигналы, через некоторое время отключают автопилот до конца поездки. Однако система позволяет ехать без рук на руле достаточно долго, на протяжении нескольких минут.

Кроме того, сама система отслеживания внимания, применяемая Tesla, достаточно несовершенна и основана на усилии, прилагаемом к рулю. Ее достаточно просто обмануть, к примеру закрепив на руле мешочек с мелочью.

Другие производители, такие как Cadillac и Nissan, используют в своих автомобилях более совершенную реализацию автопилота, которая не обязывает водителя держать руки на руле. В качестве «защиты от дурака» в них применяется система, которая отслеживает внимание водителя напрямую с помощью камер и алгоритмов компьютерного зрения.

Учитывая все эти обстоятельства и то, что Tesla по-прежнему принципиально отказывается от использования лидаров в своих автомобилях, непонятно, как компания намерена развернуть через год сервис из миллиона полностью беспилотных автомобилей. Причем автомобили к этому моменту должны научиться ездить не только по автомагистралям, но и в гораздо более сложных городских условиях.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.