Круиз «отзывает» роботакси после аварии, но отзыв — неправильный механизм

В июне подразделение «Круиз» компании General Motor, которое эксплуатирует беспилотные роботакси ночью в Сан-Франциско и собирается расширить свои услуги, попало в аварию с легкими травмами, когда оно остановилось посреди левого поворота, и встречная машина, мчавшаяся на большой скорости, попала в аварию с легкими травмами. ударил в бок. Это интересно как с точки зрения того, что пошло не так в аварии, так и с точки зрения того, как исправление программного обеспечения было названо «отзывом» по запросу Национального агентства безопасности дорожного движения.

Круз объявил на этой неделе, что они будут расширяя свои услуги в Сан-Франциско, а также открывая Феникс и Остин к концу 2022.

Вполне вероятно, что это первая авария с участием небезопасного водителя, неисправности системы вождения и травм третьих лиц (как пассажиров, так и пассажиров другого автомобиля). Недавно об этом событии стали известны новые подробности.

Об аварии

Автомобиль Круза действительно совершил ошибку, но, по словам Круза, другой автомобиль был признан «наиболее виноватым», потому что он двигался со скоростью 40 в зоне 25 и потому что он приближался по правой полосе поворота, но вместо того, чтобы повернуть справа перешел на сквозную полосу и проехал перекресток на скорости. Некоторые подробности можно найти в Отчет CA DMV. Никакие цитаты не были выпущены, но событие все еще может быть расследовано.

Реконструкция события предполагает, что автомобиль Cruise надеялся совершить левый поворот — знаменитый «незащищенный левый поворот», который многие команды сочли проблемой. Prius приближался по полосе, которая требует поворота налево, за исключением автобусов и такси, и автомобиль Cruise предположил, что автомобиль действительно собирается повернуть направо и что он может повернуть первым до того, как Prius туда доберется. Prius не был такси, но неизвестно, был ли Cruise уверен в этом или основывал решения на этом. Похоже, Круз предсказал, что машина замедлится, оставив ей время для поворота, и начал свой поворот.

Prius не замедлялся, поэтому система прогнозирования Круза посчитала, что если автомобиль Cruise продолжит свой поворот, а быстрый Prius также повернет, Prius врежется в Cruise. Таким образом, Cruise сделал то, что считал правильным с точки зрения консерваторов, а именно резко остановился на перекрестке, что позволило бы Prius сделать все правильно.

Приус этого не делал. Фактически, он вернулся в сквозную полосу и продолжил движение до перекрестка. Можно предположить, что он всегда намеревался ехать прямо, а теперь, возможно, пытался объехать машину, остановившуюся на перекрестке. Этого не произошло, и он попал в заднюю часть автомобиля Cruise, в результате чего обе машины получили легкие травмы.

Круз признал, что их программное обеспечение действовало неправильно в подача в НАБДД, но обвиняя в аварии Prius из-за его высокой скорости и движения по неправильной полосе. Круиз-болт мог бы предотвратить аварию, либо не остановившись и не завершив свой поворот, либо вообще не попытавшись повернуть. Большинство робокаров консервативны и не совсем готовы избегать аварий за счет увеличения скорости, поскольку это может привести к другим проблемам.

Круз отказался отвечать на большинство вопросов об этом событии, кроме того, что указано в их документах. Как говорится в документации, автомобиль находился в «автономном режиме без водителя», и круиз подтверждает, что на борту не было водителя безопасности. В полицейских отчетах говорится, что в задней части Bolt находились 3 пассажира (бесплатно), и один из них ненадолго попал в больницу с легкими травмами. В «Приусе» находились двое, которым оказали помощь на месте происшествия. Поскольку этот пассажир не сообщил прессе, возможно, Круз предложил этому человеку побудить его не делать этого. Круиз не требует NDA от гонщиков.

Круз заявил, что эта проблема была очень редкой и произошла только один раз из более чем 120,000 3 незащищенных левых поворотов. (Но см. ниже, чтобы понять, хорошо ли это.) Через XNUMX дня они выпустили обновление программного обеспечения, которое, по их мнению, устраняет проблему. Они признают, что обязаны сделать больше, чтобы избежать аварии, даже когда другие участники дорожного движения ведут себя плохо, и это хорошая философия. Большинство команд самоуправляемых автомобилей пытаются создать ситуации с неустойчивыми другими водителями в симуляторе и пытаются найти все их варианты, какие только могут. Эта ситуация, безусловно, сейчас в симуляторе Круза, а также в симуляторах любой другой крупной команды, которая читает новости, если у них ее еще нет.

Об отзыве

Любопытно, что Круз назвал это конкретное обновление программного обеспечения «отзывом» и подал фактическое уведомление об отзыве в NHTSA. Cruise и все остальные команды постоянно обновляют программное обеспечение для устранения проблем, хотя, к счастью, очень редко удается решить проблему, вызвавшую аварию. Они не пропускают это через механизм отзыва. Механизм отзыва кажется неподходящим по многим причинам:

  1. Круз фактически не отзывал транспортные средства, т.е. попросить вернуть их в сервисный центр для ремонта. Он просто использовал свой обычный процесс обновления программного обеспечения по воздуху.
  2. GM/Cruise никогда не продавала эти автомобили, она владеет ими и эксплуатирует их, поэтому не может быть отзыва их у покупателя.
  3. Процесс отзыва сложен и бюрократичен, и определенно не может использоваться для каждого обновления программного обеспечения, даже для обновлений, которые устраняют проблему безопасности. Почти все обновления программного обеспечения устраняют ту или иную проблему безопасности, но не ту, которая фактически вызвала (а не могла вызвать) сбой.

Имеет смысл сообщать об этих авариях и их исправлениях, и действительно, об этой аварии было сообщено в Калифорнийский DMV, полицию и NHTSA задолго до отзыва. NHTSA запросило или приняло отзыв некоторых других изменений программного обеспечения, и ему необходимо пересмотреть и оптимизировать этот процесс. Хотя NHTSA имеет право регулировать безопасность автомобилей, продаваемых в США, менее ясно, какие полномочия они имеют в отношении автомобилей, которые не продаются. Стоит отметить, что буквально за день до этого происшествия компания Cruise получила разрешение — но еще не начала — продавать аттракционы на своих автомобилях, и, возможно, имеет смысл регулировать автомобили, на которых продаются аттракционы (хотя это может быть скорее состояние имеет значение, если они не пересекают границы штата.)

Ранее, когда Pony.AI попал в аварию на одном из своих беспилотных автомобилей, DMV отозвал у них разрешение на работу в этом состоянии. В случае с Пони, это была одиночная автокатастрофа, явно по вине их автомобиля. Различные обстоятельства могли привести к различным действиям или бездействию DMV.

Аварии с роботами бывают разные

Эта авария говорит нам кое-что о другом характере несчастных случаев с роботизированными автомобилями. Первоначальные реакции показывают, что Круз может быть менее зрелым, чем хотелось бы. Waymo попала в аварию по вине в 2016 году, через 7 лет после начала их проекта, но без травм. С тех пор у них было очень мало, хотя они только недавно совершили тяжелую езду по такой территории, как Сан-Франциско. В последнее время у круиза было множество неприятных ошибок, в том числе необычная остановка полиции, группы автомобилей, останавливающихся из-за ошибки связи с сервером, инцидент с пожарной машиной, жалобы на посадку/высадку в середине пути. улице и замерзнуть в начале поездки для репортера Today Show. Это больше, чем мы слышали о Waymo и других, и поэтому мы надеемся, что это просто прорезывание зубов. У каждой команды будут проблемы, и на самом деле у каждой команды будут сбои, и важна частота, с которой они происходят.

Круз заявил 12 сентября, что они проехали около 300,000 250,000 миль службы роботакси без водителя в Сан-Франциско, и в июне они сделали бы меньше. Это не очень хорошо, потому что водители-люди, как правило, попадают в аварии с травмами на каждый миллион миль вождения. В то время как у Круза может быть меньше ошибок, чем у водителя Prius, это не так хорошо, как хотелось бы. (Авария после, скажем, 4 4 миль не означает, что они не проедут миллион миль до следующей, но это не очень хорошее предзнаменование.) С другой стороны, в целом они проехали XNUMX миллиона миль (с безопасными водителями). , Поскольку водители безопасности вмешивались в любые проблемы на протяжении XNUMX миллионов миль, мы не знаем, какова была реальная частота аварий для этой системы, которая также была более старой и худшей системой по сравнению с последней. хорошо, что ТеслаTSLA
сообщает, что ее клиенты безопасно проехали 30 миллионов миль с Tesla FSD очень низкого качества, и не появлялось никаких сообщений о каких-либо серьезных авариях, особенно о травмах.

Однако уникальный аспект роботов был отмечен выше. Круиз устранил эту проблему за 3 дня и больше такого не повторится, по крайней мере так. Другие компании, вероятно, добавили это в свои симуляторы, и с ними этого тоже не произойдет. Компании создают огромные библиотеки сценариев симуляции (и даже в проекте, который я помогал инициировать, торгуют ими). ​​Когда они делают это, у них есть алгоритмы для «фаззинга» сценария, что означает настройку всех параметров по-разному. Они будут пробовать это с другим автомобилем на разных скоростях или менять полосу движения в разное время. Они попробуют это с автомобилем Cruise, действующим по-другому. Они попробуют его с пешеходами, выполняющими разные действия на перекрестке, чтобы проверить, не возникает ли проблем в тысячах вариантов.

Это не похоже на людей. Если человек попал в такую ​​​​аварию — а они случаются — уроки этого человека не научат никого из других. В лучшем случае со временем город может улучшить правила на полосах или скорость, но это потребует многих инцидентов. Какие бы ошибки ни совершали роботы, они, как правило, только исправляются.

Людям становится хуже. В то время как большинство людей считают, что молодые водители самые дикие и попадают в наибольшее количество аварий, именно 80-летние водители на самом деле убивают себя больше всего — график имеет трагическую форму буквы «U». Отчасти это связано с тем, что пожилые водители более слабы, но также было обнаружено, что они чаще попадают в аварии по мере того, как их способности ослабевают. В частности, как это ни странно, они чаще попадают в аварии, когда машина сбивает их, а не машину, которая наносит удар, хотя это все равно их вина, из-за подобных ситуаций в незащищенных левых поворотах. Роботы должны превосходно оценивать физику таких ситуаций, но система Круза сделала слишком много предположений.

Это также классический пример проблемы предсказания. Хотя мы все время говорим о датчиках в мире робомобилей, распознавание — это не цель, а средство для достижения реальной цели — предсказания. Неважно, где что сейчас, важно, где оно будет в ближайшем будущем. Круз недооценил, куда может пойти Prius, а также что с этим делать, когда ситуация изменится. Я подозреваю, что машина Круза не запрограммирована на такие вещи, как мчаться вперед, чтобы избежать аварии, или даже на то, чтобы давать задний ход. У нас нет данных о том, была ли за Круизным болтом машина, но одна вещь, которую делают роботы, это смотреть во все стороны сразу, и если бы позади было чисто, машина могла бы действовать намного быстрее, чем человек, который бы должны проверить зеркало и добраться до переключения передач. Электрический автомобиль и разгоняться очень быстро и вовремя, роботизированные электромобили должны быть очень проворными, чтобы избегать аварий — если они осмелятся.

Я говорю, если осмелятся, потому что большинство компаний очень консервативны. Они не хотят делать внезапных движений, которые могут ухудшить ситуацию, даже с обзором на 360 градусов. В частности, многие внезапные действия такого рода технически незаконны, и они не хотят преднамеренно нарушать закон, особенно если это может пойти не так. Например, пешеходы могут неожиданно выйти из-за вещей в любой момент. Если они прыгают перед вами, это не ваша вина, но если вы находитесь на тротуаре, чтобы избежать аварии, это другая история. (Нет, машины никогда не будут выбирать, кого сбить, если им придется выбирать между двумя людьми, это распространенный миф и раздражающий вопрос, не то, что происходит на самом деле.)

Со временем роботы должны стать лучше людей в этой ситуации. Они станут лучше предсказывать диапазон вещей, которые будут делать другие автомобили. Автомобиль должен был постоянно говорить: «Что я буду делать, если этот парень не повернет, как того требуют правила», и следить за тем, чтобы можно было предпринять какое-то действие, например, ускориться в повороте или дать задний ход. Если нет действия, которое могло бы сработать, а риск имеет достаточно высокую вероятность, машина будет ждать, но в идеале возможное действие будет. Необходимо допустить некоторый риск несчастного случая, когда другие действуют беспорядочно. Осторожное вождение — это хорошо, но полностью оборонительный водитель будет с осторожностью блокировать дороги, что не решит проблему.

Прочтите / оставьте комментарии здесь

Источник: https://www.forbes.com/sites/bradtempleton/2022/09/14/cruise-recalls-robotaxis-after-crash-but-the-recall-is-the-wrong-mechanism/