Спор о том, задавит ли Tesla FSD ребенка или манекен, упускает суть

A недавнее видео от ТеслыTSLA
Критик Дэн О'Дауд из «Проекта Рассвет» показывает тестовую трассу с дорогой из конусов. Там водитель, использующий прототип FSD Теслы, подъезжает к детскому манекену и врезается в него. Утверждается, что Telsa FSD ненадежно тормозит для детей. Критики О'Дауда утверждали, что видео было сфальсифицировано или плохо создано, а некоторые сделали свои собственные демонстрации, в том числе, ко всеобщему огорчению, проведя тест с настоящими живыми детьми-«добровольцами». Мало кто задумывался над тем, должен ли такой прототип, как Tesla FSD, надежно тормозить для детей, что является действительно интересным вопросом.

О'Дауд часто писал, что хочет, чтобы Tesla FSD была запрещена. Я освещал его кампанию ранее, и недавно он баллотировался в Сенат Калифорнии исключительно для того, чтобы запустить рекламу кампании против Tesla FSD. Он, естественно, вызвал гнев Илона Маска и активного сообщества сторонников Tesla. Таким образом, был немедленный спарринг. Исходное видео, указанное выше, не показывало, что FSD активирован, хотя более поздние выпуски показали, что это так. Некоторые предположили, что трудночитаемые изображения на экране говорили о том, что водитель держал педаль нажатой. Другие данные показывают, что автомобиль замедляется или выдает предупреждения, и споры о том, насколько реальна демонстрация, ходят взад и вперед.

РЕКЛАМА

Демонстрация была выбрана как провокационная, ведь нет ничего страшнее, чем наезд автомобилей на детей. Ежедневно в США в автомобильных авариях гибнет 3 ребенка, и каждый год около 170 детей-пешеходов погибают под колесами автомобилей. Для многих реакция такова, что никакая технология, которая когда-либо задавила бы ребенка, неприемлема. НХТHT
SA начала расследование развертывания Tesla Autopilot (который является выпущенным продуктом) и начинает изучать прототип FSD. Другие, такие как Ральф Нейдер, также призвали убрать прототип FSD с дороги. После того, как очень небольшое количество людей повторили тест с реальными детьми, НАБДД выпустило предупреждение не делать этого, и Youtube выложил видео людей, которые это делают. Сообщается, что Tesla попросила также удалить видеозаписи столкновения их автомобиля с испытательным манекеном. The Washington Post сообщает, что увидела письмо от Tesla о прекращении действий.

Этот вопрос очень сложен, и, как это обычно бывает, никто не понимает его правильно. Система FSD хоть и называется бета-версией, но более точно ее можно назвать прототипом. По мнению большинства разработчиков, самоуправляемые прототипы (и бета-версии) действительно нуждаются в большом количестве испытаний в дороге, и каждая команда делает это, а люди-«водители безопасности» следят за системой и регулярно вмешиваются, когда она допускает ошибки, чтобы предотвратить инциденты. Tesla необычна тем, что позволяет обычным клиентам участвовать в этих испытаниях, в то время как во всех других компаниях есть сотрудники с определенным уровнем подготовки, выполняющие эту задачу, и обычно на каждое транспортное средство приходится по 2 сотрудника.

Прототипы по своей природе дают сбои, в том числе по таким важным вещам, как остановка для пешеходов на дороге. Каждая команда, от лучших, таких как Waymo, до худших, выпускала на дороги автомобили, которые регулярно делали бы что-то серьезное, если бы не вмешательство., и большинство считает, что тестирование таких автомобилей на ранней стадии было и по-прежнему необходимо для достижения прогресса и, в конечном итоге, развертывания автомобилей. После развертывания автомобили будут иметь гораздо более высокое качество и спасать жизни — многие из них — поэтому все хотят, чтобы это развертывание произошло как можно скорее, но есть много вопросов для обсуждения о том, как мы доберемся до этой точки и когда мы ее достигнем. Это.

РЕКЛАМА

Помощь водителю в сравнении с самостоятельным вождением

В дополнение к вопросу о том, является ли хорошей идеей использование Tesla клиентов для тестирования своего прототипа, многие вопросы связаны с разницей между системами помощи водителю, в которых человек полностью вовлечен в вождение, но наблюдает за системой, а не физически перемещается. средства управления и системы автономного вождения, где не требуется надзор со стороны человека (и действительно, транспортное средство может двигаться без никого в нем).

Многие инсайдеры отрасли считают, что это две довольно разные вещи, и что со стороны NHTSA было ошибкой объявить их просто двумя разными «уровнями» технологии автоматизации. Стерлинг Андерсон, соучредитель компании Aurora по самостоятельному вождению, считает, что переход от помощи водителю (или ADAS, расширенная помощь водителю) к самостоятельному вождению — это все равно, что пытаться добраться до Луны, строя более высокие лестницы.

Первой большой продвинутой системой помощи водителю, которая позволяла человеку снять ноги с педалей, был круиз-контроль, в частности адаптивный круиз-контроль. Позже появилось удержание полосы движения, которое позволяло вам убрать руки с руля, и вскоре эти две функции были объединены в таких продуктах, как «Автопилот» Tesla. В качестве инструментов ADAS (помощь водителю) они предназначены для использования с полным вниманием.

РЕКЛАМА

Хотя поначалу в это поверили не все, сегодня общий вывод таков: эти системы работают и не создают опасности на дороге. Поначалу люди сомневались даже в простом круиз-контроле, но вскоре он стал обычным явлением в автомобилях.

Tesla Autopilot вызвал новые вопросы по целому ряду причин, но самая интересная проблема связана с тем фактом, что он явно превосходит по функциональности более ранние продукты, включая более простые круиз-контроли, но это превосходство на самом деле может сделать его более опасным и, следовательно, хуже. Возникает странный парадокс: чем лучше система, тем хуже может быть результат, потому что более совершенная система вызывает «автоматизацию самоуспокоенности», когда надзирающий водитель уделяет меньше внимания дороге. (Некоторые также считают, что названия Tesla «Автопилот» и FSD поощряют это самоуспокоенность, и публичные сообщения об этих продуктах также способствуют этому.)

Это плохой парадокс. Мы хотим разрабатывать лучшие системы, но если система в целом становится хуже по мере того, как вы делаете ее лучше, гораздо сложнее получить действительно хорошие системы, поскольку вы путешествуете по долине опасностей, где все ухудшается, прежде чем станет лучше. Сегодня мы бы никогда не упрекнули стандартный круиз-контроль в том, что он заденет ребенка или пробьет красный свет — те системы были намного проще и вообще не имели возможности избежать подобных ошибок. Но многие хотят обвинить гораздо более совершенную систему, которая останавливается перед большинством препятствий, потому что она не останавливается на 100 % — даже несмотря на то, что ни одна система никогда не будет настолько совершенной, чтобы избежать 100 % ошибок, и хотя люди также не будут совершенны.

РЕКЛАМА

Я участвовал в разработке первых в мире законов об испытаниях на самостоятельное вождение в Неваде и Калифорнии. Игроки сошлись во мнении, что должны быть какие-то основные правила о том, как проводить тесты на дорогах (прежние правила не запрещали это, поскольку, конечно, никто никогда не думал об этом). В то же время автопроизводители, продающие инструменты ADAS, не хотят, чтобы их автомобили ADAS подпадали под действие правил испытаний на самостоятельное вождение, поэтому работа ADAS была исключена как не подпадающая под действие этих правил.

В частности, в Калифорнии это создало открытый вопрос. Все тесты на самостоятельное вождение (за некоторыми недавними исключениями) проводятся под наблюдением безопасного водителя. Таким образом, это очень похоже на вождение автомобиля ADAS. В законе не было четкого различия, что создало некоторые интересные ситуации. Энтони Левандовски, который также участвовал в разработке регламента, позже возглавил Uber.UBER
АТГ. Он заявил, что, поскольку все их автомобили в то время работали только с безопасным водителем, это был ADAS, и Uber не нужно было следовать правилам тестирования самостоятельного вождения. Калифорнийский DMV сказал нет, что согласно этой логике никто не тестировал самостоятельное вождение, и это не было целью закона. Они сказали Uber, что им нужно зарегистрироваться в качестве тестовых автомобилей с автоматическим управлением, иначе они будут снимать номерные знаки автомобилей Uber, используя свои особые способности. Убер подчинился.

РЕКЛАМА

DMV придерживается подхода, согласно которому, если вы пытаетесь создать систему автономного вождения, даже если она была незавершенной на раннем этапе, которая нуждалась в контроле и всегда находилась под наблюдением, вы должны считаться компанией, занимающейся испытаниями беспилотного вождения, работающей по правилам.

Несмотря на это, Тесла продолжает прежний подход. Поскольку у Tesla определенно есть продукт ADAS, они никогда не сообщают о проведении тестов на самостоятельное вождение перед штатом. До сих пор DMV не обращал на это внимание — даже тестирование Tesla FSD сотрудниками Tesla, которое очень трудно отличить от того, что они остановили Uber. DMV вполне может регулировать это. Но как насчет использования клиентами, где это официально (если вы читаете мелкий шрифт и игнорируете название) инструмент помощи водителю?

Но вроде работает

Основным решением для этого были способы обеспечения того, чтобы внимание надзора оставалось высоким. Для этого существуют различные методы, в том числе наблюдение за водителем различными способами и придирки к нему, если он не обращает внимания, или, как было отмечено, наличие обученных профессиональных водителей или даже их команды, которые несколько раз смотрят на дорогу. На протяжении многих десятилетий мы обучали водителей-подростков в автошколах с инструктором, который может схватиться за руль и иметь собственный тормоз, чтобы остановить машину, и эта система работала очень хорошо.

РЕКЛАМА

Сильный вывод до сих пор заключается в том, что это работает. Показатели безопасности крупных компаний, занимающихся беспилотным вождением, таких как Waymo, являются образцовыми. Waymo сообщила о более чем 20 миллионах миль испытаний с участием безопасных водителей в 2021 году, и за это время у нее было, возможно, 2 аварии по вине. В среднем за этот период с людьми случается около 40 несчастных случаев. Точно так же, как студенты вождения с инструкторами по вождению справляются намного лучше, чем водители, недавно получившие лицензию, система мониторинга явно работает, и эти транспортные средства на самом деле представляют меньший риск для населения, чем аналогичное вождение обычными людьми.

По крайней мере, в США, если никто не пострадает — или, по крайней мере, если уровень риска ниже, чем при обычном вождении, — деятельность, как правило, не будет регулироваться. Подход США гораздо более разрешительный — вам не нужно доказывать, что то, что вы делаете, безопасно, но если это окажется небезопасным, вас могут остановить и привлечь к ответственности за причиненный вами вред. Некоторые другие страны требуют, чтобы регулирующие органы заранее принимали решение о том, безопасно ли что-либо, а это гораздо более высокая планка, которая гораздо менее способствует инновациям.

Конечно, в одном известном случае подход безопасного водителя привел к летальному исходу, когда автомобиль Uber ATG сбил пешехода в Аризоне. Расследование NTSB и более поздние судебные дела показали, что водитель безопасности проявил небрежность (она смотрела телевизор вместо того, чтобы выполнять свою работу), хотя Uber также обвиняли в плохой культуре управления своими водителями безопасности, что способствовало этой ошибке. Однако важным выводом является то, что система безопасного вождения работает и сама по себе не подвергает общественность чрезмерному риску, хотя очевидно, что водители-человеки могут проявлять небрежность и создавать высокий риск.

РЕКЛАМА

Это система с обученными платными водителями. Tesla идет еще дальше и поручает работу обычным клиентам. Был ряд инцидентов, когда водители Tesla явно небрежно контролировали продукт Autopilot, и имели место аварии, в том числе со смертельным исходом. Однако автомобили Tesla с автопилотом проезжают гораздо больше миль, чем любая команда самоуправляемых автомобилей, поэтому наличие негативных и даже трагических событий не обязательно свидетельствует о том, что система подвергает общественность большему риску.

Каждый квартал Tesla публикует вводящую в заблуждение статистику, в которой говорится, что водители, использующие автопилот, имеют лучшие показатели безопасности, чем те, кто этого не делает, даже несмотря на то, что некоторые пользователи автопилота проявляют халатность. Хотя эти цифры равносильны лжи, Я и другие пытались реконструировать реальные цифры, и реальные цифры не так уж плохи и предполагают, что у пользователей автопилота такие же показатели безопасности, как и у тех, кто не является пользователем. Хотя это не лучше, но и не подвергает людей дополнительному риску. Результат достаточно близок к тому, чтобы НАБДД провело расследование аварий Tesla с автомобилями скорой помощи. Неизвестно, примут ли они предупредительный подход или посмотрят на общие показатели безопасности.

Многие предполагают, что Tesla могла бы улучшить свои показатели за счет лучшего мониторинга водителей. Стандартный мониторинг просто требует от водителя регулярного приложения силы к рулю. У других компаний есть камеры, которые следят за глазами водителя, чтобы убедиться, что он следит за дорогой — если бы Uber ATG сделал это, они бы предотвратили их гибель. Недавно Tesla также начала использовать мониторинг взгляда водителя.

РЕКЛАМА

Следует отметить, что расчет, который показывает безопасность автопилота Тесла как подобную обычному вождению, является утилитарным. На самом деле это сочетание более высокого уровня аварийности среди небольшой группы нерадивых пользователей автопилота, которые игнорируют дорогу или погружаются в автоматизацию, и лучших показателей безопасности у тех, кто усерден. У нас с этим философские трудности — нам не нравится, когда некоторые люди подвергаются более высокому риску, даже если больше людей подвергается более низкому риску. Нам это настолько не нравится, что мы можем лишать прилежных людей инструмента, делающего их более безопасными для защиты нерадивых, хотя это и не наша цель.

Что насчет ФСД

Приведенные выше данные относятся к автопилоту, который является транспортным продуктом. Tesla FSD не является транспортным продуктом. Они называют это «бета» (это почти законченный продукт на последнем этапе тестирования перед выпуском), но это совсем не так. Теперь у них есть более 100,000 15,000 владельцев Tesla, которые пытаются это сделать. Чтобы использовать его, владелец должен заплатить комиссию (сейчас она достигает XNUMX XNUMX долларов США), чтобы предварительно заказать возможную систему FSD и пройти своего рода тест на безопасное вождение, чтобы быть допущенным к группе тестирования. Экзамен по безопасному вождению в значительной степени фальшивый и не проверяет, что вы на самом деле хотели бы для этой задачи, но это означает, что не все, кто платит, получают его.

Они предупреждают водителей, что в системе было много ошибок и она нуждается в постоянном наблюдении, подобно ADAS, говоря: «В самый неподходящий момент она сделает что-то не так». Это довольно четкое утверждение, но в то же время название «полное самостоятельное вождение» явно вызывает в воображении образ, отличный от ADAS. Я ездил с этой системой и оценил ее работу как систему автономного вождения, как довольно плохую.

РЕКЛАМА

Тем не менее, несмотря на интуитивные предположения об обратном, подход Теслы, кажется, работает. С 100,000 XNUMX водителей система проходит миллионы миль эксплуатации (хотя общедоступных данных о том, как часто каждый водитель использует систему, нет). системы, и только небольшое количество незначительных инцидентов стало достоянием гласности. Хотя некоторые тестировщики Tesla FSD являются такими большими поклонниками Tesla, что могут скрыть произошедшую с ними аварию, крайне маловероятно, что происходит значительное количество крупных аварий, и ни одна из них не раскрывается. Любые серьезные несчастные случаи, о которых сообщает полиция, особенно несчастные случаи с травмами, скорее всего, привлекут внимание, как это происходит с автопилотом.

И все же мы их не видим. Хотя это не настоящий научный анализ, кажется вероятным, что программа Tesla FSD в настоящее время не подвергает общественность риску. Это может быть связано с тем, насколько плоха система. Большинство водителей знают, что было бы очень глупо не обращать внимания на эту систему в ее нынешнем состоянии. Возможно, когда станет лучше, это изменится. Если взять базовый круиз-контроль, который намного примитивнее, он работает, потому что при его использовании никто не посмеет не обращать внимания на дорогу.

РЕКЛАМА

Именование Теслы

Тесла не помогает себе с названиями своих продуктов. Многие критически относятся к автопилоту как к названию, потому что (ложное) общественное мнение состоит в том, что автопилоты самолетов управляют самолетом самостоятельно. На самом деле, автопилот самолета — это гораздо, гораздо более простая система, чем автомобильный автопилот Теслы, и он работает только потому, что в воздухе вы очень далеки от того, с чем можете столкнуться. Однако это не останавливает ложное общественное мнение. С ФСД еще хуже. Это еще не уровень самостоятельного вождения, даже близко, и уж точно не «полный». Эта путаница привела к тому, что Waymo отказалась от использования термина «беспилотное вождение» для описания своего продукта из-за опасений, что Tesla неправильно определила этот термин в общественном сознании.

Tesla действительно не нуждается в дополнительной шумихе для своих продуктов. Они продают все, что могут сделать. Вызывает недоумение, что они намеренно используют эти имена, а не преуменьшают и преувеличивают. Они избавили бы себя от большого количества горя — кроме того, что «любая реклама — это хорошая реклама».

Так ничего страшного, если Тесла столкнется с манекеном размером с ребенка?

Удивительный ответ — «вероятно». Все системы тестовых прототипов будут делать подобные вещи, и, если не считать запрета на все испытания прототипов, невозможно требовать совершенства даже в такой вызывающей воспоминания проблеме, как сбои с детьми. Трудно создать режим регулирования, запрещающий Tesla FSD, который также не запрещал бы или не замедлял развитие очень важной технологии, которая со временем спасет миллионы жизней. Миллионы жизней — это не мелочь, это будет одно из величайших достижений в области безопасности в истории человечества.

РЕКЛАМА

В лучшем случае мы могли бы попытаться определить вещи так, чтобы те, кто курирует такие тестовые системы, соответствовали определенным критериям. Мы могли бы настаивать на том, чтобы они получали лучший мониторинг (что и делает Тесла). Мы могли бы попросить их быть профессионалами или пройти тест, но тогда мы бы создали орган, который определяет и проводит эти тесты, что было бы обременительно. Вы можете стать инструктором по вождению, просто сдав письменный тест и получив справку о хорошем здоровье, живой тест навыков не проводится.

Тем не менее, мы могли бы определить набор правил для того, кто может контролировать прототип системы, и это могло бы остановить деятельность Теслы. Но сделать это означало бы впасть в парадокс «чем лучше, тем больше нам это не нравится». Мы не хотим усложнять переход через эту долину, чтобы стать лучшей системой. Настоящий вопрос в том, зачем нам вообще туда идти, если никто не пострадал. В настоящее время нет сообщений о пострадавших, по крайней мере, на таких уровнях, которые указывали бы на больший риск, чем при обычном вождении. Мы не хотим попасть в ловушку запрета вещей, потому что интуитивно чувствуем, что они опасны. Мы хотим запретить только то, что действительно опасно.

Вполне возможно, что позже тестирование Tesla FSD станет слишком опасным. Это могло произойти из-за самоуспокоенности автоматизации или изменений в системе. Разумно попросить Tesla сообщить властям, сколько инцидентов произошло во время тестирования системы, чтобы мы могли знать, станет ли она опасной и когда. Подход О'Дауда «мы должны запретить это, потому что мне кажется, что это опасно» неверен, по крайней мере, в США.

РЕКЛАМА

Читайте и оставляйте комментарии здесь

Источник: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- упускает суть /