Уведомления
Авторизуйтесь или зарегистрируйтесь, чтобы оценивать материалы, создавать записи и писать комментарии.
Авторизуясь, вы соглашаетесь с правилами пользования сайтом и даете согласие на обработку персональных данных.
Смертельное ДТП показало неспособность автопилота Tesla контролировать водителя
Судя по отсутствию человека на водительском сиденье, машиной управлял автопилот. В теории он отслеживает наличие человека за рулем и без него не едет. Но на практике человек всегда может обмануть компьютер. Неспособность компьютера контролировать человека в описываемом случае привела к печальным последствиям. Несмотря на это, по последним данным, автопилот Tesla снижает риск попасть в аварию в девять раз. Впрочем, с одним нюансом.
Согласно сообщению телеканал KHOU-TV, близ Хьюстона произошло ДТП с участием Tesla Model S. Машина вылетела с дороги на крутом повороте, врезалась в дерево и загорелась. Тушение пожара заняло длительное время, в итоге в машине обнаружили тела двух пассажиров. Ни одно из них не было на водительском сиденье. Судя по параметрам ДТП, оба погибших вряд ли могли двигаться сразу после удара о дерево. Из этого местные власти делают вывод, что машина ехала на автопилоте.
В норме «теслы» не едут, если на водительском сиденье нет человека. Чтобы убедиться, что он есть, от водителя требуются периодические касания руля. Некоторые машины компании еще контролируют наличие человека за рулем камерой. Однако ряд владельцев этих машин обходят ограничения. Для имитации касания руля они приматывают к нему скотчем полупустую банку с напитком: на ухабах банку покачивает, и она слегка качает руль, обманывая автопилот. Другие сажают самодельное чучело на водительское сиденье и едут рядом. Камера не может отличить муляж в темных очках от человека и позволяет такую езду. Разумеется, подобные действия небезопасны, но убедить в этом всех владельцев машин не представляется возможным в силу известных особенностей человеческой природы.
Случившееся подчеркивает главную слабость всех автопилотов, существующих на планете: ими управляют алгоритмические компьютеры. Реальными машинами управляют люди, природа мышления которых неизвестна, но ясно, что она не алгоритмична. Чтобы понять, как действовать, автопилоты сравнивают вид дороги перед собой с заложенными в ПО алгоритмами поведения на той или иной дороге. Значит, если алгоритмы распознавания дорожных условий дадут ошибку, то компьютер отреагирует неверно: как в нашем случае, когда он «не увидел» изгиб дороги и вылетел с нее. Пока не ясно, как можно решить эту проблему. Компьютеров, способных мыслить не алгоритмами, осознавать окружающую реальность, а не перебирать запрограммированные варианты, не понимая, что они описывают, еще нет. И придумать их сейчас невозможно, поскольку нет никакой ясности, как работает сознание у людей.
В то же время следует отметить, что у автопилота Tesla в итоге неплохая общая статистика аварийности. Согласно отчету компании за первый квартал 2021 года, машины под управлением ее автопилота попадали в аварию один раз на 6,74 миллиона километров пробега. «Теслы», владельцы которых не заплатили за автопилот при покупке (Илон Маск называет это «пассивный автопилот»), показали одну аварию примерно на 3,2 миллиона километров. Такие машины включают тормоза перед препятствием, которое не заметил человек-водитель, но только в последний момент. Машины компании без включенного автопилота и «пассивного автопилота» показали одну аварию на 1,6 миллиона километров пробега.
В среднем для США одна авария приходится на менее чем 0,8 миллиона километров пробега. Это дало Маску основания для громкого заявления о том, что ездить на автопилоте чуть ли не в десять раз безопаснее, чем без него. Между тем, это не совсем корректно. Да, аварийность «тесл» на автопилоте примерно в девять раз ниже, чем у среднестатистического американского водителя на среднестатистической американской машине. Но это нечестное сравнение. Из статистики выше заметно, что средняя «тесла» безо всяких черт автопилота становится участником ДТП вдвое реже обычной американской машины. Это происходит потому, что у нее весьма эффективная тормозная система и ряд других особенностей, связанных с риском попадания в аварию. Честное сравнение может быть только между «теслами» без черт автопилота и ими же, но с автопилотом. Оно показывает, что на сегодня автопилот в четыре с лишним раза безопаснее вождения вручную.

В то же время, при всей правоте этого тезиса, смерти, подобные описанным выше, определенно не исчезнут окончательно еще долгие годы. Автопилот действительно снижает аварийность, но за счет того, что не делает «человеческих» ошибок. Зато он делает — хотя много реже людей — собственные ошибки, которые человек может совершить весьма нечасто.
Сам глава Tesla Илон Маск недавно успел заявить: он уверен, что его машины будут ездить безопаснее авто с «живым» водителем уже в этом году. Если исходить из общей аварийности, то это, как мы видим, свершившийся факт. Но на практике сомнительно, что все люди станут доверять автопилоту, которые делает свои, «нечеловеческие» ошибки и вылетает с дороги. Скорее всего, и власти будут с большой неохотой разрешать езду на полном автопилоте. Даже несмотря на то, что она менее аварийна, чем езда «живого» водителя.
Польские исследователи впервые продемонстрировали, как три чистых нитрофенола — или их смесь, образующаяся в том числе при приготовлении шашлыка — влияют на клетки легких человека.
Биологи впервые смогли использовать метод генной модификации CRISPR для насекомых. Испытывая новый подход, они создали новые линии ГМ-жуков и тараканов.
Хотя обычно кошки ведут себя более отчужденно, чем собаки, они куда сильнее привязаны к людям, чем нам кажется. В новом исследовании японские ученые выяснили, что эти питомцы не только помнят собственные имена, но и заучивают клички других знакомых кошек, а также людей, с которыми они живут рядом.
Космическую компанию Илона Маска в шутку иногда называют пиротехнической — так часто ее изделия взрываются во время испытаний. Пара свежих инцидентов на тестовом полигоне в городе Макгрегор лишь подтверждают эту славу. Не успели фанаты космонавтики наладить онлайн-трансляцию из этой локации, как запечатлели сразу два взрыва подряд с промежутком всего в десятки часов.
Авторы нового исследования проверяли, насколько выполнение второстепенного задания влияет на аргументы, которые выдвигали люди, говорящие правду или неправду.
Один из самых археологически изученных ландшафтов в мире до сих преподносит сюрпризы.
Местные чиновники пытаются переложить ответственность за случившееся на резкое уменьшение турпотока из-за коронавируса, но цифры показывают, что ключевая проблема совсем в другом. В 2019 году на выборах в этой стране победил президент — сторонник модных зеленых идей. Вскоре там запретили продажу минеральных удобрений и двинулись к «устойчивому сельскому хозяйству». Как именно популярные «органические» идеи повлияли на еще не так давно быстро растущую местную экономику? И почему уроки шри-ланкийской трагедии могут пригодиться даже Западу и России?
Крупнейшие патентные ведомства мира десятилетиями или веками принципиально игнорируют любые конструкции, нарушающие начала термодинамики. С точки зрения здравого смысла это хорошо, но конспирологи и гении-самоучки считают иначе. По их мнению, такая политика стала результатом заговора (подставьте сюда любое вымышленное или не очень секретное общество либо лобби). Что ж, похоже, Роспатент встал на их сторону.
С помощью GPS-трекинга ученые проследили за перемещениями целой популяции домашних кошек в небольшом норвежском городке. Оказалось, питомцы редко уходят от дома далее 50 метров и почти не совершают длительных прогулок.

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.
Понятно
Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.
Понятно
Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.
Понятно
Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.
Понятно
Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.
Понятно
Комментарии