[Перевод] Чего не видит беспилотный автомобиль: анализ сырых видеоданных

Лучшие публикации за сутки.
image

Могут ли современные системы беспилотной езды обнаруживать и распознавать окружающие объекты, а затем предсказывать их поведение? Могут ли они понимать значение спонтанных событий и действовать безопасно и решительно (как водитель-человек)?

Это вопрос на 64 миллиарда долларов, на который ни у кого из нас пока нет ответа.

Впрочем, это не значит, что нет никаких зацепок. Многие технологические компании, компании занимающиеся беспилотным транспортом и многие стартапы демонстрируют уровень готовности своего ПО для беспилотной езды с помощью публикации видеоматериалов о городских поездках их беспилотных автомобилей. Проблема этих роликов в том, что зачастую они либо смонтированы, либо ускорены. В описании этих видео приводятся города, в которых велась съемка, но не упоминаются время суток и день недели, когда был снят ролик.

Intel и Mobileye выделяются на фоне других технологических компаний и компаний, занимающихся беспилотным транспортом. Mobileye опубликовала два неотредактированных ролика – один был представлен в январе на Consumer Electronics Show, а другой выложен в сеть в мае. Ключевое слово – «неотредактированных» (видео представлены ниже).

Оба ролика были сняты на оживленных улицах Иерусалима. Более того, в каждом видео представлены три видеокомпонента: видеозапись с дрона, видео от лица водителя (показывает действия системы и вид на улицу) и ПО для визуализации, которое отображает то, что видит система восприятия автомобиля;
Читать дальше →

Добавить комментарий

Ваш адрес email не будет опубликован.