Author

Topic: Робомобили Google страдают от идиотизма.. (Read 1337 times)

hero member
Activity: 812
Merit: 502
Устройство за $60 обманывает лидар беспилотного автомобиля

Одна из самых дорогих деталей современного беспилотного автомобиля — сканирующий лидар (LiDAR, LIght Identification Detection and Ranging), который получает информацию об удаленных объектах с помощью активных оптических систем. Учитывая отражение и рассеяние световых лучей, лидар составляет трехмерную картину окружающего пространства.

К сожалению, приборы стоимостью в тысячи долларов легко поддаются взлому. Инженеры из компании Security Innovation и Ирландского национального университета в Корке показали, что можно «скормить» лидару фальшивые показания с помощью простого устройства из комплектующих за 60 долларов.

Если злоумышленник сымитирует появление «машины-призрака» в произвольной окружающей точке пространства, это заставит беспилотный автомобиль совершить резкий маневр и приведет к возникновению аварийной ситуации. Или, к примеру, можно заставить автомобиль совершить вынужденную остановку, соорудив вымышленное препятствие на его пути. Возможно, такие разработки понравятся правоохранительным органам.

Гаджет для обмана лидара состоит из лазерного излучателя низкой мощности и генератора импульсов. Пульт управления легко собрать из Raspberry Pi или Arduino, говорят авторы. Они провели эксперимент на коммерческом лидаре IBEO Lux. Как выяснилось, сигнал лидара не зашифрован и никоим образом не кодируется. Единственным затруднением было обеспечить синхронизацию отраженного сигнала с импульсами излучателя. Исследователям удалось успешно сымитировать фальшивый автомобиль, фальшивых пешеходов на расстоянии 20-350 метров, многочисленные копии различных препятствий, в том числе подвижных препятствий. «Я могу подделать тысячи объектов и реально провести DoS-атаку на систему слежения, так что она не сможет отслеживать настоящие объекты», — сказал Джонатан Пти (Jonathan Petit), один из авторов научной работы.

Научная работа с описанием способов взлома лидаров будет опубликована к конференции Black Hat Europe, которая состоится в ноябре 2015 года.

В последние годы независимые исследователи нашли способы обмануть показания GPS-навигаторов и беспроводных датчиков в шинах беспилотных автомобилей. Если автомобиль не способен получать достоверные показания сенсоров, то высокотехнологическая машина превращается в кучу бесполезной электроники или, что хуже, в боевой снаряд с дистанционным управлением.


https://xakep.ru/2015/09/07/lidar-hack/
hero member
Activity: 812
Merit: 502
....а ещё интересно: оно люки открытые объезжает, котов не давит?
слишком много переменных. такие авто предназначены для идеальных городов, где не бывает форсмажора на дорогах.
В том то и дело что для такого проекта, "слишком много переменных" не бывает, там должно быть очень много и походу движения добавлять все новые и новые..
legendary
Activity: 1470
Merit: 1002
....а ещё интересно: оно люки открытые объезжает, котов не давит?
слишком много переменных. такие авто предназначены для идеальных городов, где не бывает форсмажора на дорогах.
legendary
Activity: 2898
Merit: 1041
....а ещё интересно: оно люки открытые объезжает, котов не давит?
legendary
Activity: 2898
Merit: 1041
Никогда не сяду в тачку без шофёра. Жить ещё хочется
Тут не с каждым водилой сядешь, иногда такие далекие попадаются.
Не, лучше с водилой. Его хоть хакеры не взломают  Grin
legendary
Activity: 1372
Merit: 1003
Никогда не сяду в тачку без шофёра. Жить ещё хочется
Тут не с каждым водилой сядешь, иногда такие далекие попадаются.
hero member
Activity: 826
Merit: 501
Никогда не сяду в тачку без шофёра. Жить ещё хочется  Grin
Ну если тачка 60 км в час едет и очень безопасная, чего бы и не сесть.
Вероятность попасть в аварию за городом с такими машинами примерно такая же как с
обычным водителем. Сенсоры допилят и в городе норм будет.
legendary
Activity: 2898
Merit: 1041
Никогда не сяду в тачку без шофёра. Жить ещё хочется  Grin
full member
Activity: 182
Merit: 100
★YoBit.Net★ 200+ Coins Exchange & Dice
Я вообще не представляю, как можно запрограммировать поведение машины на дорогах. Там ведь столько нестандартных ситуаций.
это возможно только с другими такими авто
legendary
Activity: 1330
Merit: 1017
Я вообще не представляю, как можно запрограммировать поведение машины на дорогах. Там ведь столько нестандартных ситуаций.
hero member
Activity: 756
Merit: 500
Блин, прочитал название темы как - Разбомбили Google ...  Cheesy   подумал - ну всё, доигралась "корпорация добра"
hero member
Activity: 812
Merit: 502
Робомобили Google страдают от идиотизма окружающих водителей  Grin

Беспилотные автомобили Google далеки от идеала. Предстоит большая работа по улучшению программного обеспечения, внутренней логики и системы машинного зрения. Но есть одна проблема безопасности , которую Google не способна решить по определению. Непредсказуемые действия окружающих водителей — вот в чем главная причина ДТП, пишет NY Times.

В прошлом месяце один и беспилотных автомобилей Google во время испытательной поездки по городским улицам приблизился к перекрестку. Внезапно на переходе появился пешеход. В соответствии с программой машина активировала режим безопасности и замедлила ход. Оператор, который страховал машину, нажал по тормозам. Пешеход остался цел и невредим, чего не скажешь об автомобиле Google, которому в задний бампер тут же въехал седан с человеком за рулем.

Автомобили Google запрограммированы следовать букве закона, то есть они буквально выполняют все требования правил дорожного движения. Как выясняется, во многих ситуациях такое буквальное следование ПДД не является хорошей стратегией. Во время одного из первых тестов в 2009 году автомобиль Google не мог проехать нерегулируемый перекресток, потому что он стоял на стоп-линии и ждал, пока другие водители (люди) полностью прекратят движение и дадут ему проехать. Этого так и не произошло, робот стоял как парализованный.

Сейчас программу доработали, и в таких ситуациях машина трогается на несколько сантиметров вперед, наблюдая с помощью сенсорами за реакцией других автомобилей — дают ей проехать или нет. То есть вместо соблюдения правил она стала вести себя более по-человечески. Подобные настройки нужно внести в другие части программы, для чего и проводят обильные дорожные испытания в реальных условиях.

Это проблема не только Google, с тем же столкнутся и другие машин с автономным управлением. Им приходится действовать в условиях, когда окружающие водители не подчиняются в точности прописанным правилам. «Самая большая проблема в том, что эти автомобили слишком безопасны, — говорит Дональд Норман (Donald Norman), директор Donald Norman в университете Калифорнии в Сан-Диего, который изучает беспилотные автомобили. — Им придется научиться вести себя агрессивно в некоторой степени, а эта степень зависит от культуры».

дальше здесь -> https://xakep.ru/2015/09/04/humans-idiots/
Jump to: