Tesla мастер план 3

Автор Dulevo, 06.04.2023 11:20:10

« назад - далее »

0 Пользователи и 2 гостей просматривают эту тему.

BlackMokona

Цитата: Inti от 23.05.2024 07:51:12Если робо-такси поцеловало столбик - то нужно или улучшить автопилот\камеры, или изменить столбик чтобы он был лучше заметен, или не пускать автоматы на эту улицу. И так по каждой проблеме. Их число не бесконечно, особенно если запрещать проезд по наиболее рискованным улицам.


Или просто получше ПО написать/обучить  :)

Inti

Цитата: BlackMokona от 23.05.2024 07:57:31
Цитата: Inti от 23.05.2024 07:51:12Если робо-такси поцеловало столбик - то нужно или улучшить автопилот\камеры, или изменить столбик чтобы он был лучше заметен, или не пускать автоматы на эту улицу. И так по каждой проблеме. Их число не бесконечно, особенно если запрещать проезд по наиболее рискованным улицам.

Или просто получше ПО написать/обучить  :)
Дык я это включил в список. Но это не всегда легко сделать. И дело не только в ПО. Например ежели солнце лупит прямо в лоб, или проливной дождь, или туман - то даже людям трудно ездить. Т.е. нужно думать о границах применения автопилота а не полагать что все проблемы можно решить просто улучшив софт.
Новая Чёрная Дыра с полит-модерацией: https://blackhole.su/index.php?board=16.0
Новая Чёрная Дыра без полит-модерации: http://www.forum--x.ru/index.php?board=1.0

Dulevo

Тем временем две новости:

1)Tesla опубликовала новые данные по безопасности автопилота, показывающие рекордную безопасность.
В первом квартале 2024 года Tesla зафиксировала одну аварию на каждые 7,63 миллиона миль пробега, в которых водители использовали технологию автопилота, что стало новым рекордом безопасности и улучшением на 16% по сравнению с предыдущим рекордом за всю историю. Для водителей, которые не использовали технологию автопилота, Tesla зафиксировала одну аварию на каждые 955 000 миль пробега. Для сравнения, самые последние данные, доступные от NHTSA и FHWA (за 2022 год), показывают, что в США автомобильные аварии происходили примерно каждые 670 000 миль.

2) Глава NVIDEA сказал в интервью что Тесла намного впереди всех в технологиях автовождения.

nonconvex

Цитата: Inti от 23.05.2024 07:47:42
Цитата: nonconvex от 23.05.2024 07:34:10
Цитата: Inti от 23.05.2024 06:25:00Хотя я бы так лучше начал с определённых маршрутов, и постепенного замещения огромных автобусов минивэнами-роботами, которые могли бы ездить не совсем по фиксированным маршрутам а с небольшими вариациями чтобы подбирать и выгружать пассажиров где им удобнее, ну и пропускать остановки если там никто не ждёт и не высаживается. Короче, суть в том что нужно не только усложнять автопилот, но и как-то упрощать поставленные перед ним задачи.
Фиксация маршрута не поможет. Как вы думаете, почему Гугл выбрал Финикс для своего пилотного проекта?
Про Финикс я ничего не знаю.
В Финиксе сухо, жарко. Мало дождей и не бывает снега.

nonconvex

Цитата: Inti от 23.05.2024 07:51:12Если робо-такси поцеловало столбик - то нужно или улучшить автопилот\камеры, или изменить столбик чтобы он был лучше заметен, или не пускать автоматы на эту улицу. И так по каждой проблеме. Их число не бесконечно, особенно если запрещать проезд по наиболее рискованным улицам.

Ага, и так для каждой формы сугроба.

nonconvex

Цитата: Dulevo от 23.05.2024 12:28:51Тем временем две новости:

1)Tesla опубликовала новые данные по безопасности автопилота, показывающие рекордную безопасность.
В первом квартале 2024 года Tesla зафиксировала одну аварию на каждые 7,63 миллиона миль пробега, в которых водители использовали технологию автопилота, что стало новым рекордом безопасности и улучшением на 16% по сравнению с предыдущим рекордом за всю историю. Для водителей, которые не использовали технологию автопилота, Tesla зафиксировала одну аварию на каждые 955 000 миль пробега. Для сравнения, самые последние данные, доступные от NHTSA и FHWA (за 2022 год), показывают, что в США автомобильные аварии происходили примерно каждые 670 000 миль.

2) Глава NVIDEA сказал в интервью что Тесла намного впереди всех в технологиях автовождения.
С NVidia все понятно, у них симбиоз.
По поводу безопасности тоже вопросов нет, ADAS-2 в сочетании с внимательным водителем отличная вещь.

У меня приятель на Тесле гоняет, с автопилотом. Она до сих пор тормозит перед человеком идущим по тротуару, вообржая что он на дороге, и резко реагирует на машину, нарисованную на задней части фуры (есть такие, с саморекламой).

Inti

Цитата: nonconvex от 23.05.2024 21:59:26
Цитата: Inti от 23.05.2024 07:51:12Если робо-такси поцеловало столбик - то нужно или улучшить автопилот\камеры, или изменить столбик чтобы он был лучше заметен, или не пускать автоматы на эту улицу. И так по каждой проблеме. Их число не бесконечно, особенно если запрещать проезд по наиболее рискованным улицам.

Ага, и так для каждой формы сугроба.
Когда появляются сугробы - то и люди гораздо чаще в аварии попадают. Нельзя от автомата требовать абсолютной надёжности, вполне достаточно если он будет попадать в аварии реже людей.

Новая Чёрная Дыра с полит-модерацией: https://blackhole.su/index.php?board=16.0
Новая Чёрная Дыра без полит-модерации: http://www.forum--x.ru/index.php?board=1.0

simple

Цитата: Inti от 23.05.2024 22:13:19Когда появляются сугробы - то и люди гораздо чаще в аварии попадают. Нельзя от автомата требовать абсолютной надёжности, вполне достаточно если он будет попадать в аварии реже людей.
основная задача, в способности управлять сравниться с человеком, а далее за счет соблюдения пдд к-во дтп и их тяжесть снизится на порядок

nonconvex

Цитата: Inti от 23.05.2024 22:13:19
Цитата: nonconvex от 23.05.2024 21:59:26
Цитата: Inti от 23.05.2024 07:51:12Если робо-такси поцеловало столбик - то нужно или улучшить автопилот\камеры, или изменить столбик чтобы он был лучше заметен, или не пускать автоматы на эту улицу. И так по каждой проблеме. Их число не бесконечно, особенно если запрещать проезд по наиболее рискованным улицам.

Ага, и так для каждой формы сугроба.
Когда появляются сугробы - то и люди гораздо чаще в аварии попадают. Нельзя от автомата требовать абсолютной надёжности, вполне достаточно если он будет попадать в аварии реже людей.


Вы не поняли. Сугробы не на дороге, сугробы рядом с ней. Сугроб может быть похож на человека, или вообще на неведомое что-то, что и вышибает алгоритм классификации.

nonconvex

Цитата: simple от 23.05.2024 22:59:17
Цитата: Inti от 23.05.2024 22:13:19Когда появляются сугробы - то и люди гораздо чаще в аварии попадают. Нельзя от автомата требовать абсолютной надёжности, вполне достаточно если он будет попадать в аварии реже людей.
основная задача, в способности управлять сравниться с человеком,
Принципиально недостижима по фундаментальным причинам. Здесь можно и закончить.

Inti

Цитата: nonconvex от 24.05.2024 00:40:59Сугробы не на дороге, сугробы рядом с ней. Сугроб может быть похож на человека, или вообще на неведомое что-то, что и вышибает алгоритм классификации.
Ну, притормозит лишний раз, всего-то делов.

Вот кстати пример контролируемой обстановки, в которой автопилот будет вполне хорошо работать:

Спойлер
[свернуть]
Новая Чёрная Дыра с полит-модерацией: https://blackhole.su/index.php?board=16.0
Новая Чёрная Дыра без полит-модерации: http://www.forum--x.ru/index.php?board=1.0

спец

Тем временем, 12 апреля 2024 года, Питер.
ЦитироватьПешеходов в Петербурге сбил трамвай с искусственным интеллектом
https://ria.ru/amp/20240412/tramvay-1939687052.html

simple

Цитата: nonconvex от 24.05.2024 00:41:43Принципиально недостижима по фундаментальным причинам. Здесь можно и закончить.
достижима так как наблюдается в реальности

BlackMokona

Государство копнуло про столб больше, оказалось лидары вообще супер пупер.
https://www.reuters.com/business/autos-transportation/us-safety-probe-into-waymo-self-driving-vehicles-finds-more-incidents-2024-05-24/
ЦитироватьВ письме Waymo, опубликованном в пятницу, НАБДД сообщило, что ему стало известно еще о девяти подобных инцидентах.
В агентстве заявили, что несколько расследуемых инцидентов «связаны с столкновениями с хорошо видимыми объектами, которых компетентный водитель должен был избегать».
В НАБДД заявили, что «сообщения включают столкновения со стационарными и полустационарными объектами, такими как ворота и цепи, столкновения
с припаркованными транспортными средствами, а также случаи, когда (автоматическая система вождения) не подчинялась контролю безопасности дорожного движения.
Вообщем хвалённые Лидары всё :D

nonconvex

Цитата: BlackMokona от 24.05.2024 19:50:51Государство копнуло про столб больше, оказалось лидары вообще супер пупер.
https://www.reuters.com/business/autos-transportation/us-safety-probe-into-waymo-self-driving-vehicles-finds-more-incidents-2024-05-24/
ЦитироватьВ письме Waymo, опубликованном в пятницу, НАБДД сообщило, что ему стало известно еще о девяти подобных инцидентах.
В агентстве заявили, что несколько расследуемых инцидентов «связаны с столкновениями с хорошо видимыми объектами, которых компетентный водитель должен был избегать».
В НАБДД заявили, что «сообщения включают столкновения со стационарными и полустационарными объектами, такими как ворота и цепи, столкновения
с припаркованными транспортными средствами, а также случаи, когда (автоматическая система вождения) не подчинялась контролю безопасности дорожного движения.
Вообщем хвалённые Лидары всё :D
Там и камеры хвалёные есть.

nonconvex

#1395
Цитата: simple от 24.05.2024 19:03:00
Цитата: nonconvex от 24.05.2024 00:41:43Принципиально недостижима по фундаментальным причинам. Здесь можно и закончить.
достижима так как наблюдается в реальности
не наблюдается (см выше).
Но если у вас это вопрос веры (каббалы например), то любые аргументы будут отброшены.

simple

Цитата: nonconvex от 24.05.2024 20:02:26не наблюдается (см выше).
посмотрите в зеркало и пронаблюдайте 

BlackMokona

Цитата: nonconvex от 24.05.2024 20:02:04
Цитата: BlackMokona от 24.05.2024 19:50:51Государство копнуло про столб больше, оказалось лидары вообще супер пупер.
https://www.reuters.com/business/autos-transportation/us-safety-probe-into-waymo-self-driving-vehicles-finds-more-incidents-2024-05-24/
ЦитироватьВ письме Waymo, опубликованном в пятницу, НАБДД сообщило, что ему стало известно еще о девяти подобных инцидентах.
В агентстве заявили, что несколько расследуемых инцидентов «связаны с столкновениями с хорошо видимыми объектами, которых компетентный водитель должен был избегать».
В НАБДД заявили, что «сообщения включают столкновения со стационарными и полустационарными объектами, такими как ворота и цепи, столкновения
с припаркованными транспортными средствами, а также случаи, когда (автоматическая система вождения) не подчинялась контролю безопасности дорожного движения.
Вообщем хвалённые Лидары всё :D
Там и камеры хвалёные есть.
Что Теслы временами находили всякое мы знаем, отчего про камеры не говорили какие они 100% точные. А вот про Лидары разговоров было много. Но вот, стоило разок Гуглу не суметь закотить под ковёр случай и начало выкапывается 

nonconvex

Цитата: simple от 24.05.2024 20:17:50
Цитата: nonconvex от 24.05.2024 20:02:26не наблюдается (см выше).
посмотрите в зеркало и пронаблюдайте
Понаблюдал. Я вам привожу аргументацию, в виде математической сложности класса задач, к которым принадлежит автономное управление автомобилем, а в ответ слышу - нет. Это и есть ответ религии на научно-технический подход.

nonconvex

Цитата: BlackMokona от 24.05.2024 21:16:42Что Теслы временами находили всякое мы знаем, отчего про камеры не говорили какие они 100% точные. А вот про Лидары разговоров было много. Но вот, стоило разок Гуглу не суметь закотить под ковёр случай и начало выкапывается
Дело тут не в лидарах и не в камерах, дело в агенте, принимающем решения. Его дискриминантная сетка настроена на псевдооптимум по ложным срабатываниям, чтобы на тень не реагировать.