Tesla мастер план 3

Автор Dulevo, 06.04.2023 11:20:10

« назад - далее »

Ну-и-ну и 6 гостей просматривают эту тему.

Ну-и-ну

Цитата: simple от 26.07.2025 00:21:28
Цитата: nonconvex от 26.07.2025 00:17:46Для того чтобы это случилось, наши компьютеры должны работать в n-мерном пространстве
опять в мистику ударяетесь, посмотрите на себя, нет у вас ничего н мерного в мозгах, и ниче, с управлением справляетесь
Кстати, соглашусь. Если сделать "общий AI", то он водить будет, не вопрос. И будет правильно реагировать на неожиданные ситуации.

Другое дело, мы нифига не приблизились к общему AI, несмотря на впечатляющий прогресс последних 10-15 лет во всяких LLM и прочих приложениях. Оно как нифига не понимало, так нифига и не понимает.

nonconvex

Цитата: Dulevo от 26.07.2025 00:22:46>>>Сомнения, кстати, есть.

Сомнения вижу на форумах - а вот есть какая-нибудь ссылка на какого-нибудь спеца по ИИ который бы утверждал что Автопилот принципиально не решаемая задача?
С удовольствием почитаю.
Почитайте учебник по исследованию операций. Перед этим - курс по теории сложности, чтобы понимать что такое P, NP, NP-Hard, NP-Complete и так далее.

Ну-и-ну

Цитата: Dulevo от 26.07.2025 00:22:46сылка на какого-нибудь спеца по ИИ который бы утверждал что Автопилот принципиально не решаемая задача?
Хм, а им зачем? Сейчас можно выбивать просто немеряные деньги из идиотов под обещания полного AI-колдунства. Новости, типа - переманили гения Х за миллиард в год - читали?

Зачем им пилить сук, на котором они сидят?

nonconvex

Цитата: Ну-и-ну от 26.07.2025 00:29:33
Цитата: Dulevo от 26.07.2025 00:22:46сылка на какого-нибудь спеца по ИИ который бы утверждал что Автопилот принципиально не решаемая задача?
Хм, а им зачем? Сейчас можно выбивать просто немеряные деньги из идиотов под обещания полного AI-колдунства. 
Все не так уж ужасно - оно работает, просто не в общем случае. К сожалению, автопилот требует общего решения, постоянно работая на новых данных, которым он не обучен. 

simple

Цитата: Ну-и-ну от 26.07.2025 00:21:06"Уже мажется." (с) старый советский анекдот про производство в секретном НИИ масла из дерьма
Собака лает, а бары едут. Пословицы русского народа (Даль)

nonconvex

Цитата: simple от 26.07.2025 00:33:12Собака лает, а бары едут. Пословицы русского народа (Даль)
Все персонажи в данной цитате обладают естественным интеллектом. 

Dulevo

У нас у каждого в голове такой агрегат который успешно решает проблемы Автопилота. (и ИИ тоже)

Какие такие проблемы воплотить этот агрегат в железе?

Тем более что можно не ограничиваться размерами и энергопотреблением (для начала).

simple

Цитата: nonconvex от 26.07.2025 00:24:59Каким образом мы, люди, умудряемся этот результат доставать - загадка.
даже если н мерность есть, нет причин считать что ее нельзя повторить, и как показывает практика, повтор в железе проще

Ну-и-ну

#2168
AI чем-то напоминает термояд из 60-х или 70-х. Тогда тоже верили, что ещё чуть-чуть, и ура. Процесс, однако, всё идёт.

Но есть и разница. Умные секретные физики сели на шею государств. Денег там может и поменьше, но финансирование стабильнее. А вот AI пока что финансово базируется на всяких инвесторах. Тут может произойти разное, вплоть до внезапного "чпок".

simple

Цитата: Ну-и-ну от 26.07.2025 00:42:34AI чем-то напоминает термояд из 60-х или 70-х.
дык аи как раз из того времени, просто железо стало позволять.

Ну-и-ну

Цитата: Dulevo от 26.07.2025 00:38:41Какие такие проблемы воплотить этот агрегат в железе?
Недетские проблемы.

simple

аналогия, отличие от термояда в том как еслиб сейчас делать итер размером с кулак млн штук

Ну-и-ну

Цитата: simple от 26.07.2025 00:44:47
Цитата: Ну-и-ну от 26.07.2025 00:42:34AI чем-то напоминает термояд из 60-х или 70-х.
дык аи как раз из того времени, просто железо стало позволять.

Не, там хитрее. В 50-е возились с однослойными нейросетями, там всё убого, по-сути - N-мерное пространство делится гиперплоскостью на "слева" и "справа". Потом придумали двухслойные, это, считай, многомерный кластерный анализ, где кластеры - выпуклые. Потом придумали трёхслойные и доказали, что этого достаточно.

Это была ошибка. Для интересных результатов трёхслойная нейросеть должна иметь немеряное количество нейронов, симуляция её на компе требует непредставимо быстрой памяти и научить её чему-то не представляется возможным.

Прогресс пошёл, когда стали делать сетки с сотнями слоёв, но с относительно малым количеством нейронов в слое.

simple

Цитата: Ну-и-ну от 26.07.2025 00:50:33Прогресс пошёл, когда стали делать сетки с сотнями слоёв,
нет, когда железо стало позволять, архитектура сети вещь сопутствующая и она еще сотни раз поменяется

Ну-и-ну

Цитата: simple от 26.07.2025 00:49:16аналогия, отличие от термояда в том как еслиб сейчас делать итер размером с кулак млн штук
Не, там много отличий. Например, с термоядом в теории всё было понятно, т.е. остались только инженерные задачи. Проблема в том, что они очень сложные.

А с общим AI нифига пока непонятно. Даже не вполне понятно, что именно хочется получить.

Ну-и-ну

Цитата: simple от 26.07.2025 00:52:30
Цитата: Ну-и-ну от 26.07.2025 00:50:33Прогресс пошёл, когда стали делать сетки с сотнями слоёв,
нет, когда железо стало позволять, архитектура сети вещь сопутствующая и она еще сотни раз поменяется
Не, слой на сотню тысяч нейронов и сейчас упрётся в пропускную способность памяти.

А у человека нейронов десятки миллиардов ЕМНИП.

Т.е. именно архитектурная проблема. Математика сказала - "там не копать, смысла нет". И была не права, завела в тупик лет на 30.

Dulevo

Как бы то что результаты с каждой новой моделью улучшаются - означает что движение идет в верном направлении.

А в 70-ые работы над ИИ затормозились - Мински и Пейперт математически доказали, что однослойные перцептроны не могут решать задачи, связанные с нелинейно разделимыми данными.Из-за этого резко сократили финансирование и работы с нейросетями затормозились на десятилетия

Вот только это доказательство касалось только однослойных перцептронов.
Изобрели Backpropagation и все заработало.

Ну-и-ну

Цитата: Dulevo от 26.07.2025 01:07:29Вот только это доказательство касалось только однослойных перцептронов.
Изобрели Backpropagation и все заработало.
Персептроны - это 50-е, к 70-м оно уже загнулось, ибо ограниченное. Следующий затык был в том, что математика доказала, что три слоя достаточны "для всего". А сделать их практически нельзя. Надо было перепрыгнуть через три слоя сразу во многие десятки.

nonconvex

Цитата: simple от 26.07.2025 00:41:20
Цитата: nonconvex от 26.07.2025 00:24:59Каким образом мы, люди, умудряемся этот результат доставать - загадка.
даже если н мерность есть, нет причин считать что ее нельзя повторить, и как показывает практика, повтор в железе проще
Вы ни с теорией, ни с практикой не знакомы, я погляжу. Погуглите "проклятие размерности", для общего развития. 

nonconvex

Цитата: Dulevo от 26.07.2025 00:38:41У нас у каждого в голове такой агрегат который успешно решает проблемы Автопилота. (и ИИ тоже)

Какие такие проблемы воплотить этот агрегат в железе?
Как разберетесь с механизмом квантвой сцепленности, так и приходите за Автопилотом.