Mars Colonial Transporter

Автор Димитър, 30.01.2015 19:02:20

« назад - далее »

0 Пользователи и 5 гостей просматривают эту тему.

cross-track

Цитата: Georgea от 01.10.2024 08:54:56Полет Старшипа на Марс неизбежен в чуть меньшей степени, чем полёт туда же Союза на Протоне, например.
Протон есть, Союз есть; полёта на Марс нет.
Союз - это максимум до Луны. До Марса ему далеко и долго лететь.
Не все у нас еще хорошо, кое-что - просто замечательно!

Алексей Кириенко

#53161
Цитата: nonconvex от 30.09.2024 22:51:35
Цитата: Алексей  Кириенко от 30.09.2024 16:21:25
Цитата: garg от 30.09.2024 14:37:07А кроме ограничений возможностей ИИ на Марсе еще ограничения по энергообеспечению этих ИИ. По крайней мере на текущей и планируемой ближайшее время архитектуре железа.
Как я уже писал ренее вопрос "энергопотребления ИИ" спорный,
Спойлер
бо специальные  "нейроморфные чипы" это не используемый "не по назначению" серийный чип  GPU от Нвидии (там вообще есть логически обоснованное подозрение что их энерго потребление искусственно завышено) с программной эмуляцией каждого искусственного-нейрона на CUDO-ядрах.
[свернуть]
Чепуху вы писали, как ранее, так и сейчас. И будьте любезны, сформулируйте ваше "логически обоснованное подозрение" что энергопотребление чипов NVidia "искусственно завышено". Похоже на махровую конспирологию.
Кратко, (написал "длинно-пост "  но он слетел )  кроме десктопных моделей GPU есть мобильные( для ноутбуков ) где стоят чипы близкие по производительности и  тех-же поколений  но никаких условных "киловаттных БП " там не требуется.

А на Марс если и полетят некие  "управляющие ИИ с нейросетями" то точно не виде сборки из "бытовых GPU  в майнерских материнских платах"  что касается специфических нейроморфных чипов то они по сути мало чем отличаются от чипов динамической памяти и их энергопотребление на порядок, а то и два меньше . (там даже "активационную функцию" вполне  можно делать прямо "в железе" причем на аналоговых элементах ) 

Цитата: lev_g от 30.09.2024 23:20:17Более того - Нвидия, как и любой другой производитель GPU прилагает максимум усилий чтобы снизить энергопотребление своих чипов - это одна из главных характеристик обеспечивающих конкурентное преимущество.
И что этих  "любых других" (для десктопных видеокарт ) сильно много ? Раз два и обчелся . Так что сговор, промшпионаж, и просто халтура "рулят и педалят". + есть не слабый бизнес на системах охлаждения видеокарт.  Дорогие видео краты покупают  небедные клиенты... 

....
Спойлер
И мотивированно содрать с них еще больше денег самое то ( особенно если сделать "запланированное устаревание" или допустить возможность "теплового удара" от самых активных (соответственно самых платежеспособных ) пользователей .  Повторяю пример, ноутбучных карт говорит что резервы там ого-го ( и не факт что занижение производительности мобильных систем не чисто маркетинговой ход) Вон на ВиАр шлеме  Квесте 2 порт "дума 3" в 4к ВиАр режиме идет и питается эта красота маленьким штатным аккумулятором часа так два,  а сколько жрали десктопы в конце нулевых ?(причем без вского ВиАр) Ну не киловатты но 500 ватный БП "вынь да полож".( и это при учете того что монитор разумеется имел свой бп)     
[свернуть]
Per aspera ad astra !

Georgea

Цитата: cross-track от 01.10.2024 08:58:54
Цитата: Georgea от 01.10.2024 08:54:56Полет Старшипа на Марс неизбежен в чуть меньшей степени, чем полёт туда же Союза на Протоне, например.
Протон есть, Союз есть; полёта на Марс нет.
Союз - это максимум до Луны. До Марса ему далеко и долго лететь.
Не понял возражения. Старшипу лететь до Марса ровно столько же. А мягкая посадка им обоим не грозит.

Напомню, что полёт Старшипа на Марс здесь рассматривается не как результат долгой марсианской программы, а просто "потому что Старшип уже есть" (а Маск здесь и вовсе отошёл от дел).

lev_g

Цитата: Алексей Кириенко от 01.10.2024 14:28:07И что этих  "любых других" (для десктопных видеокарт ) сильно много ? Раз два и обчелся . Так что сговор, промшпионаж, и просто халтура "рулят и педалят". + есть не слабый бизнес на системах охлаждения видеокарт.  Дорогие видео краты покупают  небедные клиенты... 
ОМГ. Вы действительно думаете, что нейросети тренируют при помощи тех же чипов, которые идут в  видеокарты?

И судя по вашим текстам вы думаете, что GPU нужны нейросетям для работы, а не только для тренировки, не так ли? 

nonconvex

Цитата: Алексей  Кириенко от 01.10.2024 14:28:07кроме десктопных моделей GPU есть мобильные( для ноутбуков ) где стоят чипы близкие по производительности и  тех-же поколений  но никаких условных "киловаттных БП " там не требуется.

А на Марс если и полетят некие  "управляющие ИИ с нейросетями" то точно не виде сборки из "бытовых GPU  в майнерских материнских платах"  что касается специфических нейроморфных чипов то они по сути мало чем отличаются от чипов динамической памяти и их энергопотребление на порядок, а то и два меньше . (там даже "активационную функцию" вполне  можно делать прямо "в железе" причем на аналоговых элементах ) 
Давайте разбираться. В нейросетевых решениях есть два основных процесса:
1) Тренировка сети.
2) Вывод на тренированной сети (эксплуатация).
Для тренировки больших моделей, по причине экспоненциальной сложности алгоритма обучения требуются машинные залы набитые векторными процессорами (типа GPU в граф. карточках, только мощнее на порядки). В процессе обучения модели уровня GPT тратятся сотни гигаватт.
Для вывода достаточно процессора ноутбука, поскольку алгоритм перемножает матрицы с кубичной сложностью.

Решения с копированием нейронов тоже есть (IBM), но ничего реально конкурентноспособного векторным процессорам они пока не продемонстрировали.

Разговоры про заговор в NVidia для околпачивания пользователей не выдерживают никакой критики, поскольку есть сильный конкурент в лице AMD и любое жульничество приведет к проигрышу на рынке.

Seliv

Цитата: lev_g от 02.10.2024 01:54:14
Цитата: Алексей Кириенко от 01.10.2024 14:28:07И что этих  "любых других" (для десктопных видеокарт ) сильно много ? Раз два и обчелся . Так что сговор, промшпионаж, и просто халтура "рулят и педалят". + есть не слабый бизнес на системах охлаждения видеокарт.  Дорогие видео краты покупают  небедные клиенты... 
ОМГ. Вы действительно думаете, что нейросети тренируют при помощи тех же чипов, которые идут в  видеокарты?
На оба вопроса - да. не надо делать ОМГ, если сами не в зуб ногой. Сугубо серверные платформы на A,H,B чипах ровно на тех-же ядрах, технологии, что и топовые "видеокарты", типа RTX 4090, вопрос в их количестве. и даже они запрещены к импорту в Китай

Цитата: lev_g от 02.10.2024 01:54:14вы думаете, что GPU нужны нейросетям для работы, а не только для тренировки, не так ли?
Не надо думать, достаточно было хоть один раз посмотреть на уже готовые модели, благо их в ассортименте. При наличии хоть немного прямых рук устанавливается хоть на домашний комп. В зависимости от уровня модели, потребуется всё более мощная видюха, в первую очередь по видеопамяти.

Так-же как и ставят дорогущие GPU на каждую машину с автоведением, а не ардунку

Seliv

#53166
Цитата: nonconvex от 02.10.2024 03:11:50Разговоры про заговор в NVidia для околпачивания пользователей не выдерживают никакой критики, поскольку есть сильный конкурент в лице AMD и любое жульничество приведет к проигрышу на рынке.
То есть в заговор наса/пентагона с мошенником Маском мы верим, а тут не верим. Хотя это как раз ближе, главы NVIDIA и AMD родственники. и очень аккуратно конкурируют с друг-другом. по поводу нейросеток практически никак

nonconvex

Цитата: Seliv от 02.10.2024 04:26:51
Цитата: nonconvex от 02.10.2024 03:11:50Разговоры про заговор в NVidia для околпачивания пользователей не выдерживают никакой критики, поскольку есть сильный конкурент в лице AMD и любое жульничество приведет к проигрышу на рынке.
То есть в заговор мошенник Маск, наса,пентагон все купил(или что там у тебя в голове), мы верим, а тут не верим. Хотя тут как раз ближе, главы NVIDIA и AMD родственники. и очень аккуратно конкурируют с друг-другом. а с нейросетками практически никак
Попробуйте сформулировать еще раз, а то как у плохой нейросетки вышло.

Алексей Кириенко

Вот же бед пошёл...
1 Повторяю использование GPU для ИИ не более чем временная затычка.
2 Нейрочипы выпускают с мохнатых времен просто раннее на них не было спроса  .
3 Отдельный от GPU Блок "ускорения ИИ" УЖЕ сейчас присутствует во многих SOC (Систем на Чипе)   например в Qualcomm Snapdragon XR2 ( который стоит в моем Квесте 2 )

Вообщем пока дело дойдет до колонизации Мрса все ткущие проблемы с "прожорливым ИИ " скорее всего останутся в прошлом . 
Per aspera ad astra !

cross-track

Цитата: Georgea от 02.10.2024 01:19:38
Цитата: cross-track от 01.10.2024 08:58:54
Цитата: Georgea от 01.10.2024 08:54:56Полет Старшипа на Марс неизбежен в чуть меньшей степени, чем полёт туда же Союза на Протоне, например.
Протон есть, Союз есть; полёта на Марс нет.
Союз - это максимум до Луны. До Марса ему далеко и долго лететь.
Не понял возражения. Старшипу лететь до Марса ровно столько же. А мягкая посадка им обоим не грозит.
Старшипу лететь до Марса ровно столько же, но, в отличие от Союза, у него намного больший внутренний объем. Как вы себе представляете многомесячный полет космонавтов в Союзе? Это на грани человеческих возможностей даже для тренированных космонавтов с железным здоровьем.
Не все у нас еще хорошо, кое-что - просто замечательно!

nonconvex

Цитата: Алексей  Кириенко от 02.10.2024 08:23:20Вот же бед пошёл...
1 Повторяю использование GPU для ИИ не более чем временная затычка.
2 Нейрочипы выпускают с мохнатых времен просто раннее на них не было спроса  .
3 Отдельный от GPU Блок "ускорения ИИ" УЖЕ сейчас присутствует во многих SOC (Систем на Чипе)  например в Qualcomm Snapdragon XR2 ( который стоит в моем Квесте 2 )

Вообщем пока дело дойдет до колонизации Мрса все ткущие проблемы с "прожорливым ИИ " скорее всего останутся в прошлом . 
1) Ничего другого пока  нет.
2) Нет и сейчас.
3) Стоит, и используется для вывода. Большую модель на нем обучить невозможно.
Вообщем вы никак не можете впилиться в фундаментальность проблемы сложности обучения и скорее всего никогда не впилитесь.

Шлангенциркуль

Как уже вроде тут говорилось, сеть из ЦОД на орбите Марса вполне способна генерировать и переваривать гигаватты, при этом стоимость доставки будет как на ГСО. При этом параллельно может работать как система связи и навигации, главное чтоб однажды ей не пришла идея поработить человечество ради лучшего обучения, так что по старинке лопатой из железной бочки колонизация выглядит предпочтительнее.

lev_g

Цитата: Seliv от 02.10.2024 03:33:38На оба вопроса - да. не надо делать ОМГ, если сами не в зуб ногой. Сугубо серверные платформы на A,H,B чипах ровно на тех-же ядрах, технологии, что и топовые "видеокарты", типа RTX 4090, вопрос в их количестве. и даже они запрещены к импорту в Китай
По первому пункту - нет, вы совершенно не понимаете, о чем говорите. 
Они совершенно не на тех же ядрах, и не на тех же процессах. В графических карточках в основном CUDA Cores которые используют для рендеринга, в GPU, которые используются для тренировки моделей почти исключительно - Tensor Cores, они оптимизированы под операции с матрицами, точнее под MMA, CUDA Cores них обычно вообще нет и с графикой они работают не очень хорошо. (В топ-видеокарточках типа 4090 тоже есть приличное количество Tensor Cores, но поскольку там есть много CUDA и RT cores и сделаны они по более дешевому процессу у них слишком большое удельное энергопотребление) Плюс один из главных элементов в процессорах для тренировки моделей, которого никогда не бывает в видеокарточках - очень быстрый интерконнект, необходимый для распределенных вычислений, передача данных через шину PCI слишком медленная. 

По второму пункту - тоже нет. Выше вам уже вообщем-то все сказали.

lev_g

Цитата: Seliv от 02.10.2024 04:26:51
Цитата: nonconvex от 02.10.2024 03:11:50Разговоры про заговор в NVidia для околпачивания пользователей не выдерживают никакой критики, поскольку есть сильный конкурент в лице AMD и любое жульничество приведет к проигрышу на рынке.
То есть в заговор наса/пентагона с мошенником Маском мы верим, а тут не верим. Хотя это как раз ближе, главы NVIDIA и AMD родственники. и очень аккуратно конкурируют с друг-другом. по поводу нейросеток практически никак
Главный конкурент Нвидии (хоть и с большим отставанием) в данный момент на рынке AI это Intel Gaudi. AMD собирается выйти на рынок с конкурирующим решением в 25 году. 

Шлангенциркуль

#53174
А кто выйдет с конкурирующим на тот момент решением лет через 30-50?

lev_g вы же понимаете, что в контексте ваши пункты бесполезны, на данный момент что cuda, что тензорные ядра равно сделаны из референсов библиотек чипмейкеров для их техпроцессов, а что дальше, время покажет.

Цитата: lev_g от 02.10.2024 15:11:04В 4090 тоже есть Tensor Cores, но поскольку там есть много CUDA и RT cores и сделаны они по более дешевому процессу у них слишком большое удельное энергопотребление
А, похоже нет.

lev_g

Цитата: Шлангенциркуль от 02.10.2024 15:30:32А кто выйдет с конкурирующим на тот момент решением лет через 30-50?
Это неизвестно. А у AMD есть заявленные характеристики, дата релиза и клиенты, которые уже приобрели их решение.

Цитата: Шлангенциркуль от 02.10.2024 15:30:32lev_g вы же понимаете, что в контексте ваши пункты бесполезны, на данный момент что cuda, что тензорные ядра равно сделаны из референсов библиотек чипмейкеров для их техпроцессов, а что дальше, время покажет.
Разумеется, это так, я же не спорю с этим утверждением. Я просто говорю, что GPU применяющиеся в датацентрах для тренировки моделей, и видеокарточки  (несмотря на общую родословную и большое концептуальное сходство) это несравнимые вещи. Как например легковушка и самосвал - у обоих есть колеса, рулевое управление и двигатель внутреннего сгорания, более того, в легковушке в принципе можно возить кирпичи, а на самосвале ездить за покупками в ближайший гастроном, но и то и другое - не самая лучшая идея.

simple

тензорные ядра на порядки проще ядер куда, меньше транзисторов, меньше ущерба от брака, можно больше впихнуть на единицу площади, выше энергоэффективность
при этом естественно ничего не мешает для обучения использовать куда, что раньше и делали, тензорные ядра разработали когда стала очевидна востребованность и уже стояли на обучении массивы из обычных видюх

Алексей Кириенко

#53177
Цитата: nonconvex от 02.10.2024 08:46:44
Цитата: Алексей  Кириенко от 02.10.2024 08:23:20Вот же бед пошёл...
1 Повторяю использование GPU для ИИ не более чем временная затычка.
2 Нейрочипы выпускают с мохнатых времен просто раннее на них не было спроса  .
3 Отдельный от GPU Блок "ускорения ИИ" УЖЕ сейчас присутствует во многих SOC (Систем на Чипе)  например в Qualcomm Snapdragon XR2 ( который стоит в моем Квесте 2 )

Вообщем пока дело дойдет до колонизации Мрса все ткущие проблемы с "прожорливым ИИ " скорее всего останутся в прошлом . 
1) Ничего другого пока  нет.
2) Нет и сейчас.
3) Стоит, и используется для вывода. Большую модель на нем обучить невозможно.
Вообщем вы никак не можете впилиться в фундаментальность проблемы сложности обучения и скорее всего никогда не впилитесь.
1 Есть но не серийного производства 
2 Это увы пока правда
3 Как я понял  основном для "3д реконструкции"  то бишь создания "карты глубин" (дико тормозная гадость если считать на CPU .)

А про фундаментальные проблемы задвигайте другим  - я практик.
(Хотя признаюсь, что в это вопросе я любитель но мне интересно пощупать доступные технологии лично  )
Спойлер
"Цифровой исследовательский стенд"
(распознавание образов + дополнения реальность )

Оболочка для Stable diffusion

"Межзвездный Виртуальный Нейро Интернет " ( Почти не шутка  )
Спойлер
(Оболочка реальная,нейро-арт панорама 360 градусов реальная,WebVr режим реальный    )

Нейро-панорама "изнутри" (ВиАр-режим)


[свернуть]
[свернуть]
Зы
Повторяю: До начала "серьезного Марса"(в лучшем случае ) еще лет 20-30-ть  за это время любые "ИТ-проблемы"  много  раз поменяются
( Это кстати и есть признак наступающей сингулярности - "горизонт планирования" все ближе  и предсказания все более краткосрочные) 
Per aspera ad astra !

nonconvex

Цитата: Алексей  Кириенко от 02.10.2024 23:23:31А про фундаментальные проблемы задвигайте другим  - я практик.
Ходжа Насреддин тоже был практиком, но при этом отлично понимал теоретическую сложность проблемы обучения осла говорить.

nonconvex

Цитата: simple от 02.10.2024 20:46:37тензорные ядра на порядки проще ядер куда, меньше транзисторов, меньше ущерба от брака, можно больше впихнуть на единицу площади, выше энергоэффективность
Вы уже определитесь, меньше ущерба от брака, или больше впихнуть.