Идея наблюдения Земли человеком из ОС - что это?

Автор ТТоварищ, 28.09.2025 05:47:52

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

Идея наблюдения Земли человеком из ОС - что это?

Разумна и полезна
Глупость/тупость - авторов в психушку.
Ложь во благо...Маскировка хитрых планов. Полезных хитрых планов.
Хитрый план из корыстных побуждений - карьера, бабло и тп.
Чистое вредительство

Голосование заканчивается: 28.09.2026 05:47:52

blik

#80
Цитата: mik73 от 02.10.2025 17:34:40Но вот с оттенками цветов и динамическим диапазоном - беда ничуть не уменьшилась.
похоже Вы пользуетесь устаревшими данными

Динамический диапазон человеческого глаза для восприятия цвета (измеряется в EV-единицах, или «стопах») зависит от условий освещения.
При обычном дневном свете мгновенный динамический диапазон глаза (при неизменной ширине зрачка) — порядка 10–14 f-ступеней. Один «стоп» (1 EV) означает удвоение или уменьшение светового потока в два раза.
При слабом освещении (например, при просмотре звёзд) способность глаза к динамическому диапазону — более 24 f-ступеней.

Уже сейчас
Динамический диапазон камер
Nikon D610 измеряется в пределах 13 и 14,4 EV
Nikon D850 14.8 Stops
Sony α7 III 14.7 Stops
Canon EOS R5 14.6 Stops

Для астрономических матриц динамический диапазон достигает 100Дб это 33 EV
таким образом современная техника превосходит глаз по всем параметрам. В том числе по динамическому диапазону.
уходят корабли за горизонт
черный список: Кот Бегемот, NK

mik73

#81
Цитата: blik от 02.10.2025 23:44:04При обычном дневном свете мгновенный динамический диапазон глаза (при неизменной ширине зрачка) — порядка 10–14 f-ступеней. Один «стоп» (1 EV) означает удвоение или уменьшение светового потока в два раза.
При слабом освещении (например, при просмотре звёзд) способность глаза к динамическому диапазону — более 24 f-ступеней.
Спасибо, я в курсе. А еще глаз умеет адаптироваться. Поэтому у него ДД мало меняется в досаточно широком диапазоне освещенностей (когад у камеры давно пора крутить колёсико ISO).
Цитата: blik от 02.10.2025 23:44:04Nikon D850 14.8 Stops
Во-первых это ДД на минимальной ("собственной") чувcвительности матрицы. При увеличении чувсвтительности (когда уже пора "крутить ISO", хотя ухудшении освещенности глазом не сильно и заметно) оно драматически падает. Во-вторых данные в рекламных буклетах всегда завышены.
По независимым измерениям:
Nikon D850 - 11.5 на минимальной чувствительности (ISO 50), 11.1 на ISO 100, 5.9 на ISO 6400
Маленько устаревшая матрица от D4, как в моей балалайке - 10.3 на ISO 100 (меньше не умеет) и те же 5.9 на ISO 6400.
Ну не говоря о том, что разрешение в тенях у них у всех кошмарное, ибо шумит как паровоз, поэтому эти диапазоны вещь тоже лукавая.

В третьих матрица байеровская, т.е. цветовое разрешение у этих балалаек оказывается примерно вдвое хуже номинального, а цветовой охват (количество вопроизводимых оттенков) и вовсе так себе,  на ПЗС-матрицах выходит получше, на КМОП сильно похуже (в физику углубляться не готов,  просто факт). Но ПЗС сильно медленнее, сложнее в "обвесе", и в целом дорого выходит так что царит маркетинг бессмысленный и беспощадный...

А если учесть, что одним ДД фотопремника дело не исчерпывается и надо иметь в виду еще ДД и прочие возможности средств отображения (для плёнки это называлось "диапазон оптических плотностей"), то всё становится еще смешнее.
Лучшие дисплеи с максимальным на сегодня цветовым охватом могут показать примерно половину всех различаемым глазом оттенков, типичные, даже не самые дешёвые - примерно треть. Ожидается, что когда-нибудь в светлом будущем дело дойдёт до физической возможности дисплеев отобразить 75% видимых оттенков (но исходный материал, в котором есть хотя бы эти 75% видимых оттенков - это многодесяткомегабайтный, если не стомегабайтный файл, и из нонешних фотоаппаратов такое не вылазит).  Так что вовсе печальная картинка наблюдается (и она наблюдается в реальности, попробуйте сфотографировать стотыщпяцот видимых оттенков на закате, например, и потом их воспроизвести - увидите разницу между реальностью и циферками в ТТХ).

Так что формально оно, конечно, с человечьим глазом сравнимо, но только формально и только по некоторым параметрам. И при хорошем освещении. И с правильной цветопередачей всё равно беда. Так что все эти идеи замены человеческого глаза телеканалом выглядят больше технократическим фантазиями, чем реальностью. Замена тут возможно вот только та самая - съемки во многих спектральных каналах (которых больше, чем просто RGB), а потом синтез из них изображений для изучения. Не в реальном времени.  Но сначала надо знать что из чего и как синтезировать, чтобы что-нибудь полезное при этом не потерять, типа оттенков цветов у дымки в атмосфере или у лесного массива.  В том числе посмотрев "а глазом-то оно как выглядит"?

blik

#82
Цитата: mik73 от 03.10.2025 22:27:27По независимым измерениям:
Вы привели отличный ресурс, спасибо.
В нем же нахожу, что
Phase One IQ4 150MP имеет 13.33  ISO 159
что значительно выше среднечеловеческого 12 для цветового восприятия, и тоже для хорошего дневного освещения.
Мы же не будем отбирать космонавтов еще и по динамическому диапазону?
Для черно-белого вообще говорить дальше не имеет смысла, так как астрономические матрицы выигрывают у глаза несколько порядков.
Кроме того, здесь уже упоминали расширенный спектральный диапазон для электронных наблюдателей.
Таким образом, именно на сегодняшний день, вероятность, что космонавт обнаружит больше, чем оператор на земле
очень мала. А стоимость несравнима.

PS но ваши данные точно поправили мое понимание. Раньше считал, что современные матрицы уже во всем превосходят глаз, в реальности, меньшая часть людей в цвете имеет динамический диапазон лучше,  по крайней мере в хорошем освещении. За это тоже спасибо.
уходят корабли за горизонт
черный список: Кот Бегемот, NK

mik73

#83
Цитата: blik от 03.10.2025 22:59:35Таким образом, именно на сегодняшний день, вероятность, что космонавт обнаружит больше, чем оператор на земле
очень мала.
Извините, но похоже вы никогда ни фотографией, ни передачей данных сколько-нибудь плотно не занимались. И смотрите на циферки то из одного места то из другого, а задачка в целом у вас просто не складывается.

1. Информации в поле зрения человека, с учетом разрешения человечьего глаза и ширины поля зрения 150х110 градусов примерно, содержится мегапикселей так на 300  (среднеконсервативная оценка, есть и почти вдвое больше). Другое дело, что человек это поле зрения сканирует, а не видит одномоментно, и на фотографиях столько не надо, поскольку фотографии размером на всё поле зрения человека обычно не делают. Но если мы хотим увидеть то, что может видеть перед собой человек, и с тем разрешением, с которым он это может рассмотреть (за доли секунды), то надо будет именно вот столько. ТО есть вот эта среднеформатная камера Phase One IQ4 с объективом с фокусным расстоянием около 30-35 мм (вы к ней еще такой найдите, я вот только фиш-аи такие знаю)  сможет выдать вам примерно нужное поле зрения с половиной потребного по разрешения. Уже неплохо.

2. Размер файла с этой камеры при этом будет (с учетом применения алгоритмов сжатия без потерь) примерно так мегабайт 200 плюс-минус, в зависимости от того, что попадёт в кадр, и скорее плюс чем минус.  Т.е. про "реальное время" при каналах порядка 100 Мбит/с речь уже не идёт. Через 100 Мбит/с эти 200 Мбайт будут передаваться секунд так 20.  Получится этакое "слайд-шоу" в неспешном (но утомительном) темпе. А если это будет еще и картинка с объектива типа фиш-ай, с его харатерной дисторсией (а других с таким полным полем зрения похоже и нет), то у оператора не только глаза утомятся, но и крыша быстро поедет.

3. Чтобы оператор смог увидеть всё вот это, ему переданное и соотвествующее ширине поля человечьего зрения, ему будет нужен экранчик шириной в то самое поле зрения на комфортном расстоянии от глаз. На нынешних 4К мониторах  умещается всего 7-8 мегапикселей. Т.е. чтобы оператор увидел то, что видит глаз (но с худшим разрешением) ему  будет нужно собрать стену из пары десятков 4К ониторов и отодвинуть её от оператора на изрядно метров (размеры стены и потребное расстояние до оператора желающие могут посчитать поточнее... получается неслабая такая "ситуационная комната"). ПРи том, что расстояние комфортного зрения - десятки сантиметров. Ну метр. Но экранов в таким разрешением, чтобы на метре вывести полное поле зрения, не бывает.

4. Что на том экране получится с точки зрения правильной цветопередачи и возможности различения оттенков - бог весть (ни на одной фотографии её никогда нет и не было, это всегда упрощение и предмет того, как "видит"  что хочет показать фотограф или еще кто-нибудь, кто занимался постобработкой фотографии. При этом даже при самом идеальном алгоритме вычисления "баланса белого" (которых алгоритмов идеальных не бывает) и максимально точной настройки вывода в цветовое простраство монитора или иного средства отображегия - получается что получается, а не то, что видели когда фотографировали, и минимум половина доступной глазу информации всё равно на экране будет недоступна. Просто не умеют этого не отображать современные экраны, ни фиксировать камеры.

И зачем весь этот геморрой?
Проще этому, который там все равно летает за свою зарплату, поставить задачу: "а посмотри ты, милый, на вот это вот, и глазами, и приборами какие есть, а потом расскажи, что видел, а мы посмотрим, что приборы зафиксировали и подумаем чему надо научить приборы, чтобы они не упускали того, что ты увидел глазами".

cross-track

Цитата: mik73 от 04.10.2025 02:04:26
Цитата: blik от 03.10.2025 22:59:35Таким образом, именно на сегодняшний день, вероятность, что космонавт обнаружит больше, чем оператор на земле
очень мала.
Извините, но похоже вы никогда ни фотографией, ни передачей данных сколько-нибудь плотно не занимались. И смотрите на циферки то из одного места то из другого, а задачка в целом у вас просто не складывается.

1. Информации в поле зрения человека, с учетом разрешения человечьего глаза и ширины поля зрения 150х110 градусов примерно, содержится мегапикселей так на 300  (среднеконсервативная оценка, есть и почти вдвое больше). Другое дело, что человек это поле зрения сканирует, а не видит одномоментно, и на фотографиях столько не надо, поскольку фотографии размером на всё поле зрения человека обычно не делают. Но если мы хотим увидеть то, что может видеть перед собой человек, и с тем разрешением, с которым он это может рассмотреть (за доли секунды), то надо будет именно вот столько. ТО есть вот эта среднеформатная камера Phase One IQ4 с объективом с фокусным расстоянием около 30-35 мм (вы к ней еще такой найдите, я вот только фиш-аи такие знаю)  сможет выдать вам примерно нужное поле зрения с половиной потребного по разрешения. Уже неплохо.

2. Размер файла с этой камеры при этом будет (с учетом применения алгоритмов сжатия без потерь) примерно так мегабайт 200 плюс-минус, в зависимости от того, что попадёт в кадр, и скорее плюс чем минус.  Т.е. про "реальное время" при каналах порядка 100 Мбит/с речь уже не идёт. Через 100 Мбит/с эти 200 Мбайт будут передаваться секунд так 20.  Получится этакое "слайд-шоу" в неспешном (но утомительном) темпе. А если это будет еще и картинка с объектива типа фиш-ай, с его харатерной дисторсией (а других с таким полным полем зрения похоже и нет), то у оператора не только глаза утомятся, но и крыша быстро поедет.

3. Чтобы оператор смог увидеть всё вот это, ему переданное и соотвествующее ширине поля человечьего зрения, ему будет нужен экранчик шириной в то самое поле зрения на комфортном расстоянии от глаз. На нынешних 4К мониторах  умещается всего 7-8 мегапикселей. Т.е. чтобы оператор увидел то, что видит глаз (но с худшим разрешением) ему  будет нужно собрать стену из пары десятков 4К ониторов и отодвинуть её от оператора на изрядно метров (размеры стены и потребное расстояние до оператора желающие могут посчитать поточнее... получается неслабая такая "ситуационная комната"). ПРи том, что расстояние комфортного зрения - десятки сантиметров. Ну метр. Но экранов в таким разрешением, чтобы на метре вывести полное поле зрения, не бывает.

4. Что на том экране получится с точки зрения правильной цветопередачи и возможности различения оттенков - бог весть (ни на одной фотографии её никогда нет и не было, это всегда упрощение и предмет того, как "видит"  что хочет показать фотограф или еще кто-нибудь, кто занимался постобработкой фотографии. При этом даже при самом идеальном алгоритме вычисления "баланса белого" (которых алгоритмов идеальных не бывает) и максимально точной настройки вывода в цветовое простраство монитора или иного средства отображегия - получается что получается, а не то, что видели когда фотографировали, и минимум половина доступной глазу информации всё равно на экране будет недоступна. Просто не умеют этого не отображать современные экраны, ни фиксировать камеры.

И зачем весь этот геморрой?
Проще этому, который там все равно летает за свою зарплату, поставить задачу: "а посмотри ты, милый, на вот это вот, и глазами, и приборами какие есть, а потом расскажи, что видел, а мы посмотрим, что приборы зафиксировали и подумаем чему надо научить приборы, чтобы они не упускали того, что ты увидел глазами".
Т.е. речь идет о наблюдении Земли через иллюминатор невооруженным глазом? И с фотографированием таким объективом и такой матрицей, что в результате получается изображение, как у глаза, без всякого увеличения? С какой целью это делается - только для того, чтобы сравнить оба изображения, и усоверщенствовать камеры? А не дешевле тогда подобное сравнение сделать в лабораторных условиях на Земле?
Live and learn

Старый

Цитата: cross-track от 04.10.2025 09:23:53Т.е. речь идет о наблюдении Земли через иллюминатор невооруженным глазом?
Через Куполу! 
1. Ангара - единственная в мире новая РН которая хуже старой (с) Старый Ламер
2. Назначение Роскосмоса - не летать в космос а выкачивать из бюджета деньги
3. У Маска ракета длиннее и толще чем у Роскосмоса
4. Чем мрачнее реальность тем ярче бред (с) Старый Ламер

blik

#86
Цитата: mik73 от 04.10.2025 02:04:26
Цитата: blik от 03.10.2025 22:59:35Таким образом, именно на сегодняшний день, вероятность, что космонавт обнаружит больше, чем оператор на земле
очень мала.
Извините, но похоже вы никогда ни фотографией, ни передачей данных сколько-нибудь плотно не занимались. И смотрите на циферки то из одного места то из другого, а задачка в целом у вас просто не складывается.
1. Информации в поле зрения человека, с учетом разрешения человечьего глаза и ширины поля зрения 150х110 градусов примерно, содержится мегапикселей так на 300  (среднеконсервативная оценка, есть и почти вдвое больше). Другое дело, что человек это поле зрения сканирует, а не видит одномоментно, и на фотографиях столько не надо, поскольку фотографии размером на всё поле зрения человека обычно не делают. Но если мы хотим увидеть то, что может видеть перед собой человек, и с тем разрешением, с которым он это может рассмотреть (за доли секунды), то надо будет именно вот столько. ТО есть вот эта среднеформатная камера Phase One IQ4 с объективом с фокусным расстоянием около 30-35 мм (вы к ней еще такой найдите, я вот только фиш-аи такие знаю)  сможет выдать вам примерно нужное поле зрения с половиной потребного по разрешения. Уже неплохо.
2. Размер файла с этой камеры при этом будет (с учетом применения алгоритмов сжатия без потерь) примерно так мегабайт 200 плюс-минус, в зависимости от того, что попадёт в кадр, и скорее плюс чем минус.  Т.е. про "реальное время" при каналах порядка 100 Мбит/с речь уже не идёт. Через 100 Мбит/с эти 200 Мбайт будут передаваться секунд так 20.  Получится этакое "слайд-шоу" в неспешном (но утомительном) темпе. А если это будет еще и картинка с объектива типа фиш-ай, с его харатерной дисторсией (а других с таким полным полем зрения похоже и нет), то у оператора не только глаза утомятся, но и крыша быстро поедет.
3. Чтобы оператор смог увидеть всё вот это, ему переданное и соотвествующее ширине поля человечьего зрения, ему будет нужен экранчик шириной в то самое поле зрения на комфортном расстоянии от глаз. На нынешних 4К мониторах  умещается всего 7-8 мегапикселей. Т.е. чтобы оператор увидел то, что видит глаз (но с худшим разрешением) ему  будет нужно собрать стену из пары десятков 4К ониторов и отодвинуть её от оператора на изрядно метров (размеры стены и потребное расстояние до оператора желающие могут посчитать поточнее... получается неслабая такая "ситуационная комната"). ПРи том, что расстояние комфортного зрения - десятки сантиметров. Ну метр. Но экранов в таким разрешением, чтобы на метре вывести полное поле зрения, не бывает.
4. Что на том экране получится с точки зрения правильной цветопередачи и возможности различения оттенков - бог весть (ни на одной фотографии её никогда нет и не было, это всегда упрощение и предмет того, как "видит"  что хочет показать фотограф или еще кто-нибудь, кто занимался постобработкой фотографии. При этом даже при самом идеальном алгоритме вычисления "баланса белого" (которых алгоритмов идеальных не бывает) и максимально точной настройки вывода в цветовое простраство монитора или иного средства отображегия - получается что получается, а не то, что видели когда фотографировали, и минимум половина доступной глазу информации всё равно на экране будет недоступна. Просто не умеют этого не отображать современные экраны, ни фиксировать камеры.
И зачем весь этот геморрой?
Проще этому, который там все равно летает за свою зарплату, поставить задачу: "а посмотри ты, милый, на вот это вот, и глазами, и приборами какие есть, а потом расскажи, что видел, а мы посмотрим, что приборы зафиксировали и подумаем чему надо научить приборы, чтобы они не упускали того, что ты увидел глазами".

Плотно занимался астофотографией. Давно. Но если Вы скажете, что у вас больше опыта, спорить не буду. Дело не в этом.
По черно-белому изображению современные технические средства превосходят глаз на несколько порядков. Далее говорить в этом аспекте смысла нет. Поэтому следующий текст только о сравнении цветного восприятия.
1. Говорить о ширине поля 150х110 глаз для цвета бессмысленно, так как большая часть колбочек в желтом пятне, а это всего 6-8 градусов. Сделать сканирующую оптическую систему для камеры могу даже я, за вполне вменяемое время, дорого.
2. До 200Мб будет передаваться 16 сек по 100Мбит/с, но вам и не нужно видео высокой частоты. Картинка меняется медленно. Дисторсию исправляет нейросеть в реальном времени.
3. Сейчас есть экраны 8К это 30Мпикселей. Оператор может увеличивать подозрительные места до 150 Мпикселей которые обеспечивает камера. Этот функционал реализован во множестве игр. А можно поставить несколько экранов единой панелью и обеспечить нужно разрешение сразу
4. Нет никакой необходимости сводить цветопередачу к человеческой. Расширенный спектр даст гораздо больше информации для поиска интересного. И обрабатывать это уже сейчас и все в большей степени в будущем будут нейросети. Человек будет привлекаться только к неочевидным случаям.
 

PS у глаза для цвета всего 7 млн колбочек. Остальное делает мозг - органическая нейросеть. 150 Мпикселей камеры + расширенный спектр + кремниевые нейросети + кратно меньшие затраты + оператор на подхвате. Глаз космонавта на ОС проиграет.
уходят корабли за горизонт
черный список: Кот Бегемот, NK

mik73

Цитата: blik от 04.10.2025 15:48:59Говорить о ширине поля 150х110 глаз для цвета бессмысленно, так как большая часть колбочек в желтом пятне, а это всего 6-8 градусов. Сделать сканирующую оптическую систему для камеры могу даже я, за вполне вменяемое время, дорого.
И тем не менее - какого-нибудь мелкого таракана, пробегающего на периферии поля зрения (и это ближе к 180 по горизонтали, чем к 150), человек прекрасно замечает. А чтобы его мог заметить оператор, которому транслируется изображение того, что видит человек - у оператора перед глазами должно быть такое же поле зрения, неважно как полученное, хоть сканирующей камерой, хоть мегаметрицей с мега-широкоуголным объективом, но поле зрения вынь да положь. А поскольку неизвестно, где именно пробежит таракан, то все поле зрения нужно выдавать оператору с максимально доступным глазу разрешением, чтобы он мог перевести на замеченного в любом месте таракана взгляд и успеть его рассмотреть.

Цитата: blik от 04.10.2025 15:48:59До 200Мб будет передаваться 16 сек по 100Мбит/с, но вам и не нужно видео высокой частоты. Картинка меняется медленно. Дисторсию исправляет нейросеть в реальном времени.

Если учесть неизбежную избыточность на протоколы передачи, то скорее 20 сек, чем 16. Ну пусть 18 (просто по опыту), но это уже непринципиально. А то, что "целевая" картинка меняется медленно - совершенно не факт. Может как раз таракан пробежать. И тут-то он и останется незамеченным.

Цитата: blik от 04.10.2025 15:48:59Нет никакой необходимости сводить цветопередачу к человеческой. Расширенный спектр даст гораздо больше информации для поиска интересного.
Ну как сказать. Небольшое изменение оттенка цвета воды в реке может говорить об изменении её состава. Изменене оттенка растительного покрова - о том, что растёт что-то не то. ИЛи не так себя чувствует. И так далее. Опять же пробегающий таракан может успешно мимкрировать под местность, но небольшая разница оттенков даст глазу возможность его обнаружить. И не факт, что эта разница может быть отловлена фотосредствами. Если же соотнести вот такое замеченное изменение оттенков с реальным состоянием дел на местности, и высниться, что оно действительно вызвано чем-то интересным, то можно допилить фотосредства (добавлением новых спектральных диапазонов и т.п.) для его обнаружения в будущем.

А чтобы всё это мог делать оператор на Земле - ему надо выдать ровно ту же картинку, что видно сверху.

Цитата: blik от 04.10.2025 15:48:59у глаза для цвета всего 7 млн колбочек.
и 120 миллионов палочек. и возможность быстро сканировать поле зрения. плюс обработка в мозгу - и получается система, для замены которой нужна фотокамера с безумно широким полем зрения и матрицей на 3 сотни Мпикс, и то выйдет сильно уступающая по цветовому охвату.

Цитата: blik от 04.10.2025 15:48:5950 Мпикселей камеры + расширенный спектр + кремниевые нейросети + кратно меньшие затраты + оператор на подхвате.
Всегда, когда упоминаются нейросети и ИИ надо ставить пометочку "когда и если". ну а чтобы научить те нейросети, куда и зачем им надо смотреть - надо сначала рассмотреть всё это глазом и понять, чему же их учить. А то они и слона в посудной лавке (или какое-нибудь НЛО пролетающее через северное сияние) напрочь не заметят.



mik73

Цитата: telekast от 02.10.2025 18:21:28В четвёртых авиационные летчики-наблюдатели вымерли как класс уже очень давно. Их уже очень давно заменили фотоаппараты.
Расскажите это работникам лесной и пожарной авиации.  И быстро бегите, а то побьют.

Водитель

Цитата: mik73 от 04.10.2025 23:38:03
Цитата: telekast от 02.10.2025 18:21:28В четвёртых авиационные летчики-наблюдатели вымерли как класс уже очень давно. Их уже очень давно заменили фотоаппараты.
Расскажите это работникам лесной и пожарной авиации.  И быстро бегите, а то побьют.
А ИК камеры бегать уже тоже научились?

cross-track

А какое разрешение при наблюдении с орбиты невооруженным глазом? Метров 20?
Live and learn

Водитель

Цитата: cross-track от 05.10.2025 09:02:48А какое разрешение при наблюдении с орбиты невооруженным глазом? Метров 20?
Извините, но зачем такие вопросы задавать?

Если человек выполняет функцию аппарата дзз, то проблема не в глубине и ширине поля зрения, а в необходимости сидеть космонавту у иллюминатора три 8 часовых смены семь дней в неделю. А вдруг что. 

Если его будут звать на конкретную цель, то он захватит фотик с телевиком.

Но в обоих случаях лучше работают АКА ДЗЗ. Уже лет 50 как.

Давайте ещё сравним калькулятор и счеты. Как минимум счеты лучше тем, что им не нужен источник питания, который можно разрядить, нестрашно ронять на пол и явно проще в изготовлении.

cross-track

Цитата: Водитель от 05.10.2025 09:10:59
Цитата: cross-track от 05.10.2025 09:02:48А какое разрешение при наблюдении с орбиты невооруженным глазом? Метров 20?
Извините, но зачем такие вопросы задавать?

Если человек выполняет функцию аппарата дзз, то проблема не в глубине и ширине поля зрения, а в необходимости сидеть космонавту у иллюминатора три 8 часовых смены семь дней в неделю. А вдруг что.

Если его будут звать на конкретную цель, то он захватит фотик с телевиком.

Но в обоих случаях лучше работают АКА ДЗЗ. Уже лет 50 как.
Это я к тому, что человеческий глаз может увидеть что-то необычное, но с разрешением не лучше чем 20 метров. Интересно, сказали ли об этом ЛПР_ам?
Live and learn

blik

Цитата: cross-track от 05.10.2025 09:02:48А какое разрешение при наблюдении с орбиты невооруженным глазом? Метров 20?

Цитироватьсамые зоркие люди способны различать источники света с разрешением от 3 до 5 угловых минут
Это порядка 300 метров. А средние значения кратно больше
уходят корабли за горизонт
черный список: Кот Бегемот, NK

blik

#94
Цитата: mik73 от 04.10.2025 23:17:16
Цитата: blik от 04.10.2025 15:48:59Говорить о ширине поля 150х110 глаз для цвета бессмысленно, так как большая часть колбочек в желтом пятне, а это всего 6-8 градусов. Сделать сканирующую оптическую систему для камеры могу даже я, за вполне вменяемое время, дорого.
1. И тем не менее - какого-нибудь мелкого таракана, пробегающего на периферии поля зрения (и это ближе к 180 по горизонтали, чем к 150), человек прекрасно замечает. А чтобы его мог заметить оператор, которому транслируется изображение того, что видит человек - у оператора перед глазами должно быть такое же поле зрения, неважно как полученное, хоть сканирующей камерой, хоть мегаметрицей с мега-широкоуголным объективом, но поле зрения вынь да положь. А поскольку неизвестно, где именно пробежит таракан, то все поле зрения нужно выдавать оператору с максимально доступным глазу разрешением, чтобы он мог перевести на замеченного в любом месте таракана взгляд и успеть его рассмотреть.

Цитата: blik от 04.10.2025 15:48:59До 200Мб будет передаваться 16 сек по 100Мбит/с, но вам и не нужно видео высокой частоты. Картинка меняется медленно. Дисторсию исправляет нейросеть в реальном времени.

2. Если учесть неизбежную избыточность на протоколы передачи, то скорее 20 сек, чем 16. Ну пусть 18 (просто по опыту), но это уже непринципиально. А то, что "целевая" картинка меняется медленно - совершенно не факт. Может как раз таракан пробежать. И тут-то он и останется незамеченным.

Цитата: blik от 04.10.2025 15:48:59Нет никакой необходимости сводить цветопередачу к человеческой. Расширенный спектр даст гораздо больше информации для поиска интересного.
3. Ну как сказать. Небольшое изменение оттенка цвета воды в реке может говорить об изменении её состава. Изменене оттенка растительного покрова - о том, что растёт что-то не то. ИЛи не так себя чувствует. И так далее. Опять же пробегающий таракан может успешно мимкрировать под местность, но небольшая разница оттенков даст глазу возможность его обнаружить. И не факт, что эта разница может быть отловлена фотосредствами. Если же соотнести вот такое замеченное изменение оттенков с реальным состоянием дел на местности, и высниться, что оно действительно вызвано чем-то интересным, то можно допилить фотосредства (добавлением новых спектральных диапазонов и т.п.) для его обнаружения в будущем.

А чтобы всё это мог делать оператор на Земле - ему надо выдать ровно ту же картинку, что видно сверху.

Цитата: blik от 04.10.2025 15:48:59у глаза для цвета всего 7 млн колбочек.
4. и 120 миллионов палочек. и возможность быстро сканировать поле зрения. плюс обработка в мозгу - и получается система, для замены которой нужна фотокамера с безумно широким полем зрения и матрицей на 3 сотни Мпикс, и то выйдет сильно уступающая по цветовому охвату.

Цитата: blik от 04.10.2025 15:48:5950 Мпикселей камеры + расширенный спектр + кремниевые нейросети + кратно меньшие затраты + оператор на подхвате.
5. Всегда, когда упоминаются нейросети и ИИ надо ставить пометочку "когда и если". ну а чтобы научить те нейросети, куда и зачем им надо смотреть - надо сначала рассмотреть всё это глазом и понять, чему же их учить. А то они и слона в посудной лавке (или какое-нибудь НЛО пролетающее через северное сияние) напрочь не заметят.



4. Палочки обеспечивают черно белое зрение. В этой области глаз полностью проигрывает фотоматрицам по всем параметрам. Уже 3й раз это пишу. Широкое поле давно умеют обеспечивать см. астрономические устройства.
1. Движение таракана отслеживается аппаратно/програмными средствами и передаются только движущееся. Это хорошо известный способ. Для этого толстый канал не нужен.
2. Если недостаточно канала РС МКС смотри на канал сегмента США МКС в 600Мб/с. Расширить канал много- много дешевле ОС. Про таракана уже написал.
3. Нет Никакого смысла выводить оператору ту же картинку, что космонавту с ОС. Более того, картинку нужно оптимизировать по яркости, чтобы попасть в область наибольшего динамического диапазона оператора и изменять цвета, чтобы более широкий спектральный диапазон съемки поместить в спектральный диапазон оператора. Называется искусственные цвета. Используются повсеместно с несомненной пользой. Именно в этом случае можно задействовать повышенный динамический диапазон глаза у некоторых людей в цвете. Операторов, выбирать по этому критерию.

Вот же уважаемый спец дал ссылки не реальную подготовку космонавтов к наблюдениям. Все же отчетливо видно, что на самом деле используется
https://www.gctc.ru/main.php?id=6098
https://www.gctc.ru/main.php?id=6780
уходят корабли за горизонт
черный список: Кот Бегемот, NK

cross-track

Цитата: blik от 05.10.2025 12:43:29
Цитата: cross-track от 05.10.2025 09:02:48А какое разрешение при наблюдении с орбиты невооруженным глазом? Метров 20?

Цитироватьсамые зоркие люди способны различать источники света с разрешением от 3 до 5 угловых минут
Это порядка 300 метров. А средние значения кратно больше
Пишут, что угловое разрешение около 1 угловой минуты, приблизительно 0,017° или 0,0003 радиана, что соответствует 0,3 м на расстоянии 1 км. Значит, с высоты 400 км разрешение - 120 метров. Так что без бинокля - никак!
Live and learn

mik73

Цитата: Водитель от 05.10.2025 08:59:36А ИК камеры бегать уже тоже научились?
А при чём тут ИК-камеры. Поинтересуйтесь, какие задачи решают лётчики-наблюдатели в лесоохране, например. Камеры решения принимать не умеют. А лётнабы на основании увиденного - принимают и, например, руководят тушением лесных пожаров. Или наводят инспекторов на браконьеров. В каком-нибудь далёком светлом будущем, возможно, получится настолько усовершить камеры и средства передачи информации от них, что это задачи сможет решать оператор в удаленном кресле. А пока никак.

Цитата: Водитель от 05.10.2025 09:10:59Если человек выполняет функцию аппарата дзз, то проблема не в глубине и ширине поля зрения, а в необходимости сидеть космонавту у иллюминатора три 8 часовых смены семь дней в неделю. А вдруг что. 
Функции аппарата ДЗЗ выполняет аппарат ДЗЗ. А человек может  принимать решения (или собирать информацию, на основании которой принимаются решения) - что именно нужно увидеть аппарату ДЗЗ. В том числе на основании того, что видит сам и что аппарат может ненароком не разглядеть. Просто потому, что внезапно оказывается не заточен на разглядывание нюансов, вполне видимых человечьим глазом, а по результатам человечьих наблюдений его можно дотачивать. Или обучать ИИ различению нюансов. Или еще как.

Неужели это так сложно и иначе как в терминах "или человек, или аппарат" воспринимать окружающую действительность не получается?


mik73

Цитата: blik от 05.10.2025 13:01:524. Палочки обеспечивают черно белое зрение. В этой области глаз полностью проигрывает фотоматрицам по всем параметрам. Уже 3й раз это пишу.
То есть вы хотите сказать, что на перфирерии зрения вы цвета не различаете? И мелкого таракана, прикинувшегося ветошью на сходном с ним по цвету фоне не увидите? Удивительно.

Опять же человек прекрано различает в одном кадре Солнце, синее небо со всеми его облачками и их оттенками и градациями яркости, да еще и цвета травы и цветочков на лугу под этим небом.  А сделайте кадр со всем этим современной  камерой (да тем же D850) на самой малой чувсвтительности (с макс. ДД то есть)  - что у вас в кадре останется?

Особенность человечьего зрения именно в том, что в итоге вот всех этих палочек-колбочек, котоыре сами по себе вполне убоги на фоне разной современной техники, и обработки полученного ими в мозгу -  получается картинка в широком поле зрения с огромным ДД и вполне приличным разрением. Чтобы сделать то же самое камерой - на неё надо ставить достаточно длиннофокусный объектив с блендой и снимать всё то же самое поле зрения в кучу приёмов (и по экспозиии, и по количеству кадров, чтобы охватить то же самое поле зрения). В итоге то, что человек накрывает одним взглядом за доли секунды - камерой получается долго, сложно и с огромным объемом информации на выходе, передавать которое хоть как в разы дольше, чем человек успевает увидеть и принять на основании увиденного какое-нибудь решение.

Хотя каждую частную задачу (в узком диапазоне яркостей, в предопределённом наборе спектральных полос и т.п.)  камеры могут решать много лучше, чем человек.

Цитата: blik от 05.10.2025 13:01:52Вот же уважаемый спец дал ссылки не реальную подготовку космонавтов к наблюдениям. Все же отчетливо видно, что на самом деле используется
Используется глаз, чтобы увидеть картинку, мозг, чтобы решить что из этой картинки заслуживает интереса, фотоаппарат, чтобы зафиксировать то, что заслуживает. И плюс дешифровка - то обучение пониманию того, как видимое сверху соотносится с местностью и что означает.

Водитель

Цитата: mik73 от 05.10.2025 23:21:03
Цитата: Водитель от 05.10.2025 08:59:36А ИК камеры бегать уже тоже научились?
А при чём тут ИК-камеры. Поинтересуйтесь, какие задачи решают лётчики-наблюдатели в лесоохране, например. Камеры решения принимать не умеют. А лётнабы на основании увиденного - принимают и, например, руководят тушением лесных пожаров. Или наводят инспекторов на браконьеров. В каком-нибудь далёком светлом будущем, возможно, получится настолько усовершить камеры и средства передачи информации от них, что это задачи сможет решать оператор в удаленном кресле. А пока никак.

Цитата: Водитель от 05.10.2025 09:10:59Если человек выполняет функцию аппарата дзз, то проблема не в глубине и ширине поля зрения, а в необходимости сидеть космонавту у иллюминатора три 8 часовых смены семь дней в неделю. А вдруг что.
Функции аппарата ДЗЗ выполняет аппарат ДЗЗ. А человек может  принимать решения (или собирать информацию, на основании которой принимаются решения) - что именно нужно увидеть аппарату ДЗЗ. В том числе на основании того, что видит сам и что аппарат может ненароком не разглядеть. Просто потому, что внезапно оказывается не заточен на разглядывание нюансов, вполне видимых человечьим глазом, а по результатам человечьих наблюдений его можно дотачивать. Или обучать ИИ различению нюансов. Или еще как.

Неужели это так сложно и иначе как в терминах "или человек, или аппарат" воспринимать окружающую действительность не получается?


ИК камеры ставят уже на дроны пожарохраны. Как вы себе человека в дрон посадите, для принятия решения.(и как вообще уже 30 лет дроны наносят высокоточные удары за сотни километров).

Человеческий глаз увидит меньше чем аппарат. Тем более на единственной станции. Для обзорных наблюдений есть метеоспутники и прочие на высоких орбитах. Они смотрят на Землю 24/7 в разных диапазонах.

Человек решает что из этого важно из мягкого кресла на Земле.

mik73

Цитата: Водитель от 06.10.2025 00:05:54ИК камеры ставят уже на дроны пожарохраны. Как вы себе человека в дрон посадите, для принятия решения.(и как вообще уже 30 лет дроны наносят высокоточные удары за сотни километров).
ИК камеры на дроны ставят. С их помощью можно обнаружить очаг возгорания. Как-то его оценить.
Но чтобы принять решение о том, уже нужно этот очаг тушить и как его тушить - однйо ИК-камеры на дроне мало. И даже нескольких мало.  Чтобы всю эту информацию получить - надо обвесить таким количеством камер и другого обоурудования, что он станет полноценным вертолётом, да еще толстенный канал связи на него бросить для передачи всего этого с этих камер в реальном времени. Поэтому если дело дошло до тушения и, скажем, вопроса о выброске для этого десанта, то без человека в вертолёте, который глядя в реальнмо времени  оценивает ситуацию, определяет какие силы задействовать, куда их выбросить, какие задачи им ставить и т.п. - уже не обойтись. Естественно, у этого человека в вертолёте есть не только глаза, но и технические средства наблюдения - камеры, бинокли, тепловизоры и проч. Не считая разной другой информации об остановке. До того, чтобы это всё можно было делать из мягкого кресла - пока дистанция огромного размера.