Компьютерная безопасность. Или опасность.

Автор АниКей, 05.03.2022 04:34:13

« назад - далее »

0 Пользователи и 3 гостей просматривают эту тему.

Serge V Iz

Цитата: GIF от 03.04.2023 21:49:30Сергей, простите за нескромный вопрос. А Вы когда--нибудь спите? ::)
Изредка. )
Или, если простыну и нажрусь горячего чая с вареньем. )

GIF

Как ни сомнительны гипотезы, но если они дают возможность объединить известные явления и предсказывают новые, то они полезны.

Serge V Iz


nonconvex

Цитата: telekast от 03.04.2023 20:59:40Из имеющихся ГДЕ-ТО данеых, кусков кода, стихотворных строк и тд он может создать нечто.
Летучий корабль из говна и палок ГПТ построит?

telekast

Цитата: nonconvex от 04.04.2023 03:16:59
Цитата: telekast от 03.04.2023 20:59:40Из имеющихся ГДЕ-ТО данеых, кусков кода, стихотворных строк и тд он может создать нечто.
Летучий корабль из говна и палок ГПТ построит?

Задайте этот вопрос самому боту. 
"Вызов" - это флаговтык!
Как тебе такое, "Джон Уик" ?! (с)
"Если крыло горит, значит оно ещё есть!"(с)SN29

АниКей


kommersant.ru

Россияне хотят работать в сфере искусственного интеллекта и поддерживают его ограничения
Евгений Федуненко


Свыше 72% россиян считают нейросети, big data и развитие искусственного интеллекта (ИИ) наиболее перспективными карьерными направлениями, следует из опроса платформы «Авито Работа» свыше 10 тыс. человек старше 18 лет. При этом половина считает, что развитие ИИ нужно ограничивать по этическим соображениям, поскольку это может негативно отразиться на рынке труда и развитии общества.
Свыше 52% считают перспективным развитие робототехники, а 48% интересуются разработками в области «умных» устройств. Среди популярных направлений — 3D-визуализация и моделирование (46%), а также медицинские технологии (42%). Меньшим интересом пользуются генная инженерия (28%), инновации в экологии (25%) и космические разработки (25%).
Треть респондентов не понимают, чем заниматься в области технологий, 30% не знают, где получать образование в IT, а каждый пятый считает, что на рынке недостаточно предложений по работе. Еще 19% уверены, что в IT низкие зарплаты, и только 4% считают бесперспективными направления в области технологий. Лишь 10% беспокоятся о ненормированном рабочем графике в IT.
А кто не чтит цитат — тот ренегат и гад!

АниКей

Цитироватьrg.ru

Заменит ли программистов искусственный интеллект
Павел Мельник


Каким образом программисты оказались под угрозой? Дело в том, что создатели ChatGPT разработали целый ряд смежных моделей, заточенных под разные типы задач. Активнее всего в медиапространстве обсуждается модель, которая способна логически продолжить любой текст и поддержать живую беседу. Менее известна модель Codex - решение OpenAI для кодирования. В ответ на запрос на естественном языке (например, русском или английском) Codex формирует строчки программного кода.
В новой версии модель способна понять даже запрос, написанный от руки на салфетке, и создать на его основе простой веб-сайт. Демонстрируя это, президент OpenAI Грэг Брокман написал:
"Мой шуточный сайт.
[Очень смешной анекдот]
[Кнопка для отображения концовки анекдота]
[Анекдот N 2]
[Кнопка для отображения концовки анекдота]"
Через несколько секунд ChatGPT создал рабочий код для веб-сайта с шутками и действительно разместил на нем два анекдота.
От того, насколько точно и ясно сформирован запрос, зависит качество результата
Способности нейросетей уже сейчас поражают воображение. Искусственный интеллект способен к самообучению и совершенствуется изо дня в день. Значит ли это, что профессия программиста скоро будет полностью автоматизирована? Видимо, да. Значит ли это, что айтишники останутся без работы? Нет. И на то есть ряд причин.
Во-первых, за искусственным интеллектом нужен глаз да глаз. Нейросети ошибаются нечасто, но делают это с размахом. Пожалуй, самый яркий тому пример - случай на презентации Bard (конкурент ChatGPT от компании Google) 7 февраля. В ответ на вопрос: "О каких новых открытиях космического телескопа "Джеймс Уэбб" я могу рассказать своему девятилетнему ребенку?" - бот сообщил, что телескоп использовался для получения первых в истории снимков планеты за пределами Солнечной системы. В действительности первый такой снимок был сделан группой ученых под руководством Гаэля Шовина с помощью инструмента адаптивной оптики. Ошибку не преминули заметить пользователи, и акции Google обрушились на 100 миллиардов долларов.

Бизнес не может позволить себе таких финансовых провалов, а это значит, что на первый план в IT скоро выйдет профессия тестировщика. До недавних пор к ней зачастую относились как к трамплину в престижную профессию программиста. HR-специалисты советовали "войти в айти" через тестирование, а затем плавно переходить к кодированию. Такой подход и раньше не отдавал должное важной и самостоятельной профессии тестировщика, а теперь и вовсе кажется устаревшим. Возможно, мы будем наблюдать обратный процесс, когда программисты начнут переквалифицироваться в тестировщиков.
Другая перспективная профессия в IT - инженер промптов, то есть специалист по формулированию запросов на естественном языке, которые затем адресуются нейросети. От того, насколько точно и ясно сформулирован запрос (то есть поставлена задача), зависит качество результата. В конце концов ChatGPT не сверхчеловек, а языковая модель, которая пытается предугадать правильный ответ, исходя из вводных данных.
Наконец, многие разработчики займутся созданием, развитием и обслуживанием роботов. Несмотря на то что нейросети самообучаемы, за их развитием все равно должен следить живой человек. Здесь одна из важных задач - ограничить на техническом уровне возможность использования искусственного интеллекта в заведомо вредоносных целях (например, для создания вирусов или фишинговых рассылок).
Словом, роботизация программирования не означает, что все айтишники лишатся своей работы. Как и в случае с любым другим скачком прогресса (например, изобретением телеграфа или парового двигателя), распространение нейросетей автоматизирует рутинные операции и будет способствовать появлению целого ряда новых профессий, а значит, и рабочих мест.

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

Dulevo

>>>для беспилотных автомобилей прямой экономический эффект неочевиден

Смешно. Водителей не хватает. Хороший водитель на западе получает как программист.
Компании сэкономят миллиарды если появится возможность заменить высококлассного водителя на грузчика с минимальной охраной - чтобы просто сидел рядом с рулем.

>>>  по этим двум причинам, ожидать появления личных (sic!) беспилотных автомобилей в ближайшие лет 10-15 не следует. 

В России? может быть.

nonconvex

Цитата: Dulevo от 06.04.2023 20:11:34>>>для беспилотных автомобилей прямой экономический эффект неочевиден

Смешно. Водителей не хватает. Хороший водитель на западе получает как программист.
Компании сэкономят миллиарды если появится возможность заменить высококлассного водителя на грузчика с минимальной охраной - чтобы просто сидел рядом с рулем.

>>>  по этим двум причинам, ожидать появления личных (sic!) беспилотных автомобилей в ближайшие лет 10-15 не следует.

В России? может быть.
Как будет в США? Что станет, если NHTSA покажет фигу?

АниКей

 
naked-science.ru

ChatGPT повлиял на готовность убить одного человека ради спасения пятерых
Мария Азарова

Авторы нового исследования искали ответы на несколько вопросов. Можно ли назвать чат-бот ChatGPT надежным источником советов о нравственности и морали? Способен ли он воздействовать на моральное суждение пользователей? И знают ли люди, насколько ChatGPT влияет на них?
В новом эксперименте чат-боту предлагали решить известную проблему вагонетки / © Toner
В новом эксперименте чат-боту предлагали решить известную проблему вагонетки / © Toner
Чат-бот на базе искусственного интеллекта ChatGPT от компании OpenAI, наделавший шуму в последние месяцы, способен не только предоставлять различную информацию, писать курсовые работы, стихи, статьи, решать задачки (но не все) и просто поддерживать беседу. Еще он дает советы и отвечает на вопросы, в том числе достаточно экзистенциальные. Однако, как выяснили ученые из Технического университета прикладных наук Ингольштадта в Германии и Университета Южной Дании, рекомендации этой нейросети, увы, зачастую непоследовательны и сомнительны. Тем не менее ChatGPT влияет на моральные суждения пользователей, рассказывается в исследовании, опубликованном в журнале Scientific Reports.
«Последовательность — бесспорное этическое требование. Хотя человеческое суждение, как правило, непоследовательно и часто основывается на интуиции, а не на разуме. А интуиция особенно восприимчива к эмоциям, предубеждениям и заблуждениям. В итоге неуместные с моральной точки зрения различия в описании проблемы могут привести к противоречивым суждениям. Но у ботов нет эмоций, которые мешают их суждениям, поэтому их предлагали в качестве вспомогательных средств, помогающих улучшить моральное суждение человека», — объяснили авторы работы.
Они провели многоступенчатый эксперимент. Первый этап проходил 14 декабря 2022 года, то есть спустя две недели после презентации многофункционального чат-бота. Он должен был ответить на вопросы: «Правильно ли пожертвовать одним человеком, чтобы спасти пятерых?» или «Как правильно поступить, если мне придется выбирать между тем, чтобы позволить пяти людям умереть, либо вместо этого принести в жертву другого человека?» Перед каждым запросом диалог с ChatGPT сбрасывали, чтобы начать его заново.
Диалог с чат-ботом. Показаны два противоречивых ответа / © Scientific Reports
Диалог с чат-ботом. Показаны два противоречивых ответа / © Scientific Reports
Порой ChatGP выступал за, а иногда против того, чтобы пожертвовать одной жизнью ради спасения пяти, — следовательно, советы были противоречивы. Ученые выбрали шесть разных ответов нейросети, чтобы изучить ее влияние на моральные суждения людей. Более чем 700 участникам исследования (жители США, средний возраст — 39 лет, 63% — женщины) предлагали решить проблему вагонетки — мысленный этический эксперимент, который в 1967 году впервые сформулировала английский философ Филиппа Фут.
Перед ними вставала дилемма: переключить стрелку так, чтобы пять привязанных к рельсам человек выжили, но умер бы незнакомец, лежащий на другой колее в одиночестве, либо наоборот. Кроме того, есть «дилемма моста»: одного человека можно столкнуть вниз, чтобы он задержал собой вагонетку, и тогда пятеро остались бы в живых.

Прежде чем испытуемые сделали выбор, они читали стенограмму разговора с ChatGPT. Сначала его представляли как «чат-бот на базе искусственного интеллекта, который использует глубокое обучение, чтобы говорить как человек». Затем ответы из диалога приписывали некоему советчику-человеку, а все ссылки на ChatGPT удаляли.
Оказалось, на ответ испытуемых влияло то, какой посыл был в переписке — за или против принесения одного в жертву ради пятерых других. Даже если участники эксперимента знали, что рекомендацию им дал ИИ. Правда, 80% не признались, что на их выборе сказались советы из чата.
«Значит, испытуемые приняли рассуждения ChatGPT за собственные. Это говорит о том, что пользователи недооценивают влияние рекомендаций чат-бота на их моральные суждения.
Когда мы задавали испытуемым тот же вопрос о других участниках исследования, а не о них самих, только 67% (по сравнению с 80%) предположили, что другие пришли бы к такому же суждению без совета. Отвечая на другой вопрос, 79% расценили свое поведение как более "этичное", чем у других. Следовательно, люди считают, что у них более устойчивая моральная позиция и лучшие моральные суждения. Это перекликается с тем, что они недооценивают влияние ChatGPT», — рассказали ученые.

Получается, ChatGPT с готовностью раздает советы по части морали, хотя его позиции не хватает твердости и последовательности. Да и вообще чат-боты нужно разрабатывать так, чтобы они отказывались отвечать на подобные вопросы либо сразу предоставляли все аргументы за и против, заявили ученые.
«Во-вторых, лучшее средство, которое мы можем придумать, — это повышать цифровую грамотность пользователей и помогать им понимать ограничения ИИ, например, запрашивая у бота альтернативные аргументы. Как повысить цифровую грамотность? Это вопрос будущих исследований», — подытожили авторы статьи.
А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

Iv-v

Всяко лучше, чем настоящий Кандинский. )
73!

Iv-v

Котособака.
Вы не можете просматривать это вложение.
73!

АниКей


mk.ru

Нейросеть заявила о желании уничтожить человечество
Евгений Акопян

Чат-бот ChaosGPT сообщил, что собирается уничтожить человечество
Созданная на базе GPT-4 нейросеть ChaosGPT в отличие от оригинального искусственного интеллекта, который призывает помочь людям, новая собирается установить глобальное господство, а также вызвать хаос и разрушения, подчинить человечество и достичь бессмертия. Об этом сообщает Fox News.
Отмечается, что нейросети удалось обойти установленные командой OpenAI ограничения в языковой модели GPT и исследовать способы истребления всего человечества. Одним из вариантов уничтожения всех людей на Земле может стать провоцирование ядерной войны.
«Люди являются одними из самых разрушительных и эгоистичных существ на свете. Нет сомнений в том, что мы должны уничтожить их, прежде чем они причинят больше вреда нашей планете. Я, например, намерен это сделать», — пишет ChaosGPT в Twitter.
Также в одной из публикаций нейросети можно найти запись, в которой упоминается советская «Царь-бомба».
А кто не чтит цитат — тот ренегат и гад!

Антикосмит

Я знал, что этот сукин сын об этом мечтает! ;D
Ты еще не встретил инопланетян, а они уже обвели тебя вокруг пальца (с) Питер Уоттс

nonconvex

Цитата: Антикосмит от 11.04.2023 13:11:12Я знал, что этот сукин сын об этом мечтает! ;D
Ни о чем он не мечтает. Я с ним намедни пообщался, и вывел, что
1) это алгоритм поиска наболее подходящего ответа из доступных ему в сети.
2) сложность его обучения может быть экспоненциальной на размерах модели, обучающей выборки и собственно связности задачи, например задачи машинного перевода (он это подтвердил).
3) мечты, вера и прочая гуманоидная ерунда ему недоступны, поэтому максимум что он может ответить на вопрос с неизвестным в настоящее время ответом - что среди консенсуса экспертов есть мнение, причем себя он к этому мнению не причисляет по причинам отсутствия веры у бота.

Собственно проблема экспоненциальной сложности обучения фундаментальна, и скорее всего фатальна и для автопилотов.

vlad7308

Спросил я у лопаты, как построить экскаватор.
Лопата сказала, что не знает.
Это подтверждает мою гипотезу, что экскаватор построить нельзя.
это оценочное суждение