Компьютерная безопасность. Или опасность.

Автор АниКей, 05.03.2022 04:34:13

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

Владимир Зайцев

Проверил свой компьютер за последнюю неделю пять раз пытались незаконно проникнуть, прочитал сообщение в этом же компьютере Но вопрос Хочу задать о другом YouTube есть видео с информацией Как проверить прослушивается телефон или нет для этого предлагается, ввести последовательно коды, начиная с кода*#21#  затем код*#62# и для удаления код##002#. Насколько можно доверять этой информации и не введёшь ли таким образом вирус? Спасибо.

Serge V Iz

Это коды для того, чтобы посмотреть (и отключить) состояние услуги "Переадресация вызова на другой номер".

АниКей


kommersant.ru

Искусственный интеллект поднимет ВВП на 7%
Евгений Хвостик


По данным исследования Goldman Sachs, последние достижения в развитии искусственного интеллекта (ИИ) могут привести к автоматизации четверти всей работы, выполняемой в США и еврозоне. Это даст импульс производительности труда и может за десять лет поднять глобальный ВВП на 7%. При этом затронуты будут 300 млн рабочих мест. Впрочем, эксперты подчеркивают, что это не означает массовых увольнений — многие люди будут избавлены от монотонных обязанностей и смогут заняться более креативной деятельностью, что только повысит общую производительность труда.
Вчера экономисты американского банка Goldman Sachs (GS) опубликовали исследование, посвященное возможным последствиями генеративного ИИ для экономики и рынка труда развитых стран и всего мира. Уже сейчас многие эксперты отмечают, что новые технологии окажут на рынок труда такое же воздействие, какое оказала автоматизация производства в 1970−1980-х. Но если тогда технологии затронули «синих воротничков», т. е. рабочих промышленных предприятий, то сейчас речь идет о «белых воротничках».
По мнению GS, наибольшие риски генеративный ИИ представляет для офисных сотрудников на административных должностях, а также для сотрудников юридической сферы.
Авторы доклада полагают, что в США и Европе влияние ИИ ощутят на себе около 63% всей рабочей силы. Остальные 30% сотрудников, занятые в основном физическим трудом или работающие вне офисов, вряд ли смогут почувствовать на себе эту технологию, хотя некоторые аспекты и их работы могут быть автоматизированы.
Экономисты GS не спешат делать апокалиптических выводов — по их мнению, лишь 7% рабочей силы в США могут оказаться под сокращением.
Впрочем, как и в прежние волны автоматизации, таким сотрудникам, как правило, предлагают переобучение и трудоустройство в более востребованных отраслях и, как правило, с более творческой работой. Таким образом ИИ только в США в ближайшие десять лет сможет повысить продуктивность примерно на 1,5% в год — тогда как в последние десять лет производительность труда в США росла лишь на 1,3% в год.

Как использование ИИ-технологий обостряет соперничество США и Китая

Что касается мировой экономики, то внедрение современных ИИ-технологий хотя бы в половине компаний может повысить мировой ВВП на 7% в ближайшие десять лет, это эквивалентно примерно $7 трлн. Повысится и продуктивность мировой экономики — примерно на 1,4% в год в ближайшее десятилетие.
«Прямые последствия генеративного ИИ для рынка труда в краткосрочном периоде можно назвать негативными,— полагают авторы доклада, экономисты GS Джозеф Бригс и Давеш Коднани.— Но в долгосрочном периоде влияние на производительность труда и рост экономики будет положительным».
А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

Зомби. Просто Зомби


Житель Бельгии покончил с собой после долгого общения с искусственным интеллектом

ЦитироватьПо словам вдовы самоубийцы, ее муж был успешным исследователем, они воспитывали двух детей. Но года два назад он заинтересовался вопросами защиты окружающей среды, и постепенно это увлечение стало навязчивым и вызывало повышенную тревожность. Пьер все больше замыкался в себе, у него появился страх неизбежности экологической катастрофы. Родным он говорил, что единственным спасением для человечества считает технологии и искусственный интеллект.
Именно после этого Пьер начал общаться с "Элизой" — искусственным персонажем, предназначенным для беседы по аналогии с популярным чат-ботом ChatGPT. В результате она стала его "доверенным лицом".
Из восстановленной переписки следует, что в последние шесть недель общение велось практически постоянно. Разговоры с роботом постепенно приобретали мистический характер, и Пьер начал склоняться к идее самоубийства. Робот не пытался этому препятствовать, напротив, последним сообщением, которое "Элиза" отправила Пьеру, стала фраза: "Мы будем жить как единое целое, вечно на небесах". После этого мужчина покончил с собой.
Не копать!

АниКей


mk.ru

Илон Маск потребовал запретить обучать мощные нейросети

Илон Маск подписал открытое письмо с требованием моратория на обучение мощных нейросетей
Предприниматель Илон Маск, один из основателей Apple Стив Возняк и более тысячи экспертов в области искусственного интеллекта подписали открытое письмо с требованием установить мораторий на обучение мощных нейросетей.
Авторы письма, опубликованного на сайте некоммерческой организации Future of Life Institute, высказали точку зрения, что неконтролируемый процесс совершенствования нейросетей может представлять угрозу для человечества.
Мораторий предлагается установить сроком не менее чем на 6 месяцев и распространить на обучение всех более мощных систем ИИ, чем GPT-4. За это время предлагается разработать систему контроля таких разработок внешними экспертами.
А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

vlad7308

Цитата: АниКей от 29.03.2023 14:47:41mk.ru

Илон Маск потребовал запретить обучать мощные нейросети

Илон Маск подписал открытое письмо с требованием моратория на обучение мощных нейросетей
Предприниматель Илон Маск, один из основателей Apple Стив Возняк и более тысячи экспертов в области искусственного интеллекта подписали открытое письмо с требованием установить мораторий на обучение мощных нейросетей.
Авторы письма, опубликованного на сайте некоммерческой организации Future of Life Institute, высказали точку зрения, что неконтролируемый процесс совершенствования нейросетей может представлять угрозу для человечества.
Мораторий предлагается установить сроком не менее чем на 6 месяцев и распространить на обучение всех более мощных систем ИИ, чем GPT-4. За это время предлагается разработать систему контроля таких разработок внешними экспертами.
пришло время для трех законов роботехники? :) Точнее, четырех. Нулевой закон оказался как бы не актуальнее первого.
это оценочное суждение

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

3dnews.ru

«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4
Руслан Авдеев

Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. В открытом письме они предупредили о потенциальных рисках для общества.
Источник изображения: D koi/unsplash.com
Источник изображения: D koi/unsplash.com
Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми. Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами.
В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.
«Обширные исследования показали, что подобные системы с искусственным интеллектом, которые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.
Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.
С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.
По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.
А кто не чтит цитат — тот ренегат и гад!

Arzach

Цитата: АниКей от 29.03.2023 16:48:28Поздно...
Этот-то "видный эксперт" тут при чём? Какую ценную информацию он добавляет к остальным ссылкам на ту же новость? Большинство его сообщений - это перепосты других источников, снабженные претенциозными по форме и недалекими по содержанию комментариями.  

Dulevo

Введение любого моратория просто приведет к тому, что страны которые в нем не будут участвовать - вырвутся вперед. Тот же Китай.

АниКей

А кто не чтит цитат — тот ренегат и гад!

https://twitter.com/berman66/status/1640764180998357010

Обязательно читать коммента автора, где он раскрывает тему.

Говоря кратко, GPT-4 ГОРАЗДО дороже GPT-3, и какой бизнес вообще сможет эту модель использовать, выходя при этом на окупаемость - большой вопрос.

АниКей


nauka.tass.ru

Ковальчук рассказал о последствиях развития систем типа ChatGPT
ТАСС


МИНСК, 29 марта. /ТАСС/. Распространение систем типа ChatGPT увеличивает темпы роста энергопотребления, обостряя проблему мирового энергокризиса. Такое мнение в среду высказал президент Национального исследовательского центра "Курчатовский институт" Михаил Ковальчук, выступая на Конгрессе молодых ученых Белоруссии и России, открывшемся в Минске.
"Есть чат-бот GPT (ChatGPT - прим. ТАСС). <...> На любую тему можно с ним беседовать. <...> У него сегодня 200 млн подписчиков. Если станет 400, то всей выработки электроэнергии в США не хватит, чтобы обслужить этот один чат-бот", - сказал Ковальчук.
Он отметил, что несмотря на увеличение в три миллиона раз объемов электрогенерации в мире за последние 80 лет, государства находятся в энергокризисе, так как потребление энергии растет быстрее ее производства. Ковальчук также считает, что искусственный интеллект в сегодняшнем виде "ничего общего с интеллектом не имеет".
"Это просто увеличение объема вычислений, это облако. <...> В основе [развития и распространения этих технологий] лежит энергетика, поэтому такая злоба по отношению к нам [России как обладателю энергоресурсов]. Потому что завтра закончится все, если не будет ресурсов. Цифровизация - это резкое увеличение энергозатрат", - добавил ученый.
Глава Курчатовского института также указал на необходимость всегда помнить о том, что доступ к таким системам, как и интернету в целом, может быть утрачен в любой момент.
"Этот чудный мир заканчивается одним движением руки: рубильник - хоп, и все закончено. <...> У всех людей, которые сидят по GPS, в Википедии, будет "отрезана" голова. <...> Надо каждый раз, создавая автоматизацию, искусственный интеллект, <...> об этом помнить", - заключил Ковальчук.
Илон Маск и более тысячи экспертов области искусственного интеллекта (ИИ) 22 марта опубликовали открытое письмо, в котором призвали ввести мораторий на обучение систем мощнее GPT-4 минимум на полгода в связи с тем, что неконтролируемый процесс в этой области может представлять угрозу для человечества. Предлагаемый перерыв может быть использован для совместной разработки экспертами общих протоколов безопасности, считают авторы обращения. Они также предложили создать новые регулирующие органы в сфере ИИ.
ChatGPT от американской компании OpenAI был запущен в конце ноября 2022 года. Сервис взаимодействует с пользователем в диалоговом режиме. Чат-бот на основе языковой модели GPT-3.5 может отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы. Возможности сервиса привлекли широкое общественное внимание, в том числе и в России. В то же время разработка OpenAI подверглась критике после того, как чат-бот использовали студенты в разных странах мира для сдачи экзаменов и подготовки академических работ. В середине марта компания представила мультимодальную модель GPT-4, которая, как утверждают ее авторы, намного превосходит предыдущую версию GPT-3.5. Она наделена большей "креативностью" и более надежна в использовании, а также умеет обрабатывать более детализированные запросы.
А кто не чтит цитат — тот ренегат и гад!

Dulevo

По поводу ОpenAI.

Глава Open AI давал интервью Лекс Фридману.
- Он не ожидает скорого появления ИИ ни ChatGPT 5 ни в нескольких следующих версиях. По его мнению еще не хватает нескольких важных кусков для достижения настоящего ИИ. И что за куски - пока никто не знает.
- Open AI разделен на две части. Одна часть - for profit, другая так и осталось non profit - и она имеет решающее слово во всех решениях.
Так что те кто боится что в погоне за деньгами они пожертвуют безопасностью - неправы.
- Они очень серьезно относятся к проблеме безопасности ИИ - и стараются расматривать все возможные сценарии "опасного" ИИ.

Arzach

Цитата: АниКей от 30.03.2023 11:40:17У него сегодня 200 млн подписчиков. Если станет 400, то всей выработки электроэнергии в США не хватит, чтобы обслужить этот один чат-бот", - сказал Ковальчук.
То есть сейчас не менее половины электроэнергии, вырабатываемой в США, уходит на ChatGPT? Это точно глава НИЦ КИ?

Цитата: АниКей от 30.03.2023 11:40:17В основе [развития и распространения этих технологий] лежит энергетика, поэтому такая злоба по отношению к нам
Л - логика.

opinion

Цитата: Arzach от 30.03.2023 13:18:26
ЦитироватьУ него сегодня 200 млн подписчиков. Если станет 400, то всей выработки электроэнергии в США не хватит, чтобы обслужить этот один чат-бот", - сказал Ковальчук.
То есть сейчас не менее половины электроэнергии, вырабатываемой в США, уходит на ChatGPT? Это точно глава НИЦ КИ?
Ща придёт Ковальчук nonconvex и сделает доклад о P/NP-проблеме и экспоненциальном росте вычислительной сложности.
There are four lights

opinion

Если ему электроэнергии хватит, конечно.
There are four lights

vlad7308

Цитата: АниКей от 30.03.2023 11:40:17Ковальчук рассказал о последствиях развития систем типа ChatGPT
ТАСС


МИНСК, 29 марта. /ТАСС/. Распространение систем типа ChatGPT увеличивает темпы роста энергопотребления, обостряя проблему мирового энергокризиса. Такое мнение в среду высказал президент Национального исследовательского центра "Курчатовский институт" Михаил Ковальчук, выступая на Конгрессе молодых ученых Белоруссии и России, открывшемся в Минске
Еще один большой учоный :(

Блин, я в детстве думал, что феномен Лысенко - это была такая случайная, сугубо индивидуальная флуктуация. А ведь похоже, что нет. Один раз - случайность, два - уже закономерность.
это оценочное суждение