Компьютерная безопасность. Или опасность.

Автор АниКей, 05.03.2022 04:34:13

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

АниКей


naked-science.ru

«Злой? Плохой? Хороший!»: что такое этика искусственного интеллекта и как она помогает сделать алгоритмы полезными и безопасными для людей
Даниил Кузнецов
https://naked-science.ru/article/hi-tech/good-artificial-intelligence


Разве у ИИ вообще может быть этика? Он же — неживой! Конечно, сам по себе ИИ не может различать добро и зло. Задача человечества — не сделать ИИ похожим на человека, а научить его действовать исходя из принципов справедливости и морали, а вовсе не так, как обычно поступает большинство людей. Naked Science отвечает на популярные вопросы о том, кто и зачем формулирует этические принципы для ИИ, и где и как их применяют.
Этика — это же что-то из философии? О чём вообще речь?
Д
Спойлер
ействительно, первоначально этика — это философская дисциплина о нормах поведения по отношению к другим людям, обществу, Богу и т.д., а впоследствии и о внутренних моральных категориях. Известна, например, такая этическая максима философа Иммануила Канта — категорический императив — «поступай так, чтобы ты всегда относился к человечеству и в своём лице, и в лице всякого другого как к цели, и никогда — как к средству».
Но этику можно понимать и гораздо проще — как систему моральных принципов, позволяющих каждому человеку различать добро и зло; понимать, что такое хорошо, а что такое плохо. Этика регулирует общежитие людей, сообществ, государств. Золотое правило этики — «не делай другим того, чего не желаешь себе». 
И какое отношение этика имеет к технологиям?
Долгое время люди делили мир на животных — действующих исключительно «по природе», на основании инстинктов, и разумных людей, чьи поступки рациональны и опираются на этические принципы. Поэтому если кто-то их нарушает, то это либо плохой человек, недостойный жить в обществе, либо сумасшедший. Однако со временем люди стали делегировать часть своих действий машинам. Теперь машины совершали определенные деяния, но не располагая при этом ни мышлением, ни моральными директивами. 
В наше время появился особый класс технологий, которые решают отдельные интеллектуальные задачи, ранее подвластные только человеку. Это так называемый слабый, узкий или прикладной искусственный интеллект. Он может играть в шахматы или водить машину. И если в первом случае ИИ вряд ли оказывает сильное воздействие на людей и общество, то во втором ему приходится решать множество этических дилемм. 
Часть из них обобщены в рамках мысленного эксперимента «проблема вагонетки» — разнообразных ситуаций выбора, когда необходимо минимизировать жертвы. Так, алгоритм беспилотного автомобиля должен в критических условиях решить, как ему поступить — уехать в кювет и подвергнуть риску пассажира, либо двигаться дальше, создавая опасность для нарушителей дорожного движения. 
Автопилот Tesla распознает объекты на дороге, а алгоритмы решают как действовать в конкретной ситуации / ©Tesla
Автопилот Tesla распознает объекты на дороге, а алгоритмы решают как действовать в конкретной ситуации / ©Tesla
Большинство моральных дилемм и принципов можно переформулировать в подобного рода задачи, а затем проверить их эмпирически или экспериментально. Это называется операционализацией этики.
Правильно ли я понимаю, что мы должны научить ИИ действовать как человек?
Увы, скорее, наоборот. Давайте в двух словах разберемся, из чего состоит любая система искусственного интеллекта. Во-первых, чтобы научиться решать какую-либо задачу, например, опознавать и классифицировать лица людей, ИИ требуются данные. Очень, очень много данных. Поэтому их ещё называют «большими данными». 
©Giphy
©Giphy
Те же изображения лиц людей часто собирают с помощью ботов в интернете. Кроме самих картинок нужны и описания для них, которые обычно берутся из контекста размещения изображения. В итоге модель, при решении задачи классификации, чаще относит женщин к категории «домашний работник», нежели, например, «врач», следуя сексистским стереотипам, укорененным в общественных устоях некоторых стран. Так проявляется предвзятость на уровне данных, наследуемая ИИ напрямую от людей.
Следующий уровень — построение алгоритма и его обучение. Здесь тоже могут возникнуть предубеждения или искажения. Проблема в том, что обычно работа любого алгоритма для исследователя или инженера — это «чёрный ящик». Нам сложно объяснить, как модель приняла то или иное решение, сделала прогноз. Преодолеть проблему на данном уровне можно с помощью подхода «объяснимого искусственного интеллекта» (eXplainable Artificial Intelligence, XAI).
Наконец, есть предвзятость и на уровне интерпретации результата работы алгоритма. Здесь как раз важна роль людей. Предположим, мы обучаем модель на данных одной популяции, получаем необходимые прогнозы, но затем применяем её к совершенно другой популяции. В некотором смысле реализуя таким образом трансфер (перенос) машинного обучения. Но теперь полученный результат может значительно отличаться, это нужно учитывать и контролировать, что происходит, увы, не всегда.
Последний момент — применение ИИ в реальной жизни и отслеживание результатов этого. Если алгоритмы ущемляют права людей, то их необходимо скорректировать или прервать работу системы. Так, в одном из муниципалитетов Южной Голландии местные активисты добились прекращения использования алгоритма Totta Data Lab для профилирования получателей социального обеспечения, доказав искажения в его работе.
Так что корректнее будет сказать, что мы должны научить ИИ действовать исходя из принципов справедливости и морали, а не так, как обычно поступает большинство людей.
Для чего ещё нужна этика искусственного интеллекта?
В первую очередь для эффективного развития технологий ИИ. Любое изобретение, выйдя за пределы гаража создателя или лаборатории учёного, обычно тут же вызывает в обществе опасения и страхи. Возьмём автомобили. На заре автомобилестроения самоходные, медленные и громыхающие паромобили пугали на улицах лошадей, возчиков и пешеходов. 
В двух странах — Великобритании и Германии — к проблеме подошли с радикально разным подходом. В Туманном Альбионе в 1865 году ввели «Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом днём или зажженным красным фонарём ночью и тем самым предупреждать о появлении нового «технологического монстра». А водителей должно было быть не меньше двух. Подобные ограничения привели к падению скорости паромобилей, неудобству их использования и полностью нивелировали и так незначительные на тот момент преимущества нового транспорта перед конным. 
«Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом / ©Wikimedia
«Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом / ©Wikimedia
В Германии же поступили ровно наоборот, дав паромобилям свободно перемещаться, что стало стимулом к их интенсивному развитию и становлению известному сейчас на весь мир немецкого автопрома. Англичане же радикально отстали в развитии передового автомобильного транспорта. Осознание проблемы пришло к ним только к концу XIX века, когда в 1896 году разрушительный для индустрии закон был наконец отменён.
При этом универсальных кодифицированных международных правил дорожного движения не существовало до 1968 года, хотя первый конвейер по сборке автомобилей Генри Форд запустил ещё в 1913 году. К 1927 году на улицах и дорогах мира колесило только около 15 млн машин марки Ford Model T, не считая всех других автомобилей. Долгое время в городах не было светофоров (в США до 1914, в Европе до 1918 годов), разметки, регулировщиков, можно было водить в алкогольном опьянении и т.д. И лишь в конце 1960-х была заключена Венская конвенция о дорожном движении, стандартизировавшая и закрепившая правила ПДД, а также Венская конвенция о дорожных знаках и сигналах, регулирующая маркировку проезжей части, работу светофоров и т.д.
Ford Model T / ©Wikimedia
Ford Model T / ©Wikimedia
Иными словами, нормы обращения с той или иной технологией сначала формируются в обществе иногда очень долгое время как этические принципы, а затем институционализируются и закрепляются юридически. Точно так же процесс идёт и в отношении ИИ, что с одной стороны даёт ему эффективно развиваться, а с другой  — оберегает от его возможного негативного воздействия людей и общество в целом.
Когда и кто впервые задумался об этике искусственного интеллекта? 
Так как само понятие «искусственный интеллект» появилось лишь в 1956 году, а общественный интерес к этой теме и того позднее — в 1960-е годы, то первыми, кто поставил и попытался решить подобные проблемы, стали писатели-фантасты. Они рассуждали о человекоподобных разумных роботах, поэтому всё течение получило название робоэтика.
Сцена из пьесы, изображающая восстание роботов / ©Wikimedia
Сцена из пьесы, изображающая восстание роботов / ©Wikimedia
В романе Карела Чапека «R.U.R.» (1920), где впервые он и предложил термин «робот», существовала Лига гуманности. Она декларировала, что роботы не должны подвергаться бесчеловечному обращению. Затем знаменитые «Три закона робототехники» плюс «нулевой закон», сформулированные учёным и писателем Айзеком Азимовым в рассказе «Хоровод» (1942) и романе «Роботы и Империя» (1986). Звучат они так:
0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. 
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
В прикладном аспекте к теме вернулись с начала 2000-х годов, когда роботы стали активно заселять не только сборочные конвейеры предприятий, но и появляться на улицах городов, в домах людей и т.д. В 2004 году в Сан-Ремо (Италия) прошёл Первый международный симпозиум по робоэтике, а в 2017 году Европарламентом была принята Европейская хартия робототехники. Сейчас дискуссии о робоэтике вновь обострились из-за массового распространения боевых автономных роботов и дронов, а также появления человекоподобных сексоботов. 
Кто и как сформулировал основные этические принципы именно в  сфере искусственного интеллекта?
С завершением «второй зимы искусственного интеллекта» и новым расцветом нейросетей и моделей глубокого обучения в 2010-х годах этикой ИИ озаботились крупнейшие IT-компании мира. В 2016 году Microsoft опубликовала «10 законов для искусственного интеллекта». Своё видение этики ИИ сформулировала и IBM. На сегодняшний момент у 30 крупных IT-компаний в мире есть собственные своды правил, кодексы и наборы этических принципов в области искусственного интеллекта. Среди них и три российских: Abbyy, Сбер и Яндекс.
Но еще более важным и глубоким стал подход различных некоммерческих организаций (НКО), объединяющих академических исследователей, инженеров из коммерческих компаний, инвесторов и бизнесменов. Самым известным кейсом стали сформулированные на Азиломарской конференции в 2017 году «23 принципа искусственного интеллекта». Под ними подписались такие исследователи и мыслители, как Ян Лекун, Илья Суцкевер, Рэй Курцвейл, Стивен Хокинг, Илон Маск, Владимир Оноприенко из России и многие-многие другие. Конкретно этических норм и ценностей касаются 13 принципов.
Можно узнать об «Азиломарских принципах» подробнее?
Вот те из них, что посвящены именно этике:
Безопасность: системы ИИ должны быть безопасными и надёжными в течение всего срока эксплуатации, а также по возможности проверяемыми.
Прозрачность отказов: если система ИИ причиняет вред, должна быть возможность выяснить, почему это произошло.
Прозрачность судебного процесса: любое участие автономной системы в принятии судебных решений должно давать удовлетворительное объяснение, проверяемое компетентной комиссией из авторитетных в этой области людей.
Ответственность: разработчики и создатели продвинутых систем ИИ являются заинтересованными сторонами в моральных последствиях их использования, неправильного использования и любых действий, они несут ответственность и имеют возможность формировать эти последствия.
Согласование ценностей: высокоавтономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение могли быть гарантированно согласованы с человеческими ценностями на протяжении всей их работы.
Человеческие ценности: системы ИИ должны разрабатываться и эксплуатироваться таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.
Приватность личной жизни: люди должны иметь право доступа, управления и контроля над данными, которые они генерируют, учитывая возможности систем ИИ анализировать и использовать эти данные.
Свобода и частная жизнь: Применение ИИ к личным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей.
Общее благо: технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей.
Общее процветание: экономическое процветание, созданное ИИ, должно быть широко распространено на благо всего человечества.
Человеческий контроль: люди должны выбирать, как им делегировать решения системам ИИ (и делать ли это вообще) для достижения целей, также определённых человеком.
©Giphy
©Giphy
Отсутствие злоупотреблений властью: власть, полученная благодаря контролю над высокоразвитыми системами ИИ, должна применяться с уважением, а также улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества.
Гонка вооружений ИИ: следует избегать гонки вооружений в области смертоносного автономного оружия.
Уф, как-то очень уж много принципов, может есть более простые системы этических постулатов, которые легко запомнить?
В целом, большинство специалистов по этике искусственного интеллекта сходятся на следующем наборе этических принципов: 
  • приватность 
  • прозрачность 
  • надёжность 
  • подотчетность 
  • равный доступ 
  • безопасность 
  • достоверность 
  • проверяемость 
  • контролируемость 
Кажется, что пока это всего лишь декларации и все эти принципы выглядят очень абстрактно. Как их применение происходит на практике?
Чтобы этика работала, необходимы стратегии по её внедрению и операционализация этических принципов в виде конкретных прикладных решаемых задач. 
В настоящее время государственные и надгосударственные органы, коммерческие компании и НКО пытаются согласовать и внедрить подход ethics by designпродумывание и решение разнообразных потенциальных этических дилемм еще на стадии проектирования и разработки систем искусственного интеллекта. Такой подход серьезно усложняет процесс разработки и требует дополнительных компетенций от инженеров и программистов, что вызывает немало трудностей в его имплементации.
Второй подход — AI Localism — тоже труден для непосредственного перевода. Его суть в том, чтобы отталкиваться не от решения абстрактных и всеобъемлющих моральных дилемм, а повсеместно собирать лучшие локальные практики работы с этическими вопросами при внедрении ИИ на уровне отдельных городов и стран, либо кейсы противодействия неэтичным системам. 
Третий подход — операционализация этических проблем не через принципы, а через конкретные описываемые риски и их предотвращение. Он ближе и понятнее для индустрии и государственных органов. Если показать экономическую целесообразность просчета рисков и работы по их устранению, то задача реализации этических принципов обретает осязаемые контуры и становится вполне решаемой.
Четвертый подход — дать голос всем заинтересованным сторонам, то есть собирать обратную связь от пользователей, независимых исследователей, НКО, маргинальных и дискриминируемых групп, а не только от разработчиков, экспертов и регуляторных органов.
Как в России обстоит дело с этикой искусственного интеллекта?
Россия в этом вопросе среди передовых держав. В ноябре 2021 года ЮНЕСКО приняла первую глобальную конвенцию — «Рекомендации по этике искусственного интеллекта ЮНЕСКО», которую поддержала Россия и ещё 190 стран мира (США, напомним, из ЮНЕСКО вышли еще в 2018 году). При этом только два государства на Генеральной конференции ЮНЕСКО в Париже заявили, что у них также есть свои рамки, в которых они будут развивать технологии искусственного интеллекта — Китай и Россия.
26 октября 2021 года в Москве в пресс-центре ТАСС прошёл первый международный форум «Этика искусственного интеллекта: начало доверия». В ходе форума был принят российский «Кодекс этики в сфере ИИ». К настоящему моменту кодекс подписали более 100 российских организаций. 
Форум «Этика искусственного интеллекта: начало доверия» / ©ТАСС
Форум «Этика искусственного интеллекта: начало доверия» / ©ТАСС
Он базируется на следующих предпосылках: носит рекомендательный характер, присоединение осуществляется на добровольной основе, распространяется только на гражданские разработки, государственное регулирование уравновешивается инструментами мягкого права. По сути, кодекс не столько определяет этику ИИ, сколько помогает организовать взаимоотношения людей и компаний в связи с развитием ИИ.
На каких принципах построен российский «Кодекс этики в сфере ИИ» и как он помогает отечественным компаниям и исследователям?
В основе российского «Кодекса этики в сфере ИИ» лежат шесть ключевых принципов:
1. Главный приоритет развития технологий ИИ — защита интересов людей, отдельных групп и каждого человека;
2. Необходимость осознания ответственности при создании и использовании ИИ;
3. Ответственность за последствия применения ИИ всегда лежат на человеке;
4. Технологии внедрять там, где это принесёт пользу людям;
5. Интересы развития технологий ИИ выше интересов конкуренции;
6. Важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках.
На сегодняшний день данный кодекс по сути устанавливает в России систему «мягкого» регулирования применения технологий искусственного интеллекта, а также служит неким инструментом взаимодействия между индустрией, обществом и органами государственной власти.
[свернуть]
А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

Цитироватьhttps://naked-science.ru/community/512739
Илон Маск отложил демонстрацию «чипа для мозга», который разрабатывает его компания Neuralink. Самый богатый человек в мире написал в социальной сети Twitter, что презентация пройдет 30 ноября, хотя ранее речь шла о 31 октября. Маск никак не объяснил задержку.

©Neuralink
Напомню, что технология Neuralink уже потрясла мир, показав обезьяну, играющую в пинг-понг на компьютере, используя «силу мысли». Задача состоит в том, чтобы вживить чип в мозг человека, что позволит парализованным людям управлять смартфонами и компьютерами. 

©Neuralink
Компания Neuralink, основанная в 2016 году, разрабатывает имплантируемые в мозг чипы, чтобы создать полноценный мозговой интерфейс в течение 25 лет.
А кто не чтит цитат — тот ренегат и гад!

АниКей

Исследователи показали, как будет выглядеть человек спустя тысячу лет 
https://naked-science.ru/community/516371
Исследовательский проект, который был осуществлен компанией Toll Free Forwarding, предупреждает, что чрезмерное использование современных технологий может привести к деградации людей в будущем.

«Минди» / ©Toll Free Forwarding
Исследователи решили показать, как будет выглядеть человек в 3000 году, создав с помощью ИИ 3D-модель человека будущего, которого они назвали «Минди». Согласно прогнозам ученых, спустя 900 лет использования различных гаджетов (смартфонов, ноутбуков и других видов техники), у людей будущего уменьшится мозг, будет сутулая спина, вечно согнутая шея, которая станет толще, а пальцы приспособятся к основной их функции — держать смартфон. 
Исследование также предсказывает, что в будущем у людей будет более толстый череп, чтобы защитить мозг от излучения смартфонов, и что у людей разовьется второе веко, чтобы защитить глаза от напряжения и слишком большого количества синего света от воздействия экрана. 
А кто не чтит цитат — тот ренегат и гад!

vlad7308

Однако не может не радовать то, что через 900 лет у людей по-прежнему будут смартфоны.
Несмотря на нехватку индия и высокие цены на нефть (с)

Компьютерная безопасность, да
это оценочное суждение

Через 900 лет человек будет похож на скелет обтянутый кожей, находящийся в коконе, выполняющем функции реанимационного оборудования и круглосуточно подключенный к общему ИИ. А все работы по поддержанию жизни общества будут выполнять автоматы-роботы, работающие по командам того же ИИ. Будет ли у человека мозг, в современном понимании, сказать не берусь... Какие уж там смартфоны???
;D или :'(
КАКТОТАК
----------------------------
Моделью ракеты можно достичь модели Марса

АниКей

А кто не чтит цитат — тот ренегат и гад!

vlad7308

Цитата: АниКей от 07.11.2022 08:57:47оварищи параноики, как там у вас обстоят дела с анонимностью?
нормально обстоят
А что?
это оценочное суждение

АниКей


officelife.media

«Ведомости»: в России готовятся заблокировать VPN


Российское Министерство цифрового развития попросило крупный бизнес и госкорпорации отчитаться об использовании VPN-сервисов. По данным источников издания «Ведомости», таким образом проводится подготовка к их блокировке на территории России.
«Ведомости»: в России готовятся заблокировать VPN
Фото: pexels.com
Письмо с запросом информации Минцифры направило в «Газпром», «Роскосмос», «Сбер», Альфа-Банк, банк «Открытие», Россельхозбанк, «Ростех», «Ростелеком», ВТБ, Промсвязьбанк, Газпромбанк, Райффайзенбанк, Росбанк и Совкомбанк. Их просят сообщить, какие VPN-сервисы они используют, в каких целях они это делают и в каких локациях.
Исследование ставит цель «снизить санкционные риски и иметь проработанные планы на случай, если подобные сервисы решат приостановить свою работу на территории России», рассказал газете представитель министерства.
Впрочем, источники «Ведомостей» в IT-компаниях говорят о подготовке к блокировке VPN-сервисов в России. А опрос госкомпаний нужен, чтобы блокировка не затронула их работу или для предложения им альтернативного защищенного VPN-сервиса, который будет работать.
В Роскомнадзоре информацию о подготовке к блокировке VPN не подтвердили и не опровергли, заявив лишь, что и так постоянно блокируют VPN-сервисы, нарушающие российское законодательство.
Опрошенные «Ведомостями» эксперты считают, что Роскомнадзор способен заблокировать подавляющее большинство VPN-сервисов и протоколов, однако «появится сотня новых протоколов и вариантов скрытия».
А кто не чтит цитат — тот ренегат и гад!

GIF

Как бы опять Роскомпозор полстраны не положил, вспоминая их борьбу (безуспешную) с Телеграмом. Они талантливые люди - смогут. ;D
Как ни сомнительны гипотезы, но если они дают возможность объединить известные явления и предсказывают новые, то они полезны.

vlad7308

Цитата: GIF от 08.11.2022 17:08:50Как бы опять Роскомпозор полстраны не положил, вспоминая их борьбу (безуспешную) с Телеграмом. Они талантливые люди - смогут. ;D
а теперь уже почти можно.
Вставай, страна огромная же.
Теперь уже почти все можно.
это оценочное суждение

GIF

Антимидасы - они такие.
Они за все берутся смело -
И превращают все в дерьмо.
А если за дерьмо берутся -
то просто тратят меньше сил.
Как ни сомнительны гипотезы, но если они дают возможность объединить известные явления и предсказывают новые, то они полезны.

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!

АниКей

А кто не чтит цитат — тот ренегат и гад!