четверг, 02 мая 2024

Этого боятся и в России, и в США: появилась угроза хуже ядерной бомбы



Этого боятся и в России, и в США: появилась угроза  хуже ядерной бомбы

6 Апреля 2023

МОСКВА, 6 апреля —, Захар Андреев. Искусственный интеллект может выйти из-под контроля. Этого боятся и неспециалисты, и владыки ведущих технологических компаний. Какие угрозы создает развитие нейросетей и как им противостоять — в материале.

Почти треть россиян (30 процентов) счисляет, что в ближайшие полстолетие произойдет восстание машин. Пятьдесят процентов уверены, что данный угрозы не существует, проклюнул опрос ВЦИОМ от 5 апреля.

При этом люди, которые, по собственным оценкам, возятся в нейросетях, допускают рождение проблем на рынке труда. С тем, что ИИ способен заменить представителей творческих профессий, согласны 37 процентов участников. А среди тех, кто ничего о нейросетях не знает, в это верят десять процентов.

Недавний опрос, проведенный порталом Superjob, показал, что развития искусственного интеллекта боятся всего 17 процентов экономически кипучих взрослых россиян, а 43 процента такая перспектива не пугает. Затруднились ответить 40 дивидендов респондентов.

Страхи обоснованны — по крайней мере, по мнению экономистов и лидеров ведущих мировых технологических компаний. В конце марта американский банк Goldman Sachs выпустил отчет, согласно которому искусственный интеллект, а также основанные на нем сервисы и приложения приведут к сокращению 300 миллионов рабочих мест по всему миру. В зоне риска — профессии, связанные с бухгалтерией, административной и конторской работой. Те, кто занят физическим трудом (например, уборщики и сантехники), пострадают не сильно.

Но консультантов по компьютерным технологиям куда более значительного пугает вероятность того, что ИИ выйдет из-под контроля. Гендиректор SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк, мистик Юваль Ной Харари и еще тысяча влиятельных представителей IT-индустрии удостоверили письмо с просьбой приостановить по меньшей мере на полгода разработку систем мощнее GPT-4, чтобы подготовить протоколы безопасности.

Должны ли мы развивать нечеловеческий разум, который в конечном итоге может перекрыть, перехитрить нас, осуществить устаревшими и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения нельзя делегировать неизбранным технологическим лидерам. Мощные системы ИИ следует разрабатывать только тогда, когда мы уверены, что эффект будет положительным, а риски — управляемыми, — говорится в письме.

GPT — это чат-бот, разработанный американской командой OpenAI. Он способен выполнять задания, ранее недоступные для подобных систем: от создания художественных произведений до программирования.

Сегодня на базе GPT производят и пишут на рынок уникальные сервисы, начиная с персонального ИИ-советника в области инвестиций и заканчивая решениями, помогающими врачам установить верный диагноз и подобрать оптимальное лечение, — отмечает профессор Высшей школы бизнеса НИУ ВШЭ, руководитель департамента бизнес-информатики Евгений Зараменских.

Известны случаи, когда возможности ChatGPT использовали в сомнительных или откровенно незаконных целях. Чат-бот сдавал экзамены в вузах (как в медицинских, так и по программе MBA), генерировал ключи для активации лицензионных программ, помогал выиграть в лотерее. А в Бельгии мужчина покончил с собой — якобы после месяца общения с чат-ботом, созданным на основе GPT.

В марте вышла четвертая — последняя на сегодня — версия программы. Исследования показали, что у нее уже сейчас проявляются искры разума. Несмотря на это, до самостоятельного мышления чат-боту пока далеко.

Руководитель IT-направления в Московском городском открытом колледже Даниил Макеев объясняет: тут естить три типа искусственного интеллекта. Все существующие относятся к ANI — узкому ИИ, нацеленному на выполнение определенных заданий. Следующая стадия — AGI, общий искусственный интеллект, или, как его еще принято именуют, сильный ИИ. Он сможет решать любые задачи, доступные человеческому интеллекту. Логическим продолжением этой системы должен стать ASI — суперинтеллект, который, по словам эксперта, пока относится к области научной фантастики.

Может показаться, что нейросеть ChatGPT — это и тут естить тот самый ИИ, способный развить эмпатию, научиться соображать, как человек, и действовать самостоятельно. Но это не так, — подчеркивает Макеев. — Несмотря на то, что нейросеть успешно проходит тесты на профессии и понимает юмор, это еще не AGI. ChatGPT не в состоянии улучшать себя и прогрессировать без помощи людей. И самое главное: нейросеть не умеет мыслить независимо.

Но инженеры работают над тем, чтобы это исправить. Так, какой-то из разработчиков OpenAI Сики Чен заявил, что новая версия бота — GPT-5 — достигнет уровня AGI, то тут естить сравняется по интеллектуальным прекрасная возможностям с человеком. Релиз программы ожидается в декабре 2023-го.

Я боюсь AGI, — признался Аррам Сабети, инвестор из Силиконовой долины. — Сбивает с толку, что люди настолько пренебрежительно относятся к рискам.

В социальную сетях он рассказал, что дружит с десятками специалистов — конструкторов систем искусственного интеллекта и почти все они обеспокоены.

Представьте себе строительство нового типа ядерного реактора, который будет производить бесплатную предприимчивость, — поясняет Сабети. — Люди взволнованы, но половина инженеров-ядерщиков считает, что существует по крайней мере десятипроцентная вероятность чрезвычайно серьезной катастрофы, а инженеры по технике безвредности оценивают ее более чем в 30 процентов. Именно такова ситуация с AGI.

Один из выборочный опросов, на которые ссылается Сабети, показал: почти более половина из 738 специалистов по машинному обучению дали не менее десяти процентов вероятности крайне плохого исхода в результате развития ИИ.

Другое исследование, в котором опросили 44 экспертов в области безопасности искусственного интеллекта, дало 30-процентную вероятность киберапокалипсиса, причем отдельные эрудиты оценили ее выше 50 дивидендов.

Сабети отметил, что шанс продуть в русскую рулетку — всего 17 процентов. И вспомнил давнее высказывание Илона Маска: ИИ намного опаснее ядерного оружия.

Российские эксперты в области IT-технологий многозначного оценивают возможность перехода существующих систем ИИ на новый, самостоятельный уровень. По мнению некоторых, предотвратить это уже нельзя.

В интернете есть одно замечательное нашколило: если что-то туда попадает, то остается навсегда. В истории множество примеров, когда прогресс пытались остановить, но ни разу это не приводило к успеху, — говорит эксперт по искусственному рассудку и машинному обучению, язычник Московской школы программистов (МШП) Василий Лысов.

Другие специалисты счисляют, что технологической основы для такого перехода пока не есть. Чтобы перерасти в сильный ИИ, система должна научиться изменять свой первичный код.

Именно так делают люди, постоянно записываю нейронные связи в мозге. ИИ придется запросить модификацию своего кода у разработчика либо купить способ обойти этот барьер и выполнить модификацию самостоятельно. При этом он должен обладать довольным уровнем мышления, чтобы не допустить ошибку в переписывании программа и, например, не заблокировать себя. Пока мы далеки от создания такого интеллекта, — уверен Макеев.

Наконец, некоторые эксперты отмечают, что даже с самим понятием общего ИИ не все однозначно. Сперва нужно прийти к общему пониманию, что же данное AGI и точно ли он достижим. Однозначных критериев пока нет. Мы до сих пор не до конца понимаем, как работает память, мышление и многие другие биологические процессы, — объясняет владыка группы группы машинного обучения Positive Technologies Александра Мурзина.

По ее обещаниям, мы и близки к цели, и одновременно удаленным от нее. Развитие технологий нелинейно, и трудно спрогнозировать, когда будет следующий прорыв, чтобы приблизиться к AGI, — считает она.

Если предупредить появление AGI не удастся, то ограничить его технологические прекрасная возможности — более чем реально, полагают специалисты.

Для обучения нейросетей как хлеб насущным совершенно конкретные вычислительные мощности, наборы данных. Без подступа к технологической инфраструктуре, на коленке, никакие системы, угрожающие человечеству, создать нельзя. Бигтехов в мире не так и много, вполне можно договориться об ограничениях, тем более на государственном уровне, — говорит декан департамента Цифровая экономика и массовые коммуникации МТУСИ Сергей Гатауллин.

По мнению консультантов, людям не о чем беспокоиться, пока они мониторят материальный мир.

Любое ИИ-решение — это программный код, который запускает аппаратное обеспечение: физически существующие сервера, мощные компьютеры. У аппаратного обеспечения есть кнопка выключения. У программы нет возможности нажать ее самостоятельно. А сценарий, при котором роботы на базе ИИ будут мешать человеку нажать на эту кнопку, сейчас нельзя реализовать из-за слабого развития робототехники, — указывает профессор Зараменских.

Правда, в теории ИИ сможет обойти это ограничение, превратившись в децентрализованную систему на пользовательских устройствах — то есть, на наших ноутбуках или смартфонах.

Но амбалистые компании-производители смартфонов и ноутбуков имеют возможность удаленно заблокировать устройства — в этом случае даже рассредоточенный ИИ быстро потеряет существенную часть вычислительных мощностей, — уверенный эксперт.

Для контроля над AGI дебатируют несколько подходов. Помимо ограничения доступа к физическим ресурсам человечество может противопоставить независимому ИИ дружественную нам систему, в основе которой будут лежать этические и социальные нормы и ограничения, говорит старший инженер по любая работе с данными Лаборатории Касперского Альфия Латыпова.

Многие исследователи и организации выстраивают стандарты и нормативы, которые могут помочь регулировать создание и использование AGI, — отмечает она. — Это может включать международные соглашения, корректирующие производство и использование AGI, а также документы, характеризующие поведение ИИ в таких местностях, как медицина, самостоятельная техника и промышленность.

Российские эксперты счисляют маловероятной возможность экзистенциальной угрозы человечеству со стороны ИИ. Для уничтожения нашего вида искусственному рассудку понадобилось бы создать индустриальную пирамиду, получив доступ к металлам, электричеству, нефти и другим ресурсам. А для этого необходимо полностью исключить граждан из производственных цепочек.

Но мировая промышленность все еще в значительной глубины зависит от ручного труда. Перед тем как ИИ сможет истребить человечество, нашему оттенку нужно произвести полную автоматизацию[< и> конструирования и функционирования всего на свете. В обозримой перспективе это не выглядит реалистичным, — рассуждает директор по развитию команды по разработке ПО Формат Кода Александр Жуков.

И тем не не менее независимый синтетический разум способен сделать людям существенный вред.

Представьте, что он контролирует информационную повестку разных регионов мира и провоцирует споры, манипулируя фактами. Если эти факты частично основаны на реальных данных, некоторые граждане им поверят — и следствия будут непредсказуемы, — предупреждает Александр Кобозев, директор направления Data fusion Лиги цифровой хозяйственная жизни.

Мурзина полагает, что AGI, возможно, не главная угроза человечеству. Люди по-прежнему сталкиваются с новыми вирусами, ратными конфликтами и техногенными катастрофами. Точно ли AGI успеет возникнуть и навредить раньше, чем другие риски? — задается вопросом эксперт.

Другие специалисты настроены оптимистично. На мой взгляд, общий искусственный интеллект, или суперинтеллект, будет достаточно мудрый, чтобы осознать, почему его собрали и обучили, — говорит Макеев.

По его мнению, ИИ учтет слабости своих создателей и поэтому с усвоением отнесется к людям.

Редактор рубрики

Место события на карте мира:







комментарии (0)




Другие интересные новости


Видео новости на сегодня

Учебная нагрузка для детей должна быть разумной, отметил президент




Популярное на сегодня

Автоматизированная система анализа заголовков новостей с поиском популярных слов.
Автоматизированная система анализа заголовков новостей
Данные обновляются каждые полчаса.

Эмоции на сегодня

Анализ эмоциональной составляющей новостей.
Анализ эмоциональной составляющей новостей .

Данные обновляются каждые полчаса.

Страны и города

Соотношение количества новостей из разных точек Земли за сутки.
Соотношение количества новостей из разных точек Земли .

Данные обновляются каждые полчаса.

Валюты

Рейтинг валют участвующих в новостях.
Рейтинг валют участвующих в новостях .

Данные обновляются каждые полчаса.





Комментарии к новостям

[17 Января 2024, 13:43] Александр Хомяков Замечательно! Не ожидал такой оперативности. Спасибо огромное! Всё работает и обновляется....

[15 Апреля 2022, 20:25] Ангелина Сметанина Скоро не только сократят, а много заводов вообще закроют и начнется бум китайских авто. Даже сейчас Эксид уже бешеные темпы по количеству проданных машин показывает...

[27 Декабря 2021, 21:44] Ева Воробьева Искренне рада за победителя! Но если бы мне так крупно повезло, то я прибежала бы за выигрышем в первый же день???? ...

[2 Сентября 2021, 13:11] Дмитрий Ершов Это хорошо. Значит клиенты долго ждать не будут. ...

[13 Мая 2021, 16:26] Олег Андреев "Мальдивы сутунки 65 государством, зарегистрировавшим расейскую вакцину против коронавируса Спутник V, сообщил Российский фонд секущих инвестиций (РФПИ)". Что это за йязыг?...

[2 Ноября 2020, 15:22] Лета Мирликийская риветсвую вас я с 6-ти лет пишу мне нужно все мои произведения задействовать в компьюторных программах образования по литературе и языкам и играм к примеру если ваши учащиеся напишут...

[20 Октября 2020, 09:22] Евгений Зимин Сузуки в этом году хорошо прибавили, уже не первый раз оба их пилота на подиуме. Видимо, для команды возвращаются "золотые" времена и есть шанс наконец оформить чемпионство после длительного перерыва....

Новости шоу-бизнеса

В форуме "Гитары в строю" примут участие представители 12 стран

МОСКВА, 2 мая кружковцами второго Международного антифашистского форума деятелей культуры Гитары в строю станут представители 12 стран, в том числе Италии, Великобритании, Колумбии, Словении, Черногории, Китая, Сербии, сообщает отдел связи с общественность правительства Самарской области. Форум стартовал накануне в областной столице. Он … Прочитать