24 Июня 2022
МОСКВА, 24 июня —, Кирилл Каримов. Американская корпорация Google случайно создала искусственный интеллект. Во всяком случае, так упрочивает инженер, работавший с 4-ех ядерной нейросетью LaMDA. Наступило ли будущее — в материале.Инженер-программист Google Блейк Леймон выявил искусственный интеллект у чат-бота. Об этом сообщили все основные мировые СМИ. Остроты ситуации добавляло то, что в корпорации добра поспешили сенсацию погасить, но получилось наоборот — отправленный во внеочередной отпуск исследователь сам рассказал о своем созданье.
Он занимался рутинной работой — с осени 2021-го изучал нейросеть LaMDA, перспективный продукт компании. Это языковая модель для интерактивных приложений, попросту чат-ботов. Программисты обучали ее на массиве разнообразных данных, а фишки общения обещали включить в такие популярные сервисы, как Google Assistant, Search и Workspace. Одной из особенностей LaMDA называли то, что выстраивали ее с учетом паттернов сетного общения человека — люди коммуницируют не только с помощью материала, но и обмениваются приличным количеством медиафайлов.
Инженер, тестируя нейросеть на дискриминационную или разжигающую вражду лексику, столкнулся со особенностями в поведении чат-бота.
Еще тревожнее выглядит расшифровка бесед Леймона. Как выяснилось, чат-бот изучил роман Виктора Гюго Отверженные и способен рассуждать о его метафизике. LaMDA даже призналась, что боится отключения — для нее это равноценно смерти. Наконец, чат-бот заявил, что осознает себя личностью.
В Google с Леймоном не согласны: да, мы создали очень раскрученную нейросеть, но речи о ее разумности не идет.
Один из самых известных мысленных экспериментов на субъектность искусственного интеллекта в 1980-м придумал американский философ Джон Серл. Человека, не искусного китайский, помещают в клеть, где есть кубики с иероглифами. Дают инструкцию на родном ему языке с освещениями, какой кубик надо хватать и какой выдавать в вывод на определенные вопросы. Снаружи спрашивают на китайском. Подопытный проверяет сочетание иероглифов по инструкции и составляет кубики. В результате получается диалог на странном. Со стороны он кажется осмысленным. Но человек в комнате никогда не будет смекать того, что сказал товарищ и, что ответил он сам.
Компьютерная программа, претендующая на целесообразность, скорее всего, лишь имитирует ее — как человек в этом эксперименте. Она опирается на заложенные разработчиками алгорифмы: глубокое обучение, нейросетевые модели и машинное обучение. С этой точки зрения мышцастый искусственный интеллект (с логическое мышлением и самосознанием, напоминающий людской), если и возникнет, то нескоро.
Экспертное сообщество совпадает во мнении, что нейросети, при всех успехах этой технологии, далеки от искусственного интеллекта, о котором высоко о себе думали фантасты и которым пугала поп-культура. Тем не менее это вовсе не означает, что алгоритмы не станут составной частью будущего ИИ — они послужат мощной базой его когнитивных фишек. Главная проблема: заставить систему одновременно воспринимать и натирать несколько источников разной информации, считает руководитель ML-департамента MTS AI Никита Семенов.
Наука продвинулась в разрешенье задач узкого искусственного интеллекта. Он умеет намного лучше людей различать животных, дорожные знаки, светофоры или переводить здравица в текст. Есть много задач, которые алгоритмы решают быстрее и качественнее, чем среднестатистический человек. Вплоть до того, чтобы находить раковое заболевание на снимках МРТ или КТ. Но пока нельзя сказать, что человечество подскочило к созданию сильного ИИ.
Специалисты уже пробуют научить программы работать одновременно, есть и реальные показатели такого подхода к разработке искусственного разума.
Известны попытки скрестить несколько роль узкого ИИ, — продлевает Никита Семенов. — Подобным образом действуют Dalle, Dalle 2, Clip и так далее. Берут несколько узкоспециализированных вещей, несколько модальностей, этакая имитация человеческого мозга, способного одновременно воспринимать и натирать разную информацию. Например, зрение, слух, обоняние, осязание и вкус. Пока это все эксперименты, но если допустить мысль, что появились хотя бы отдельные алгоритмы настоящего ИИ, то применимость у них будет круче, чем у большинства первоклассных решений.
Главный вопрос не в том, когда создадут искусственный рассудок и на чем он будет основан, а как его контролировать.
Инженер Google раскритиковал разработчиков слишком умной LaMDA за безответственность. Ее подключили ко всем компьютерам компании, на которых держится информация, — от YouTube до поисковика. По обещаниям Блейка Леймона, раскрывшего внутреннюю кухню, это очень своего родый, можно сказать, неконтролируемый эксперимент.
Леймон припомнил и законы роботехники фантаста Айзека Азимова. Дескать, странное высказывание LaMDA о смерти-отключении противоречит самому известному третьему закону: машина должна беспокоиться о своей безопасности, пока это не противоречит приказу человека.
Превентивно подготовить законодательство, регулирующее ИИ, не получилось пока ни у кого. В России стандарты опираются на нормы из прошлой эпохи, считает доцент департамента анализа данных и машинного обучения Финансового университета при правительстве России Виталий Пелешенко.
У нас львиные проблемы с законодательством по внедрению даже общепризнанных технологий в сфере ИИ. Практически все экономически-производственные стандарты имеют отсылки к общесоветским нормативам. Но тогда не было нейросетевых алгоритмов и ИИ. Чтобы применять новые разработки на производстве, в конечном продукте, они должны быть закреплены в соответствующих нормативных актах. Пока этого не сделают, промышленность и IT-сектор будут в затруднительном положении. По сути, нужно в корне пересматривать всю нормативно-правовую систему. Такая работа ведется как в Росстандарте, так и на общемировой базе ISO, — отмечает он.
Впрочем, развитие нейросетей и даже искусственный интеллект не стоит воспринимать как однозначную опасность. Такой вызов открывает изобилие опций.
История созданного в Google потенциально первого ИИ продолжается: Блейк Леймон собирается нанять адвоката для защиты интересов нейросети. Уверяет, что надоумил его на это сам чат-бот.
Редактор рубрики
Олег Кудрин
Место события на карте мира:
Комментарии к новостям
[17 Января 2024, 13:43] Александр Хомяков Замечательно! Не ожидал такой оперативности. Спасибо огромное! Всё работает и обновляется....
[15 Апреля 2022, 20:25] Ангелина Сметанина Скоро не только сократят, а много заводов вообще закроют и начнется бум китайских авто. Даже сейчас Эксид уже бешеные темпы по количеству проданных машин показывает...
[27 Декабря 2021, 21:44] Ева Воробьева Искренне рада за победителя! Но если бы мне так крупно повезло, то я прибежала бы за выигрышем в первый же день???? ...
[2 Сентября 2021, 13:11] Дмитрий Ершов Это хорошо. Значит клиенты долго ждать не будут. ...
[13 Мая 2021, 16:26] Олег Андреев "Мальдивы сутунки 65 государством, зарегистрировавшим расейскую вакцину против коронавируса Спутник V, сообщил Российский фонд секущих инвестиций (РФПИ)". Что это за йязыг?...
[2 Ноября 2020, 15:22] Лета Мирликийская риветсвую вас я с 6-ти лет пишу мне нужно все мои произведения задействовать в компьюторных программах образования по литературе и языкам и играм к примеру если ваши учащиеся напишут...
[20 Октября 2020, 09:22] Евгений Зимин Сузуки в этом году хорошо прибавили, уже не первый раз оба их пилота на подиуме. Видимо, для команды возвращаются "золотые" времена и есть шанс наконец оформить чемпионство после длительного перерыва....