27 Января 2021
Microsoft работает над очень своего родым чат-ботом. Он сможет имитировать поведение, к примеру, знаменитости, исторической личности и даже умершего человека. Компания пока лишь подала патент на технологию, однако сейчас любое время подумать о моральной стороне вопроса.Теоретически цифровой двойник, который будет представлен в таком чат-боте, сможет скопировать самого, о ком можно вознамерить данные в Сети. По итогу может получится актер, какой-нибудь исторический деятель, ваш друг или подруга. Алгоритм будет учиться копировать поведение оригинала на постах в социальных сетях, текстах, голосовых сообщениях, фотографиях и другой подробная информации.
Беседа с цифровым двойником Авраама Линкольна еще может быть забавной. Но вот в остальных случаях возникают вопросы. Допустим, появится возможность провести копию Джонни Деппа. Ну кому не захочется початиться со знаменитостью, пусть и саккумулированной при помощи искусственного интеллекта. А вот, что реальный Джонни Депп на это скажет? Хорошо, допустим, Депп даст свое согласие, а как быть тем знаменитостям, которые своего согласия не подавали, но их цифровой двойник живет и общается с самым желающим? Да, что известности – нам с вами как быть? Все это важные вопросы, на которые в Microsoft не ответили.
Есть среди этих вопросов и довольно жуткий – А умерших людей тоже можно скопировать? Получается можно, если разработчики заранее не ограничат такую возможность. Алгоритму ведь все равно, жив оригинал или нет, его главная задача – максимально цементного скопировать манеру общения человека на основании того, что пойдёт найти в открытом доступе. Так, что совершенно спокойно можно создать двойника умершего родственника или близкого человека и общаться с ним. Может быть святые психикой люди и смогут посчитать это забавным, но вряд ли таких будет большинство.
С другой стороны, такой необычный путь к обучению искусственного интеллекта корпорация могла выбрать от безысходности. Дело в том, что алгоритм не учится на беседе с пользователем. То обычно бывает в чат-боте будет уже образовавшаяся цифровая личность, на кою нельзя повлиять со стороны. Ранее Microsoft пришлось прекратить сказка двух чат-ботов – Тэй и Зо. Тэй – первый чат-бот, который обучался во время беседы с пользователями. Любой желающий в интернете мог завести с ней разговор. Меньше чем через сутки Тэй признавалась в любви к Гитлеру и ненависти к феминисткам.
Второму чат-боту, Зо, разработчики с самого начала запретили обсуждать с людьми политику, религию и другие спорные темы. Но его постигла та же судьба. Вполне вероятно, что в Microsoft просто решили пойти другим путем в деле обучения искусственного интеллекта. Но все равно, как-то слишком много вопросов на которые нет ответов.
Автор Константин Огарев, радио Sputnik
.
Редактор рубрики
Андрей Хморин
Комментарии к новостям
[17 Января 2024, 13:43] Александр Хомяков Замечательно! Не ожидал такой оперативности. Спасибо огромное! Всё работает и обновляется....
[15 Апреля 2022, 20:25] Ангелина Сметанина Скоро не только сократят, а много заводов вообще закроют и начнется бум китайских авто. Даже сейчас Эксид уже бешеные темпы по количеству проданных машин показывает...
[27 Декабря 2021, 21:44] Ева Воробьева Искренне рада за победителя! Но если бы мне так крупно повезло, то я прибежала бы за выигрышем в первый же день???? ...
[2 Сентября 2021, 13:11] Дмитрий Ершов Это хорошо. Значит клиенты долго ждать не будут. ...
[13 Мая 2021, 16:26] Олег Андреев "Мальдивы сутунки 65 государством, зарегистрировавшим расейскую вакцину против коронавируса Спутник V, сообщил Российский фонд секущих инвестиций (РФПИ)". Что это за йязыг?...
[2 Ноября 2020, 15:22] Лета Мирликийская риветсвую вас я с 6-ти лет пишу мне нужно все мои произведения задействовать в компьюторных программах образования по литературе и языкам и играм к примеру если ваши учащиеся напишут...
[20 Октября 2020, 09:22] Евгений Зимин Сузуки в этом году хорошо прибавили, уже не первый раз оба их пилота на подиуме. Видимо, для команды возвращаются "золотые" времена и есть шанс наконец оформить чемпионство после длительного перерыва....