В декабре 2020 года Microsoft подала патент на разработку технологии чат-ботов, которые смогут имитировать любого человека, сообщает Futurism.
Цифровой двойник будет обучаться на базе доступных данных из социальных сетей человека. Посты, сообщения, письма и даже фотографии будут использованы искусственным интеллектом для воссоздания нужной личности.
Благодаря такому искусственному интеллекту, пользователи смогут общаться не только с двойником живого человека, например телезвезды, но и со своими умершими родственниками.
«Двойник может соответствовать разным субъектам копирования, не важно из прошлого они или настоящего. Так, искусственный интеллект может имитировать друга, родственника, знаменитость, вымышленного персонажа или историческую личность», — говорится в патенте корпорации.
Кроме того, в патенте сказано о том, что человек, с которым общается чат-бот, также может выступить в качестве «учителя» для искусственного интеллекта.
Идея создания двойников для умерших людей уже давно появилась в массовой культуре. Так, в эпизоде «Я скоро вернусь» сериала «Черное зеркало» молодая девушка по имени Марта заказывает копию своего умершего молодого человека. Она думала, что ИИ, который будет копировать личность возлюбленного, поможет ей справиться с горем от потери, но он лишь усугубил ситуацию.
Важно отметить, что проект находится на стадии патента и может так и остаться нереализованным. В ответ на сообщение пользователя о том, что IT-компании все еще воспринимают «Черное зеркало» как руководство к действию, а не предостережение, генеральный менеджер программ искусственного интеллекта в Microsoft Тим О'Брайен заявил о том, что пока он ничего не слышал о планах по внедрению этой технологии в реальную жизнь.
«И да, это звучит пугающе», — продолжил О'Брайен.
Руководитель аналитического департамента AMarkets Артем Деев считает, что продукт, связанный с общением с умершими родными, может найти своего потребителя на рынке. По его мнению, данная технология впоследствии может вылиться в отдельное направление Death Tech, о развитии которого ранее писала «Газета.Ru». Однако она может нести в себе скрытую опасность.
«Безусловно одно: такие технологии могут быть разрушительными, в первую очередь, для психики людей. Поскольку они уже будут общаться не с человеком, а с машиной, которая лишь повторяет поведение конкретного, знакомого человека», — считает эксперт.
Известно, что ранее Microsoft уже занималась созданием чат-ботов, однако столкнулась с проблемами по их обучению. Так, в 2016 году компания запустила чат-бота Тэй, которая всего за сутки вышла из-под контроля.
Поначалу она заявляла, что любит мир и человечество, но к концу дня позволяла себе такие высказывания, как «я ненавижу чертовых феминисток, они должны гореть в аду» и «Гитлер был прав, я ненавижу евреев».
Известно, что Тэй была скомпрометирована людьми специально — будучи ИИ, она «училась» у своих собеседников, которые намерено внушали ей радикальные мысли. В итоге Microsoft была вынуждена отключить Тэй.
Впоследствии через год корпорация запустила второго чат-бота по имени Зо, которая была запрограммирована таким образом, чтобы не обсуждать с пользователями запрещенные политические и религиозные темы. Однако алгоритмы также не смогли защитить ИИ от стереотипов и предрассудков, которые ей «привили» пользователи интернета, поэтому Зо постигла судьба ее предшественницы.