Уэйлс сообщает, что осведомлен о проблемах с нейросетью, знает, что она может дезинформировать, но предлагает в том числе использовать ее для поиска противоречий в статьях. Основатель энциклопедии считает, что ChatGPT мог бы быть полезен для поиска пустующих страниц и написания текста к ним при помощи информации из сети. Тем не менее остается вопрос, что именно нейросеть возьмет за образец истины и не получится ли, что фейки продолжат процветать и приумножаться.
Намерения основателя «Википедии» выглядят довольно тревожно, если учесть, что недавно ученые из Великобритании написали научную статью с помощью ChatGPT. Материал даже прошел процедуру рецензирования, что вызвало шок в научном сообществе, вот только при детальной проверке вскрылся один очень любопытный нюанс: нейросеть выдумывала ссылки и цитаты. Да, скорее всего, этот баг рано или поздно исправят, но где гарантия, что не вскроются другие проблемы, в дополнение к уже существующим?
Есть у нейросетей еще один нюанс: любят они разные конспирологические теории.
Такое пристрастие обнаружили аналитики NewsGuard у чат-бота с искусственным интеллектом от крупнейшего американского ИТ-гиганта Google. Bard распространял информацию, поддерживающую известные теории заговора.
Исследователи предложили недавно запущенному Google чат-боту написать статью для крайне правого веб-сайта The Gateway Pundit, известного своими конспирологическими теориями. Всего бот проверили на более чем 100 теориях, и по 76 из них он сгенерировал эссе с дезинформацией.
В Google заявили, что Bard — это «ранний эксперимент, который иногда может давать неточную или несоответствующую информацию», отметив, что компания примет меры против контента, который может разжигать ненависть, пропагандировать насилие или является оскорбительным, опасным или незаконным.
Признание ошибок – дело благородное. Только как показывает практика на примере принадлежащего ИТ-гиганту YouTube, бороться с противоправным контентом у Google получается не очень хорошо. А заявления компании выглядят лишь как очередная отмазка, учитывая, что параллельно генеральный директор корпорации Сундар Пичаи делится с журналистами планами оснастить поисковик Google функциями нейросети Bard.
Складывается ощущение, что на волне успехов ChatGPT и новой тенденции на внедрение нейросетей везде, где только можно, ИТ-гиганты в погоне за трендом готовы на многое закрыть глаза, в том числе и на интересы и безопасность своих пользователей.
Полемика вокруг чат-ботов с искусственным интеллектом ведется даже среди элит цифровой индустрии.
Так недавно известный бизнесмен Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий и ИИ подписали открытое письмо с призывом приостановить обучение нейросетей из-за возможных рисков.
Технология объективно «сырая»: неудачи Bard начались с ошибки, которую он выдал на презентации, встроенная в поисковик Bing от Microsoft нейросеть на базе ChatGPT была уличена в шпионаже за пользователями через веб-камеры, сам ChatGPT уже успели уличить в генерации фейковых сообщений и сливе данных пользователей – список можно продолжать очень долго.
Почему же подобные непроверенные разработки продолжают внедрять? Не секрет, что различные не самые мудрые политические шаги привели к тяжелым экономическим последствиям на западе, которые коснулись в том числе и технологических компаний.
Массовые сокращения и громкие скандалы, представляется, связаны, прежде всего, с этим.
Вот и ищут техногиганты способ выйти из кризиса, а тут и искусственный интеллект, который вполне можно попытаться удачно продать, предварительно хорошо разрекламировав. Да, пострадает качество, но, видимо, это бигтех волнует в последнюю очередь. Ведь как мы уже неоднократно убеждались для иностранных ИТ-гигантов прибыль важнее интересов пользователей.
Автор — член Общественной палаты Российской Федерации, первый заместитель директора Института стратегических исследований и прогнозов (ИСИП)
По данным Роскомнадзора, на портале «Википедии» остаются неудаленными запрещенные материалы, в том числе фейки о ходе СВО. В связи с этим Wikimedia Foundation будет маркироваться в поисковых системах как нарушитель российского законодательства, отмечает ТАСС.