Подписывайтесь на Газету.Ru в Telegram Публикуем там только самое важное и интересное!
Новые комментарии +

Пользователь стерпит все: техногиганты активно внедряют недоработанные технологии

В ОП рассказали, почему ИТ-гиганты внедряют непроверенные разработки

Недавно в СМИ появилась информация о новой инициативе основателя «Википедии» Джимми Уэйлса, использовать нейросеть ChatGPT для написания статей энциклопедии. Коммерческое обоснование уже готово, основатель «свободной» энциклопедии посчитал, что инновация обойдется всего в 1,3 тыс. долларов за год. Дешево, сердито и очень сомнительно, учитывая несовершенства подобных чат-ботов.

Уэйлс сообщает, что осведомлен о проблемах с нейросетью, знает, что она может дезинформировать, но предлагает в том числе использовать ее для поиска противоречий в статьях. Основатель энциклопедии считает, что ChatGPT мог бы быть полезен для поиска пустующих страниц и написания текста к ним при помощи информации из сети. Тем не менее остается вопрос, что именно нейросеть возьмет за образец истины и не получится ли, что фейки продолжат процветать и приумножаться.

Намерения основателя «Википедии» выглядят довольно тревожно, если учесть, что недавно ученые из Великобритании написали научную статью с помощью ChatGPT. Материал даже прошел процедуру рецензирования, что вызвало шок в научном сообществе, вот только при детальной проверке вскрылся один очень любопытный нюанс: нейросеть выдумывала ссылки и цитаты. Да, скорее всего, этот баг рано или поздно исправят, но где гарантия, что не вскроются другие проблемы, в дополнение к уже существующим?

Есть у нейросетей еще один нюанс: любят они разные конспирологические теории.

Такое пристрастие обнаружили аналитики NewsGuard у чат-бота с искусственным интеллектом от крупнейшего американского ИТ-гиганта Google. Bard распространял информацию, поддерживающую известные теории заговора.

Исследователи предложили недавно запущенному Google чат-боту написать статью для крайне правого веб-сайта The Gateway Pundit, известного своими конспирологическими теориями. Всего бот проверили на более чем 100 теориях, и по 76 из них он сгенерировал эссе с дезинформацией.

В Google заявили, что Bard — это «ранний эксперимент, который иногда может давать неточную или несоответствующую информацию», отметив, что компания примет меры против контента, который может разжигать ненависть, пропагандировать насилие или является оскорбительным, опасным или незаконным.

Признание ошибок – дело благородное. Только как показывает практика на примере принадлежащего ИТ-гиганту YouTube, бороться с противоправным контентом у Google получается не очень хорошо. А заявления компании выглядят лишь как очередная отмазка, учитывая, что параллельно генеральный директор корпорации Сундар Пичаи делится с журналистами планами оснастить поисковик Google функциями нейросети Bard.

Складывается ощущение, что на волне успехов ChatGPT и новой тенденции на внедрение нейросетей везде, где только можно, ИТ-гиганты в погоне за трендом готовы на многое закрыть глаза, в том числе и на интересы и безопасность своих пользователей.

Полемика вокруг чат-ботов с искусственным интеллектом ведется даже среди элит цифровой индустрии.

Так недавно известный бизнесмен Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий и ИИ подписали открытое письмо с призывом приостановить обучение нейросетей из-за возможных рисков.

Технология объективно «сырая»: неудачи Bard начались с ошибки, которую он выдал на презентации, встроенная в поисковик Bing от Microsoft нейросеть на базе ChatGPT была уличена в шпионаже за пользователями через веб-камеры, сам ChatGPT уже успели уличить в генерации фейковых сообщений и сливе данных пользователей – список можно продолжать очень долго.

Почему же подобные непроверенные разработки продолжают внедрять? Не секрет, что различные не самые мудрые политические шаги привели к тяжелым экономическим последствиям на западе, которые коснулись в том числе и технологических компаний.

Массовые сокращения и громкие скандалы, представляется, связаны, прежде всего, с этим.

Вот и ищут техногиганты способ выйти из кризиса, а тут и искусственный интеллект, который вполне можно попытаться удачно продать, предварительно хорошо разрекламировав. Да, пострадает качество, но, видимо, это бигтех волнует в последнюю очередь. Ведь как мы уже неоднократно убеждались для иностранных ИТ-гигантов прибыль важнее интересов пользователей.

Автор — член Общественной палаты Российской Федерации, первый заместитель директора Института стратегических исследований и прогнозов (ИСИП)

По данным Роскомнадзора, на портале «Википедии» остаются неудаленными запрещенные материалы, в том числе фейки о ходе СВО. В связи с этим Wikimedia Foundation будет маркироваться в поисковых системах как нарушитель российского законодательства, отмечает ТАСС.

Новости и материалы
Стал известен победитель Кубка Дэвиса
В Раде раскрыли число людей, вернувшихся с Украины в новые регионы России
Появились кадры задымленных улиц у ж/д вокзала Киева
В ЛНР два человека пострадали после атаки БПЛА на автомобиль
«Факел» оспорил одно из судейских решений в матче с «Динамо»
Полковник Матвийчук назвал главные трудности Украины на фронте
Премьер Словакии предупредил Киев о последствиях затягивания конфликта с Россией
Ученые рассказали, о каких заболеваниях может говорить нервный тик
«Пари НН» и «Динамо» не выявили победителя в матче РПЛ
Конгрессмен рассказал, когда администрация Трампа займется переговорами по Украине
Умер актер Владимир Самойлов
Матч РПЛ сравнили с регби
Жители Сочи сообщили о толчках в разных районах города
Скончался композитор Павел Карманов
Ученые обучили ИИ проектировать супербелки
Зарема раскритиковала «Динамо»
В Германии связали отказ Писториуса от участия в выборах с испытанием «Орешника»
«Хезболла» заявила об атаке на базу Израиля в районе порта Хайфы
Все новости