Чат-боты с элементами искусственного интеллекта, такие как ChatGPT, потенциально опасны для пользователей из-за несовершенств в их ответах, в том числе они могут испытывать «галлюцинации». Об этом заявил старший вице-президент Google и глава поискового подразделения Прабхакар Рагхаван в интервью немецкой газете Welt am Sonntag.
«Подобный тип искусственного интеллекта, о котором мы говорим, иногда может приводить к тому, что мы называем галлюцинациями. Для пользователя это выражается таким образом, что чат-бот выдает убедительный, но полностью выдуманный ответ», — отметил он.
Специалист заверил, что задача разработчиков — свести число подобных случаев к минимуму.
«Огромные языковые модели, лежащие в основе этой технологии, не позволяют людям отслеживать каждое мыслимое поведение системы. Но мы хотим проверить технологию в достаточно большом масштабе, чтобы в итоге ответы были максимально точными», — добавил Рагхаван.
Топ-менеджер Google предупредил, что люди всегда должны быть бдительными, когда сталкиваются с результатами, представленными им чат-ботом, работающим на основе ИИ.
«Моя цель — быть лидером в области чат-ботов с точки зрения целостности информации, а также ответственности, которую мы берем на себя. Только так мы сможем сохранить доверие общественности», — заключил он.
По данным журналистов, Google опасается потери доминирования в области веб-поиска после того, как Microsoft вложила $10 млрд в развитие компании OpenAI, которая представила ChatGPT. Чат-бот способен не только вести диалог, но также самостоятельно писать тексты по запросу пользователя.
Ранее сообщалось, что крупнейшие технологические компании Китая, включая владельца AliExpress, планируют создать собственные аналоги нейросети ChatGPT.