Исследователь искусственного интеллекта из США Элиезер Юдковский, который предупреждал об опасностях технологии с начала 2000-х годов, заявил о необходимости срочно «отключить все системы с ИИ». О важности этой меры для спасения человечества он написал в колонке для журнала Time.
В статье Юдковского под названием «Недостаточно приостановить разработку ИИ. Нам нужно закрыть все это», говорится, что он воздержался от подписания письма бизнесменов Илона Маска и Стива Возняка, потому что оно преуменьшает «серьезность ситуации».
«Этого слишком мало для решения проблемы. Многие исследователи, погруженные в эти проблемы, в том числе и я, ожидают, что наиболее вероятным результатом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдаленно напоминающих нынешние, будет то, что буквально все на Земле умрут», — написал специалист.
Он объяснил, что ИИ «не заботится ни о людях, ни о разумной жизни в целом». Юдковский уверен, что в настоящее время мы далеки от внедрения таких принципов в технологии.
Вместо этого Юдковский предложил запрет, который является «бессрочным и всемирным» без исключений для правительств или вооруженных сил. «Если разведка сообщает, что страна, не входящая в соглашение, строит кластер графических процессоров, опасайтесь не столько перестрелки между странами, сколько нарушения моратория; будьте готовы уничтожить их так называемый центр обработки данных с помощью авиаудара», — заключил он.
Юдковский неоднократно крайне эмоционально предупреждал о возможных катастрофических последствиях ИИ.
Ранее ученый-информатик Джеффри Хинтон, которого называют «крестным отцом искусственного интеллекта», выступил с похожим заявлением. Специалист предупредил человечество об опасностях неконтролируемого развития ИИ.