Разработчики принадлежащей Google компании DeepMind научат нейросеть игре в покер. Об этом сообщает The Guardian.
Исследователи из Университетского колледжа Лондона Йоханес Хайнрих и Дэвид Сильвер, ведущий программист AlphaGo, опубликовали доклад под названием «Глубокое обучение с подкреплением в играх с неполной информацией». В нем говорится, что с использованием алгоритмов обучения AlphaGo планируется научить нейросеть игре в две разновидности покера: Leduc Hold'em, простейший вид игры с шестью картами, и самую популярную разновидность — Texas Hold'em.
Покер во многом сложнее для искусственного интеллекта, поскольку о происходящем на столе и в руках компьютер знает еще меньше, а важным аспектом игры остается психология. Кроме того, в покер обычно играют более двух игроков, что усложняет расчет вероятностей для нейронной сети. Однако на первых этапах обучать нейросеть исследователи планируют через игру с самой собой.
Ранее сообщалось, что нейросеть AlphaGo одержала четыре победы в серии из пяти матчей против Ли Седоля.