Разработчики нейросети AlphaGo компании DeepMind, которая принадлежит Google, намерены научить искусственный интеллект играть в покер.
Исследователи из Университетского колледжа Лондона: Йоханес Хайнрих (Johannes Heinrich), аспирант UCL, и Дэвид Сильвер (David Silver), преподаватель UCL и ведущий программист DeepMind, опубликовали доклад под названием «Глубокое обучение с подкреплением в играх с неполной информацией».
В данном проекте рассказывается об использовании алгоритмов обучения AlphaGo, при помощи которых планируется научить нейросеть играть в две разновидности покера: Leduc Hold'em иTexas Hold'em.
Игра покер является очень сложной для искусственного интеллекта, поскольку главным аспектом игры является психология. В покер играет обычно больше двух человек и такая задача усложняет расчеты вероятностей для нейронной сети. Первые испытания будут проводить при игре нейросети с самой собой.
Нейросеть AlphaGo, созданная DeepMind и с каждым матчем подтверждающая свой профессионализм игры в «Го», уже одержала четыре победы в серии из пяти матчей против Ли Седоля — корейского го-профессионала 9 дана, победителя по «Го» на летних Азиатских играх 2010 года.
Стоит отметить, что эксперименты в данной области проводятся давно. Например, роботы-крупье, разработанные компанией Paradise Entertainment, не только выглядят «по-человечески», но и могут стать основными работниками казино в США.