Contenidos
Equipo de investigacion poker
Algoritmo de póquer ai
El equipo de científicos informáticos del Grupo de Investigación de Póquer por Ordenador de la Universidad de Alberta, que incluye investigadores de la Universidad Charles de Praga y de la Universidad Técnica Checa, dijo que DeepStack tiende un puente entre los enfoques utilizados para los juegos de información perfecta y los utilizados para los juegos de información imperfecta.
Los juegos de información imperfecta son un modelo matemático general que describe cómo interactúan los decisores. La investigación en inteligencia artificial tiene una larga historia de uso de juegos de salón para estudiar estos modelos, pero la atención se ha centrado principalmente en los juegos de información perfecta.
“Necesitamos nuevas técnicas de IA que puedan manejar casos en los que los responsables de la toma de decisiones tengan diferentes perspectivas”, señaló Bowling. DeepStack amplía la capacidad de pensar en cada situación durante el juego -que ha tenido éxito en juegos como las damas, el ajedrez y el Go- a los juegos de información imperfecta mediante una técnica llamada re-solución continua.
Esto permite a DeepStack determinar la estrategia correcta para una situación concreta de póquer sin tener que pensar en toda la partida, utilizando su “intuición” para evaluar cómo podría desarrollarse la partida en un futuro próximo.Entrenamos a nuestro sistema para que aprenda el valor de las situaciones”, dijo Bowling.
Póquer deepstack
Polaris es un programa de juego de póquer Texas hold ’em desarrollado por el grupo de investigación de póquer por ordenador de la Universidad de Alberta, un proyecto que ha estado en marcha durante 16 años a partir de 2007.[1] Polaris es un programa compuesto que consiste en una serie de bots, incluyendo Hyperborean08, el ganador de la serie de equilibrio límite en la competición de póquer por ordenador de la Asociación para el Avance de la Inteligencia Artificial (AAAI) de 2008. Polaris también contiene otras estrategias fijas, y elige entre ellas durante una partida[2][3] Polaris requiere poca potencia de cálculo en el momento de la partida, por lo que se ejecuta en un ordenador portátil Apple MacBook Pro durante las competiciones[4] Polaris sólo juega heads-up (dos jugadores) Limit Texas hold’em.
El 23 y 24 de julio de 2007, Polaris jugó contra los profesionales del póquer Phil Laak y Ali Eslami en el Hotel Hyatt Regency de Vancouver, B.C. La competición consistió en cuatro partidas duplicadas, con 500 manos por partida. En cada partida duplicada, se repartieron las mismas cartas a ambas parejas de jugadores, humanos y robots, pero con los asientos invertidos. Esto significaba que si Polaris tenía malas manos en una mitad de la partida contra Laak, la otra copia de Polaris recibiría buenas cartas en la otra mitad de la partida contra Eslami. Esto se hizo para reducir la varianza, o el “factor suerte”, ya que ninguno de los dos equipos podía decir que tenía el peor conjunto de cartas. Los dos jugadores estaban en habitaciones separadas para eliminar la posibilidad de que el público revelara información sobre las manos, lo que sería especialmente problemático en una partida duplicada[2][5] Laak ya había jugado con el predecesor de Polaris, Vexbot, en 2005 en un torneo anterior. Laak admitió que la suerte influyó en su victoria sobre Vexbot[6].
Jugador de póquer por ordenador
El equipo de investigación de póquer por ordenador de la Universidad de Alberta afirma haber creado el bot de póquer Cepheus, que juega perfectamente al Heads-Up Limit Hold’em. El programa ha jugado más manos en 2 meses que la humanidad en conjunto y ha resuelto prácticamente el Heads-Up Limit Hold’em.
El equipo de Investigación de Póquer por Ordenador de la Universidad de Alberta se fundó en 1997 y desde entonces ha intentado crear un bot de póquer perfecto, y el último producto de su investigación es el bot de póquer Cepheus.
Desde que la máquina Deep Blue venció al campeón mundial de ajedrez Garry Kasparov en 1997, los investigadores han tratado de resolver también el póquer, que es un reto mucho mayor, ya que el póquer es un juego más complejo, con información desconocida, como las cartas del rival.
Una mano de póquer es tan compleja que ahora mismo el robot Cepheus sólo es capaz de resolver el Heads-Up Limit Hold’em, porque en cuanto entra un tercer jugador, el ya enorme árbol de decisiones (que muestra todas las posibles acciones y reacciones ante una determinada decisión) se vuelve demasiado difícil de calcular para el ordenador.
Póker ai
La búsqueda en árbol de Monte Carlo (MCTS) es una técnica basada en el muestreo y la simulación para buscar en grandes espacios de búsqueda que contienen tanto nodos de decisión como eventos probabilísticos. Hemos utilizado esta técnica en juegos como el póker (Van den Broeck et al, 2009). Estos juegos tienen reglas conocidas y la alternancia entre los movimientos propios y los eventos no deterministas o los movimientos del oponente puede utilizarse para eliminar las ramas no interesantes. Aunque la búsqueda de árboles de Montecarlo (MCTS) representó una revolución en la investigación de la IA relacionada con los juegos, actualmente no es apta para las tareas que tratan con acciones continuas y (a menudo como consecuencia) con estados de juego. Las recientes aplicaciones de MCTS a juegos casi continuos, como las variantes de póker sin límite, han sorteado este problema discretizando la acción o el espacio de estados. Hemos presentado la Búsqueda de Aprendizaje en Árbol (TLS) como una alternativa a la discretización a priori. TLS emplea ideas de la minería de flujos de datos para combinar la inducción incremental de árboles con MCTS para construir discretizaciones dependientes del estado del juego que permiten a MCTS centrar su extensión de muestreo de forma más eficiente en regiones del espacio de búsqueda con rendimientos prometedores.
Entradas relacionadas
Bienvenid@, soy Patricia Gómez y te invito a leer mi blog de interés.