AlphaGo versus Lee Sedol, também chamado de Google DeepMind Challenge Match, foi uma disputa de 5 jogos entre um supercomputador da Google, intitulado AlphaGo, contra o sul-coreano Lee Sedol no milenar jogo de tabuleiro Go, entre os dias 9 e 15 Março de 2016 no Four Seasons Hotel da cidade sul-coreana de Seul.[1]
O sul-coreano Lee Sedol era, à época, 18 vezes campeão mundial do jogo, e considerado o melhor jogador da história deste jogo. E o AlphaGo foi um software especialmente desenvolvido pela DeepMind Technologies Limited (uma sub-divisão da Google) para vencer jogadores humanos profissionais neste jogo. O resultado final foi 4-1 para o AlphaGo. Desde que a inteligência artificial passou a ter sucesso em derrotar humanos em complexos jogos de tabuleiro, o jogo Go era a última barreira a ser quebrada. Vários especialistas acreditavam que os programas de inteligência artificial ainda demorariam mais uma década até vencer o ser humano neste jogo.[2]
O milenar jogo oriental de tabuleiro Go, que é famoso por sua complexidade, consiste no confronto entre dois participantes que posicionam pedras de cores opostas até um deles dominar o tabuleiro. Ele sempre foi considerado um dos maiores desafios para os computadores por seu amplo espectro de movimentos das peças. O problema do jogo Go, para a inteligência artificial, seria a habilidade de realizar algo similar à intuição humana – ou seja, procurar e reagir a padrões. Isto parecia ser fundamental e muito distante da realidade. Diferentemente do que ocorre no xadrez, por exemplo. O Deep Blue foi treinado e programado pela IBM com alguns conhecimentos sobre o xadrez. Assim, sua vantagem sobre os humanos residia especialmente na capacidade de realizar cálculos.[3]
Por conta dessa "dificuldade", vários especialistas acreditavam que os programas de inteligência artificial ainda demorariam mais uma década até vencer o ser humano neste jogo.[2]
Para que fosse capaz de vencer um campeão mundial de Go, algoritmos de aprendizado conhecidos como redes neurais profundas foram treinados por meio de uma base de dados que inclui milhões de jogadas realizadas por seres humanos no passado. Em seguida, o programa afiou seu conhecimento por meio de partidas extremamente velozes realizadas contra si mesmo. A cada mudança no algoritmo, o programa foi se tornando mais apto a jogar. E assim, o AlphaGo finalmente venceu por meio de um método extremo de aprendizado que equivale à experiência de muitas vidas humanas, conhecido como busca em árvore Monte Carlo em função de sua capacidade de avaliar de forma randomizada um universo de movimentos possíveis.[3]
O avanço alcançado pelo DeepMind Technologies Limited com o AlphaGo é importante por várias razões. Em termos gerais, isso terá impacto sobre a maneira em que os computadores analisam uma sequência de ações, auxiliando aos programas de inteligência artificial a navegar através da lógica. Mais especificamente, isso pode ajudar no reconhecimento facial e em buscas preditivas.[4]
Encontro
Partida no.
|
Data
|
Pretas
|
Brancas
|
Resultado
|
N. Movimentos
|
Tempo
|
Ref.
|
1 |
9 de março de 2016 |
Lee Sedol |
AlphaGo |
abandono (Lee Seedol) |
186 |
Lee Sedol : 1h 32 - AlphaGo : 1 h 55 |
Jogo 1
|
2 |
10 de março de 2016 |
AlphaGo |
Lee Sedol |
abandono (Lee Seedol) |
211 |
Lee Sedol : 2 h - AlphaGo : 2 h |
Jogo 2
|
3 |
12 de março de 2016 |
Lee Sedol |
AlphaGo |
abandono (Lee Seedol) |
176 |
Lee Sedol : 2 h - AlphaGo : 1 h 51 |
Jogo 3
|
4 |
13 de março de 2016 |
AlphaGo |
Lee Sedol |
abandono (AlphaGo) |
180 |
Lee Sedol : 2 h - AlphaGo : 1 h 59 |
Jogo 4
|
5 |
15 de março de 2016 |
Lee Sedol[nota 1] |
AlphaGo |
abandono (Lee Seedol) |
280 |
Lee Sedol : 2 h - AlphaGo : 2 h |
Jogo 5
|
Resultado Final: AlphaGo 4 – 1 Lee Sedol
|
↑ nota 1: Para o jogo cinco, sob as regras oficiais, as atribuições de cores deveriam ser realizadas aleatoriamente.[5] No entanto, durante a conferência de imprensa após a quarta partida, Lee pediu "... desde que ganhei com branco, eu realmente espero que no quinto jogo eu possa vencer com preto porque vencer com preto é muito mais valioso"."[6] O árbitro concordou com sua proposição.
|
|
Movimentos 100-176 (122 a 113, 154 a brancas , 163 a 145, 164 a 151, 166 y 171 a 160, 169 a 145, 175 a pretas )
|
|
Movimentos 100-199 (118 a 107, 161 a )
|
|
Movimentos 200-280 (240 a 200, 271 a , 275 a , 276 a )
|
Referências