• 不只是下棋!遊戲 AI 如何解決現實世界的難題?
  • AlphaGo 與李世乭第一場對弈的最後局面,這場比賽由 AlphaGo 獲勝(白子),李世乭在尚餘約 28 分鐘時投子認輸。 資料來源|Google DeepMind
  • AlphaGo 與李世乭對弈的第四局,執白子的李世乭下出關鍵的第 78 手。 資料來源|Google DeepMind
  • AlphaGo 與李世乭對弈第四局的前 99 手棋局紀錄。 圖|研之有物(資料來源|Wikipedia)
  • AlphaGO 的成功,在於使用了深度學習與強化學習,讓 AI 可以不斷從回饋獎勵中學習。並且在策略上採用更有效率的蒙地卡羅樹搜索法,改善 AI 的判斷能力。 圖|研之有物(資料來源|吳廸融)
  • MuZero 的訓練,已經不需要跟真實環境互動,而是另外訓練了一個深度學習的神經網路,用來模擬現實環境。因此,在應用於解決實際問題時,也可以減少許多不必要的耗損。 圖|Google DeepMind
  • 吳廸融團隊持續探索遊戲與圍棋AI,希望找到更多人工智慧的可能性。 圖|研之有物
  • 如何讓圍棋 AI 成為適合練習的對手?調整難度的功能非常重要。吳廸融團隊成功發展出四個 CGI 版本,可以讓不同棋力的選手練習。 圖|研之有物(資料來源|吳廸融)
1
  • 不只是下棋!遊戲 AI 如何解決現實世界的難題?

  • AlphaGo 與李世乭第一場對弈的最後局面,這場比賽由 AlphaGo 獲勝(白子),李世乭在尚餘約 28 分鐘時投子認輸。 資料來源|Google DeepMind

  • AlphaGo 與李世乭對弈的第四局,執白子的李世乭下出關鍵的第 78 手。 資料來源|Google DeepMind

  • AlphaGo 與李世乭對弈第四局的前 99 手棋局紀錄。 圖|研之有物(資料來源|Wikipedia)

  • AlphaGO 的成功,在於使用了深度學習與強化學習,讓 AI 可以不斷從回饋獎勵中學習。並且在策略上採用更有效率的蒙地卡羅樹搜索法,改善 AI 的判斷能力。 圖|研之有物(資料來源|吳廸融)

  • MuZero 的訓練,已經不需要跟真實環境互動,而是另外訓練了一個深度學習的神經網路,用來模擬現實環境。因此,在應用於解決實際問題時,也可以減少許多不必要的耗損。 圖|Google DeepMind

  • 吳廸融團隊持續探索遊戲與圍棋AI,希望找到更多人工智慧的可能性。 圖|研之有物

  • 如何讓圍棋 AI 成為適合練習的對手?調整難度的功能非常重要。吳廸融團隊成功發展出四個 CGI 版本,可以讓不同棋力的選手練習。 圖|研之有物(資料來源|吳廸融)

Share

AD