1
ngloom 2016-03-14 10:39:36 +08:00
好像是会自我对弈做训练的 :P
|
2
Sequencer 2016-03-14 10:53:36 +08:00
貌似有一个阶段就是这样训练的...
|
3
jackwow 2016-03-14 11:04:30 +08:00
它和人在下棋的时候,当人落子之后, AlphaGo 就是在自己和自己下后面的几步,然后判断落子在哪里接下去胜率最大。
|
4
dxwwym 2016-03-14 11:09:35 +08:00 via iPhone
其实每走一步都在和自己下来预演,个人感觉应该是这样
|
5
alex321 2016-03-14 11:09:55 +08:00
人家已经明说有 18 个 AlphaGo 版本了,和李对战的是第 18 个版本,并且是单机模式。
此前 Google 一直在用 18 个 AlphaGo 做相互之间的对战训练的。。 AlphaGo 虽然是 AI ,但是是无形的,就像机器宝宝,最终那个小盒子也不过是它临时的容身之所罢了,本质上就是个应用。 |
6
hahastudio 2016-03-14 11:16:10 +08:00
https://deepmind.com/alpha-go.html
"..., and by reinforcement learning from games of self-play." "This program was based on general-purpose AI methods, using deep neural networks to mimic expert players, and further improving the program by learning from games played against itself." |
7
Sivan 2016-03-14 11:18:03 +08:00
详见微软小冰 vs 微博聊天机器人
|
9
clino 2016-03-14 11:36:25 +08:00
@alex321
http://sports.sina.com.cn/go/2016-03-11/doc-ifxqhmve9078783.shtml "这次比赛我们使用的是分布式版的 AlphaGo ,并不是单机版。分布式版对单机版的 AlphaGo 胜率大约是 70%。" |
10
alex321 2016-03-14 12:00:53 +08:00
@Jackiepie
@clino 单机是这里看到的: http://www.techweb.com.cn/column/2016-03-08/2291955.shtml 呃。。。。。 我看完那个之后就没看后续的了。 |
11
Jackiepie 2016-03-14 12:56:11 +08:00
@alex321 之前看那些报道也是说用的单机版,但是昨天狗狗的爸爸明确的说了,虽然单击也不错,但是正式比赛只用分布式版。
|
12
birdccc 2016-03-14 13:22:00 +08:00
会死机吧
|
14
charlie21 2016-03-14 14:46:39 +08:00
木遥:关于 AlphaGo 论文的阅读笔记
http://songshuhui.net/archives/93895 |
16
menc 2016-03-14 14:55:53 +08:00 4
若干月后, alphago 和 betago 两台 AI 对弈,人们已经做好看不懂两位 AI 下棋的思路的准备,可是结果还是出人意料。
alphago 执黑先走一子, betago 思考良久,认输。 |
17
picasso250 2016-03-14 15:30:46 +08:00
@menc 按照现在的贴目规则,更有可能是:
alphago 执黑先走一子, betago 应了一手, alphago 思考良久,认输 |
18
strwei 2016-03-14 19:17:26 +08:00
期待中。。。。。。
|
19
firstinout 2016-03-15 09:10:07 +08:00
@alex321 U R being watched
|
20
alex321 2016-03-15 09:18:26 +08:00
@firstinout 哈哈,后面撒玛利亚人上线的时候就变成 We are being watched 了,然后两个交叉在片首出来。
|
21
firstinout 2016-03-15 12:11:56 +08:00
@alex321 太赞的片子 有空二刷
|