游客:
注册
|
登录
会员
|
搜索
|
统计
|
帮助
轩辕春秋文化论坛
»
水泊轩辕
» 阿尔法狗是不是只追求拿51?
兴唐传·瓦岗山异闻录(20150519版)发布
(2015-5-19)
论坛营运现状公告
(2014-8-10)
三国志12pk版下载
(2013-4-20)
《精忠报国岳飞传》制作组对外开放
(2013-1-16)
岳飞传解密剧本发布
(2011-4-12)
招募各版斑竹和网站管理技术人员
(2006-4-19)
<< 上一主题
|
下一主题 >>
投票
交易
悬赏
活动
打印
|
推荐
|
订阅
|
收藏
|
开通个人空间
|
加入资讯
标题: 阿尔法狗是不是只追求拿51?
邓仲华
(卧云居士)
秦国公
江南路经略使
★★★
组别
经略使
级别
大将军
好贴
3
功绩
2830
帖子
19974
编号
5065
注册
2004-2-7
家族
现视研
#1
发表于 2016-3-12 14:06
资料
主页
个人空间
短消息
只看该作者
阿尔法狗是不是只追求拿51?
第一盘里古力发现了一个白棋能速胜的机会,但狗没下。
从这几盘能不能看出,对于狗来只要慢慢累计优势最后赢了就行,而不追求杀棋,去拿100呢?
[广告]
《精忠报国岳飞传完整版》火热发布
humi100
组别
士兵
级别
征东将军
功绩
9
帖子
5487
编号
120385
注册
2007-3-13
#2
发表于 2016-3-12 15:17
资料
个人空间
短消息
只看该作者
机器肯定判断使用最优解,不是最速解。
[广告]
《精忠报国岳飞传完整版》火热发布
武三郎
组别
校尉
级别
前将军
好贴
1
功绩
23
帖子
1664
编号
342908
注册
2009-10-12
#3
发表于 2016-3-12 15:34
资料
文集
短消息
只看该作者
之前看到有个文章也这么说,说:只求胜,不求最大胜。
具体情况google相关人员肯定知道
[广告]
安装Alexa工具条,提高轩辕排名,支持轩辕发展!
zeloti
(狂战士)
组别
羽林都尉
级别
大将军
功绩
110
帖子
11953
编号
54239
注册
2005-11-29
家族
聚贤山庄
#4
发表于 2016-3-12 15:47
资料
文集
短消息
只看该作者
这是阿法狗的风格,也是阿法狗可怕的地方,从厚实中算好优势并慢慢累积起来
第三盘在进行中,目前看来李世石依然下风
[广告]
真诚支持说岳,携手共创辉煌
落叶
组别
校尉
级别
平东将军
功绩
29
帖子
2584
编号
89033
注册
2006-10-28
#5
发表于 2016-3-12 16:55
资料
文集
短消息
只看该作者
我在围棋面是渣,对人工智能完全无解,但根据玩游戏的经验(玩单机也是在和AI较量),感觉这之间有共性,以游戏为例,难度低的游戏,玩家可选择的过关方法就多,比如曹操传,可以正常过,也可以压级,可以裸打,可以纯物理或纯法术。但是某些高难度的mod,则可能需要按高手攻略一步步的SL复盘才能打过去。而反过来想击败人类的AI可能也是如此设定的。
说的再简单一点,如果让我这个水平的去和AlphaGo下一盘,可能我一子落下,AlphaGo就能计算出30000个应对方法,每一个都能让AI感觉自己建立了优势,这个时候如果是人类高手,可能会选择或霸道或漂亮或温和(给我留点面子)的一手,但AI不会,它没有情绪,会随机选择一手,能建立优势就行,那么很明显了,这样和我下出来的棋局会很难看。
而等李世石去和AlphaGo下的时候,也许李下出一手,AlphaGo可能就只有300甚至30种应对方法了。换言之,对手给AlphaGo的压力越大,AI可做出的选择越少,就像高难度游戏,过关可能就一种方法。但是相应的AI也就能下出更漂亮的对局。这是因为李世石的水平不是我能达到的,但是结果一样,AI无非是在应对方法中选择一种而已。
但是其他人看来就有了破绽,比如AlphaGo战胜欧洲冠军后,几乎所有棋手研究对局后都认为AlphaGo棋力有限,柯洁不是说了这是送钱给李世石,如果习惯性不相信中国人,那李昌镐在赛前也是绝对看好李世石的,因为他们都没想到另一个问题,那就是欧洲冠军的实力对AlphaGo的影响,说白了,和欧洲冠军对阵的AlphaGo和李世石对阵的AlphaGo不是一个“人”
所以在如今这个时刻棋力确实高于李世石的柯洁认为AlphaGo是可战胜的并没什么不对,因为AlphaGo能赢李世石,他柯洁也8:2过李世石。但是当真有一天,柯洁和AlphaGo对阵的时候,那个AlphaGo还是不是赢李世石的AlphaGo也就不一定了,围棋以前被认为比国象更难以被智能战胜的原因是,围棋有很多复杂的定式和算路无法被计算机模拟和做出合理判断,但一旦这个问题解决,那战胜人类就很简单了,无论是什么水平的选手,对AI来说无非就是做应对选择题而已。
这只是个人的推论,也许完全荒谬。
[广告]
安装Alexa工具条,提高轩辕排名,支持轩辕发展!
dimeterio
(李秀辰)
组别
校尉
级别
镇西将军
好贴
1
功绩
45
帖子
3985
编号
266634
注册
2008-2-7
#6
发表于 2016-3-12 16:55
资料
个人空间
短消息
只看该作者
准确地说,不是阿尔法狗追求51%的概率,而是它在有效获胜的手段里选择它认为最简明的。
比如有3步棋,各自的概率是52、55、58,阿尔法狗的选择是其中最简明的,可能是52,也可能是58。
[广告]
真诚支持说岳,携手共创辉煌
szwd1997
(神州无敌)
组别
羽林都尉
级别
卫将军
好贴
3
功绩
117
帖子
6993
编号
44486
注册
2005-7-28
来自
湖北武汉
家族
聚贤山庄
#7
发表于 2016-3-12 17:09
资料
个人空间
短消息
只看该作者
回复 #5 落叶 的帖子
你再不济也不会有3w种啊,棋盘总共才361个点,开盘前几步1路2路是不会下子的。
其实电脑是以强大的计算能力的前提下,依靠轻松感觉的行棋一种方式。
当你比一个人强太多时,步步都不用精算,步步都可以靠感觉。
[广告]
真诚支持说岳,携手共创辉煌
桠枫
(疯子~)
白衣伯爵太中大夫
★
组别
翰林学士
级别
车骑将军
好贴
5
功绩
323
帖子
7292
编号
1780
注册
2003-11-1
家族
司徒实业
#8
发表于 2016-3-12 17:09
资料
主页
个人空间
短消息
只看该作者
QUOTE:
原帖由
落叶
于 2016-3-12 16:55 发表
我在围棋面是渣,对人工智能完全无解,但根据玩游戏的经验(玩单机也是在和AI较量),感觉这之间有共性,以游戏为例,难度低的游戏,玩家可选择的过关方法就多,比如曹操传,可以正常过,也可以压级,可以裸打, ...
我一直都在说墨叶他们根本就不明白阿尔法狗是个什么样的AI,拿人类棋手那一套去思考和判断,是错误的
[广告]
安装Alexa工具条,提高轩辕排名,支持轩辕发展!
落叶
组别
校尉
级别
平东将军
功绩
29
帖子
2584
编号
89033
注册
2006-10-28
#9
发表于 2016-3-12 17:14
资料
文集
短消息
只看该作者
QUOTE:
原帖由
szwd1997
于 2016-3-12 17:09 发表
你再不济也不会有3w种啊,棋盘总共才361个点,开盘前几步1路2路是不会下子的。
其实电脑是以强大的计算能力的前提下,依靠轻松感觉的行棋一种方式。
当你比一个人强太多时,步步都不用精算,步步都可以靠 ...
几万种什么只是比喻,是用来说明问题的。不要在意细节。
感觉其实就是一种计算。欧阳克感觉自己能轻松打败郭靖,但结果相反,因为他没算到郭靖学了降龙十八掌。
[广告]
《精忠报国岳飞传完整版》火热发布
cmy77
组别
校尉
级别
前将军
功绩
14
帖子
1788
编号
75925
注册
2006-7-17
#10
发表于 2016-3-12 23:36
资料
文集
短消息
只看该作者
我觉得电脑选择风险最小的方法赢棋而不是赢最多棋的方法。围棋赢100目和赢半目结果都是一样的。
[广告]
安装Alexa工具条,提高轩辕排名,支持轩辕发展!
asky
(春意思)
组别
羽林都尉
级别
骠骑将军
功绩
94
帖子
8928
编号
16632
注册
2004-8-29
#11
发表于 2016-3-13 00:40
资料
个人空间
短消息
只看该作者
不能让人类觉得我太强了呗。
[广告]
安装Alexa工具条,提高轩辕排名,支持轩辕发展!
墨叶
★★★★
节度留后虎豹骑
组别
虎豹骑
级别
大将军
功绩
359
帖子
23258
编号
97330
注册
2006-12-26
家族
轩辕少林寺
#12
发表于 2016-3-13 20:28
资料
个人空间
短消息
只看该作者
QUOTE:
原帖由
桠枫
于 2016-3-12 17:09 发表
我一直都在说墨叶他们根本就不明白阿尔法狗是个什么样的AI,拿人类棋手那一套去思考和判断,是错误的
无论什么AI,官子都是可以量化的。
李昌镐强大的主要的原因就是官子量化导致的布局改革。
[广告]
真诚支持说岳,携手共创辉煌
秃鹫派分子
★
★
组别
校尉
级别
征西将军
功绩
17
帖子
4915
编号
84039
注册
2006-9-22
家族
轩辕丐帮
#13
发表于 2016-3-16 19:17
资料
个人空间
短消息
只看该作者
QUOTE:
原帖由
dimeterio
于 2016-3-12 16:55 发表
准确地说,不是阿尔法狗追求51%的概率,而是它在有效获胜的手段里选择它认为最简明的。
比如有3步棋,各自的概率是52、55、58,阿尔法狗的选择是其中最简明的,可能是52,也可能是58。
少数明白人。
[广告]
真诚支持说岳,携手共创辉煌
墨叶
★★★★
节度留后虎豹骑
组别
虎豹骑
级别
大将军
功绩
359
帖子
23258
编号
97330
注册
2006-12-26
家族
轩辕少林寺
#14
发表于 2016-3-16 22:29
资料
个人空间
短消息
只看该作者
QUOTE:
原帖由
dimeterio
于 2016-3-12 16:55 发表
准确地说,不是阿尔法狗追求51%的概率,而是它在有效获胜的手段里选择它认为最简明的。
比如有3步棋,各自的概率是52、55、58,阿尔法狗的选择是其中最简明的,可能是52,也可能是58。
用什么来衡量是否简明?
概率高是否就意味着简明?
[广告]
《精忠报国岳飞传完整版》火热发布
桠枫
(疯子~)
白衣伯爵太中大夫
★
组别
翰林学士
级别
车骑将军
好贴
5
功绩
323
帖子
7292
编号
1780
注册
2003-11-1
家族
司徒实业
#15
发表于 2016-3-16 23:36
资料
主页
个人空间
短消息
只看该作者
【伯乐在线导读】:3月9日至3月15日,谷歌AlphaGo将在韩国首尔与李世石进行5场围棋挑战赛。在今天的第二局较量中,AlphaGo 再下一城,以总比分 2:0 领先李世石。
今天小编向大家推荐田渊栋写于 3 月 1 日的一篇分析 AlphaGo 的文章。田渊栋是卡耐基梅隆大学机器人系博士。曾就职于 Google X 部门,目前是 Facebook 的智能围棋 darkforest 的负责人和第一作者。
最近我仔细看了下AlphaGo在《自然》杂志上发表的文章,写一些分析给大家分享。
AlphaGo这个系统主要由几个部分组成:
走棋网络(Policy Network),给定当前局面,预测/采样下一步的走棋。
快速走子(Fast rollout),目标和1一样,但在适当牺牲走棋质量的条件下,速度要比1快1000倍。
估值网络(Value Network),给定当前局面,估计是白胜还是黑胜。
蒙特卡罗树搜索(Monte Carlo Tree Search,MCTS),把以上这三个部分连起来,形成一个完整的系统。
我们的DarkForest和AlphaGo同样是用4搭建的系统。DarkForest较AlphaGo而言,在训练时加强了1,而少了2和3,然后以开源软件Pachi的缺省策略 (default policy)部分替代了2的功能。以下介绍下各部分。
1.走棋网络:
走棋网络把当前局面作为输入,预测/采样下一步的走棋。它的预测不只给出最强的一手,而是对棋盘上所有可能的下一着给一个分数。棋盘上有361个点,它就给出361个数,好招的分数比坏招要高。DarkForest在这部分有创新,通过在训练时预测三步而非一步,提高了策略输出的质量,和他们在使用增强学习进行自我对局后得到的走棋网络(RL network)的效果相当。当然,他们并没有在最后的系统中使用增强学习后的网络,而是用了直接通过训练学习到的网络(SL network),理由是RL network输出的走棋缺乏变化,对搜索不利。
有意思的是在AlphaGo为了速度上的考虑,只用了宽度为192的网络,而并没有使用最好的宽度为384的网络(见图2(a)),所以要是GPU更快一点(或者更多一点),AlphaGo肯定是会变得更强的。
所谓的0.1秒走一步,就是纯粹用这样的网络,下出有最高置信度的合法着法。这种做法一点也没有做搜索,但是大局观非常强,不会陷入局部战斗中,说它建模了“棋感”一点也没有错。我们把DarkForest的走棋网络直接放上KGS就有3d的水平,让所有人都惊叹了下。可以说,这一波围棋AI的突破,主要得益于走棋网络的突破。这个在以前是不可想像的,以前用的是基于规则,或者基于局部形状再加上简单线性分类器训练的走子生成法,需要慢慢调参数年,才有进步。
当然,只用走棋网络问题也很多,就我们在DarkForest上看到的来说,会不顾大小无谓争劫,会无谓脱先,不顾局部死活,对杀出错,等等。有点像高手不经认真思考的随手棋。因为走棋网络没有价值判断功能,只是凭“直觉”在下棋,只有在加了搜索之后,电脑才有价值判断的能力。
2. 快速走子
那有了走棋网络,为什么还要做快速走子呢?有两个原因,首先走棋网络的运行速度是比较慢的,AlphaGo说是3毫秒,我们这里也差不多,而快速走子能做到几微秒级别,差了1000倍。所以在走棋网络没有返回的时候让CPU不闲着先搜索起来是很重要的,等到网络返回更好的着法后,再更新对应的着法信息。
其次,快速走子可以用来评估盘面。由于天文数字般的可能局面数,围棋的搜索是毫无希望走到底的,搜索到一定程度就要对现有局面做个估分。在没有估值网络的时候,不像国象可以通过算棋子的分数来对盘面做比较精确的估值,围棋盘面的估计得要通过模拟走子来进行,从当前盘面一路走到底,不考虑岔路地算出胜负,然后把胜负值作为当前盘面价值的一个估计。这里有个需要权衡的地方:在同等时间下,模拟走子的质量高,单次估值精度高但走子速度慢;模拟走子速度快乃至使用随机走子,虽然单次估值精度低,但可以多模拟几次算平均值,效果未必不好。所以说,如果有一个质量高又速度快的走子策略,那对于棋力的提高是非常有帮助的。
为了达到这个目标,神经网络的模型就显得太慢,还是要用传统的局部特征匹配(local pattern matching)加线性回归(logistic regression)的方法,这办法虽然不新但非常好使,几乎所有的广告推荐,竞价排名,新闻排序,都是用的它。与更为传统的基于规则的方案相比,它在吸纳了众多高手对局之后就具备了用梯度下降法自动调参的能力,所以性能提高起来会更快更省心。AlphaGo用这个办法达到了2微秒的走子速度和24.2%的走子准确率。24.2%的意思是说它的最好预测和围棋高手的下子有0.242的概率是重合的,相比之下,走棋网络在GPU上用2毫秒能达到57%的准确率。这里,我们就看到了走子速度和精度的权衡。
和训练深度学习模型不同,快速走子用到了局部特征匹配,自然需要一些围棋的领域知识来选择局部特征。对此AlphaGo只提供了局部特征的数目(见Extended Table 4),而没有说明特征的具体细节。我最近也实验了他们的办法,达到了25.1%的准确率和4-5微秒的走子速度,然而全系统整合下来并没有复现他们的水平。我感觉上24.2%并不能完全概括他们快速走子的棋力,因为只要走错关键的一步,局面判断就完全错误了;而图2(b)更能体现他们快速走子对盘面形势估计的精确度,要能达到他们图2(b)这样的水准,比简单地匹配24.2%要做更多的工作,而他们并未在文章中强调这一点。
在AlphaGo有了快速走子之后,不需要走棋网络和估值网络,不借助任何深度学习和GPU的帮助,不使用增强学习,在单机上就已经达到了3d的水平(见Extended Table 7倒数第二行),这是相当厉害的了。任何使用传统方法在单机上达到这个水平的围棋程序,都需要花费数年的时间。在AlphaGo之前,Aja Huang曾经自己写过非常不错的围棋程序,在这方面相信是有很多的积累的。
3. 估值网络
AlphaGo的估值网络可以说是锦上添花的部分,从Fig 2(b)和Extended Table 7来看,没有它AlphaGo也不会变得太弱,至少还是会在7d-8d的水平。少了估值网络,等级分少了480分,但是少了走棋网络,等级分就会少掉800至1000分。特别有意思的是,如果只用估值网络来评估局面(2177),那其效果还不及只用快速走子(2416),只有将两个合起来才有更大的提高。我的猜测是,估值网络和快速走子对盘面估计是互补的,在棋局一开始时,大家下得比较和气,估值网络会比较重要;但在有复杂的死活或是对杀时,通过快速走子来估计盘面就变得更重要了。考虑到估值网络是整个系统中最难训练的部分(需要三千万局自我对局),我猜测它是最晚做出来并且最有可能能进一步提高的。
关于估值网络训练数据的生成,值得注意的是文章中的附录小字部分。与走棋网络不同,每一盘棋只取一个样本来训练以避免过拟合,不然对同一对局而言输入稍有不同而输出都相同,对训练是非常不利的。这就是为什么需要三千万局,而非三千万个盘面的原因。对于每局自我对局,取样本是很有讲究的,先用SL network保证走棋的多样性,然后随机走子,取盘面,然后用更精确的RL network走到底以得到最正确的胜负估计。当然这样做的效果比用单一网络相比好多少,我不好说。
一个让我吃惊的地方是,他们完全没有做任何局部死活/对杀分析,纯粹是用暴力训练法训练出一个相当不错的估值网络。这在一定程度上说明深度卷积网络(DCNN)有自动将问题分解成子问题,并分别解决的能力。
另外,我猜测他们在取训练样本时,判定最终胜负用的是中国规则。所以说三月和李世石对局的时候也要求用中国规则,不然如果换成别的规则,就需要重新训练估值网络(虽然我估计结果差距不会太大)。至于为什么一开始就用的中国规则,我的猜测是编程非常方便(我在写DarkForest的时候也是这样觉得的)。
4. 蒙特卡罗树搜索
这部分基本用的是传统方法,没有太多可以评论的,他们用的是带先验的UCT,即先考虑DCNN认为比较好的着法,然后等到每个着法探索次数多了,选择更相信探索得来的胜率值。而DarkForest则直接选了DCNN推荐的前3或是前5的着法进行搜索。我初步试验下来效果差不多,当然他们的办法更灵活些,在允许使用大量搜索次数的情况下,他们的办法可以找到一些DCNN认为不好但却对局面至关重要的着法。
一个有趣的地方是在每次搜索到叶子节点时,没有立即展开叶子节点,而是等到访问次数到达一定数目(40)才展开,这样避免产生太多的分支,分散搜索的注意力,也能节省GPU的宝贵资源,同时在展开时,对叶节点的盘面估值会更准确些。除此之外,他们也用了一些技巧,以在搜索一开始时,避免多个线程同时搜索一路变化,这部分我们在DarkForest中也注意到了,并且做了改进。
5. 总结
总的来说,这整篇文章是一个系统性的工作,而不是一两个小点有了突破就能达到的胜利。在成功背后,是作者们,特别是两位第一作者David Silver和Aja Huang,在博士阶段及毕业以后五年以上的积累,非一朝一夕所能完成的。他们能做出AlphaGo并享有现在的荣誉,是实至名归的。
从以上分析也可以看出,与之前的围棋系统相比,AlphaGo较少依赖围棋的领域知识,但还远未达到通用系统的程度。职业棋手可以在看过了寥寥几局之后明白对手的风格并采取相应策略,一位资深游戏玩家也可以在玩一个新游戏几次后很快上手,但到目前为止,人工智能系统要达到人类水平,还是需要大量样本的训练的。可以说,没有千年来众多棋手在围棋上的积累,就没有围棋AI的今天。
在AlphaGo中,增强学习(Reinforcement Learning)所扮演的角色并没有想像中那么大。在理想情况下,我们希望人工智能系统能在对局中动态地适应环境和对手的招式并且找到办法反制之,但是在AlphaGo中增强学习更多地是用于提供更多质量更好的样本,给有监督学习(Supervised Learning)以训练出更好的模型。在这方面增强学习还有很长的路要走。
另外,据他们的文章所言,AlphaGo整个系统在单机上已具有了职业水平,若是谷歌愿意开几万台机器和李世石对决(这对它来说再容易不过了,改个参数就行),相信比赛会非常精彩。
===========================
一些更新。
问题1:“Alphago的MCTS做rollout的时候,除了使用快速走子,还用了搜索树的已有部分,看起来像是AMAF/RAVE反过来:AMAF是把快速走子的信息传导到树的其它无关部分,Alphago是把树的其它无关部分拿来增强快速走子。我怀疑这是不是它棋力比其它DCNN+MCTS强的原因之一。”
这个办法在解死活题的文章中出现过,会在一定程度上提高搜索效率,但是提高多少还不知道。
问题2:“rollout的走法质量变好可能会导致棋力下降。”
这里要分两种情况,tree policy和default policy。在AlphaGo的文章里面已经说过了,tree policy的分布不能太尖,不然在搜索时太过重视一些看起来的好着,可能使得棋力下降。但是除了这种原因,一般来说tree policy变好棋力还是会变强的。
default policy这边,即(半)随机走子到最后然后判分,就很复杂了,质量变好未必对局面能估得更准。default policy需要保证的是每块棋的死活大体正确,不要把死的棋下成活的或者反之,而对大局观的要求反而没有那么高。双方完全可以配合着把每块棋下完,然后转战另一块,而不是说抢在对方前去别处占先手。
[广告]
真诚支持说岳,携手共创辉煌
liulao1220
组别
百姓
级别
在野武将
功绩
0
帖子
47
编号
413061
注册
2011-2-4
#16
发表于 2016-3-24 16:38
资料
短消息
只看该作者
丢我吧!
开始丢楼主了0v0!
预备备......
(๑•̀ㅂ•́)و✧
--把楼主
(╯>д<)╯⁽˙³˙⁾扔出去
(˘•ω•˘)ง⁽˙³˙⁾捡回来
(╯>д<)╯⁽˙³˙⁾扔出去
(˘•ω•˘)ง⁽˙³˙⁾捡回来
(╯>д<)╯⁽˙³˙⁾扔出去
(˘•ω•˘)ง⁽˙³˙⁾捡回来
(╯>д<)╯⁽˙³˙⁾扔出去
(˘•ω•˘)ง捡...
∑(っ°Д°;)っ卧槽不见了!大家找找!楼主呢
╮(╯▽╰)╭算啦!不捡了!反正不值几个钱!
接下来就可以去楼主家里啦>w<
(╯'-')╯(┻━┻(把楼主家的桌子掀了)
┬—┬ノ('-'ノ)(摆好摆好)
(╯°O°)╯(┻━┻(再掀一次)
┬—┬ノ('-'ノ)(摆好摆好)
(╯°Д°)╯(┻━┻(再特么的掀一次)~~
好啦,今天的熊孩子虐楼主时间就到这里啦!大家回去睡觉吧XDDD
好像听到楼主惨叫?
∧__∧
(●ω●)
|つ/(___
/└-(____/
 ̄ ̄ ̄ ̄ ̄ ̄
又被人打了吧,我还是睡觉吧!!
<⌒/ヽ-__
/<_/____/
 ̄ ̄ ̄ ̄ ̄ ̄
楼主快坚强的爬回来吧0w0!
我们还等着继续围着扔呐!
今天也来找楼主吧!
(๑•̀ㅂ•́)و✧
--不能粗心了,要认真找⊙_⊙
(´▽`)ノ好的!
(˘•ω•˘)ง⁽˙³˙⁾是这个么?
╮(╯_╰)╭不是
(╯>д<)╯⁽˙³˙⁾丢了
(˘•ω•˘)ง⁽˙³˙⁾是这个么?
╮(╯_╰)╭也不是
(╯>д<)╯⁽˙³˙⁾扔了
(˘•ω•˘)ง⁽˙³˙⁾是这个么?
⊙_⊙不是……
(╯>д<)╯⁽˙³˙⁾扔出去
(˘•ω•˘)ง⁽˙³˙⁾是这个么?
(≥∇≤)就是这个!
哦……(╯>д<)╯⁽˙³˙
乃刚刚丢了啥⊙_⊙
没什么╮(╯_╰)╭已经扔出去了
∑(っ°Д°;)っ卧槽那个是楼主吧!!!!!!
啊我在复制什么内容!!!
[广告]
真诚支持说岳,携手共创辉煌
投票
交易
悬赏
活动
正在浏览此帖的会员 - 共
1
人在线
轩辕春秋文化论坛
轩辕史话
> 炎黄春秋
> 我思我在
> 法律探讨
> 三国史话
春秋文艺
> 古典小说
> 诗词歌赋
> 现代文艺
> 韦编三绝
> 对联雅座
> 滴翠亭
> 藏经阁
> 双七钟社
> 笑书神侠
> 辕门射虎
> 虎帐点兵
游戏人生
> 同人战棋手游
> 三国戏英杰传
> 三国鼎立
> 轩辕公会
> 三国志12
> 英雄史诗
> 运筹帷幄
> 人间五十年
> 步步为营
> 游行天下
> 游戏贴图
轩辕工作室
> 兴唐传·瓦岗山异闻录
> 豪华曹操传
> 精忠报国岳飞传
> 《精忠报国岳飞传》制作组
> 大一统演义
> 曹操传MOD作品交流
> 东吴霸王传
> 封神英杰传
> 杨家将
> 吕布传
> 三国无双战略版
> 北宋志·赵匡胤传
> 战旗春秋
> 曹操传MOD制作交流
> 金庸群侠传MOD交流
> 风华录
> 设计与修改
怡情岁月
> 影音经典
> 动漫先锋
> 绘画摄影
> 情感轩辕
> 衣食住行
> 体坛动力
> 谈股论金
> 水泊轩辕
参政议政
> 迎宾阁
> 鸿胪寺
> 登闻鼓
> 监造府
当前时区 GMT+8, 现在时间是 2024-12-13 21:59
京ICP备2023018092号
轩辕春秋
2003-2023 www.xycq.org.cn
Powered by
Discuz!
5.0.0
2001-2006
Comsenz Inc.
Processed in 0.013694 second(s), 8 queries , Gzip enabled
TOP
清除 Cookies
-
联系我们
-
轩辕春秋
-
Archiver
-
WAP
控制面板首页
编辑个人资料
积分交易
公众用户组
好友列表
基本概况
论坛排行
主题排行
发帖排行
积分排行
管理团队
管理统计