WCSC28のアピール文:三行まとめ

April 5, 2018

WCSC28のアピール文、読むのが大変なのでそれぞれ3行以下に抜粋(+ハード説明一行)。まとめが適切でなかったら修正しますのでご連絡ください。

 

elmo
    三駒型、序盤の学習を厚くしている
    定跡を評価関数と同様にelmo型で作成

    (AWS)m5.24xlargeもしくはc5.18xlargeを予定

 

大合神クジラちゃん
    GPS型のマスタスレーブ+独自の工夫
    探索はやねうら王、評価関数は既存のものに追加学習
    定跡はまふ氏作

    ニコニコ生放送リスナーのパソコン

 

the end of genesis T.N.K.evolution turbo type D
    高速な差分計算を特徴とし三駒関係と同等の NPS を実現する
    ディープラーニング評価関数を搭載。CPUで評価
    KPに相当する特徴量を入力とする全結合ニューラルネットワーク

    Xeon, Intel Corei7

 

読み太
    3駒関係+手番評価(KPPT型)SDT5版に対して追加学習
    elmo.WCSC27に75%の勝率(+R190)
    技巧型のクラスタ並列探索。c4.8xlargeを16台

    Amazon EC2 c4.8xlarge×16+Core i7 6700HQ

 

HoneyWaffle
    公開されている技術を最大限に活用し、最強振り飛車党ソフトを目指す
    定跡や変な評価関数でただ飛車を振るだけでは真の「振り飛車」ではない
    意識して「堅く囲ってから鋭く攻める」ことができるよう、にする。
    AWS EC2インスタンス1台(極力高性能なものを選択)

 

NineDayFever
    強化学習に使用する自己対戦棋譜の初期状態生成のため、自己対戦の勝率に基づいた定跡生成手法を流用。

    定跡生成のため抽出したbookの拡張候補各局面から最低数十局程度の棋譜を生成し、生成された棋譜に基づいてelmo方式による学習。

    勝率に基づいて book 内の各手の採用確率を決定します。
    8コアマスター1+18コアスレーブ8台 E5-2666 v3

 

大将軍
    KPP+KKPT型評価関数(プロの棋譜からの学習+自己の探索結果からの強化学習)
    Xeon E5-2687W v4一台

 

妖怪惑星Qhapaq
    数理解析を駆使したご家庭レベルのPCで行える強化学習や、高速化
    floodgateなどで得られる深い読みの局面を教師局面として利用
    教師データが少ないのでその局面から浅い読みで作られた局面も教師にする

    リモートの予定

 

nozomi
    KPP + KKPTの3駒関係。少ない棋譜からでも学習できるように工夫。
    Stockfishベースの探索。指し手の選択確率を計算し、オーダリングに使用。
    Amazon EC2 m5.24xlarge

 

Apery
    半年前からの変更点は、学習データ生成時の探索深さを8から10に変更した点。
    Depth12はできなかった。
    AWS m5.24xlarge

 

なのは
    手生成では歩、角、飛の不成も生成。
    探索はStockfish使用。定跡部は実戦での出現数および勝率を考慮して手を選択
    評価ベクトルはライブラリ使用予定。詰めルーチン(df-pn)搭載。終盤の強化。
    Ryzen 7 1700

 

おから饅頭
    昨年と同じ。
    Ryzen 7 1700

 

GPS将棋
    利きを管理する高速な将棋盤。実現確率を用いた探索。評価関数の自動学習。
    評価関数は現在,序盤,中盤 1,中盤 2,終盤の 4 種類。
    疎結合並列探索やdf-pn(並列協調)を用いた詰探索
    302コア

 

スーパーうさぴょん2
    探索部はStockFishを参考にしつつ、独自の工夫。
    定跡部だけコードを含めて0ベースで作成。
    Aperyの評価関数

    多種構成

 

習甦
    多層構造を持つ評価関数(駒の価値:盤面全体の駒の利きと持駒および手番から算出する玉の安全度に対応した非線形関数、駒の働き:入玉していない玉と玉以外の2つの駒の位置関係)
    評価パラメータの機械学習方法
    Amazon EC2 c5.9xlarge

 

たこっと
    各種処理が AVX2 命令で実装されていて高速
    Stockfish 風の探索アルゴリズム。オンライン学習ルーチン
    近代的な機械学習の機能を一通り実装。新たなモデルの開発に取り組む
    Corei7 6700K

 

CGP
    1から作成:高 NPS を目指す。Lazy SMP
    非ビットボード型,利き等を保持。手番付き KPP
    SIMD等を活用
    Corei9 7940X

 

柿木将棋
    ほぼ同じソフトを同じハードで参加。ベンチマークになる
    Corei7 3960X EE

 

ひまわり
    Bonanzaメソッドを使用していない(方策勾配を用いた教師有り学習)
    教師付学習後に強化学習
    ほぼ前回大会のプログラム
    Corei7 5960X

 

芝浦将棋Softmax
    確率分布(ボルツマン分布)に基づく選択(MCSoftmax 探索)を使用
    深さ制御とバックアップ操作
    Bonanza評価関数
    Xeon E5-2695 v4

 

まったりゆうちゃん
    4半世紀にわたって開発しているシステム
    進化論的計算などの方式
    ディープラーニングと多量パラメータ学習の中間的なメカニズム
    Corei7

 

名人コブラ
    生粋のライブラリ勢
    評価関数のキメラ化にこだわり(ライブラリ+0からのApery, やねうら王による学習)
    GCP Compute Engine n1-highcpu-96

 

カツ丼将棋
    評価関数 簡易4コマ+手調整
    Stockfish風探索+実現確率(実験中)
    Corei7 X5690

 

Novice
    Stockfish9
    Rotated Bitboard
    Apery KKP.bin (横型)
    Corei5 3470 x 4

 

きのあ将棋
    1手ごと思考エンジンを実行し、次の着手を思考する
    完全独自プログラム
    加算連結する評価処理、乗算連結する評価処理をしたものを抽象化し評価関数を作成。
    評価パラメータにノイズを加味する方法:2の倍数固定値方式
    Corei7

 

Claire
    駒割、3駒関係、ディープラーニング評価関数を使わず、駒の利きのみを使用。
    定跡はfloodgateの棋譜約8万局より抽出。局面の出現数・勝率より指し手を選択
    Stockfish9をベース、飛・角・歩の不成も探索
    開発言語:Rust
    Corei7 6700HQ

 

SilverBullet
    やねうら王、python-shogi(python使用)、dlshogi (DL使用)
    有名ライブラリと狙い撃ちされにくいライブラリを同居させることでアンチ対策
    Corei5 7400

 

こまあそび
    基本アルゴリズムはαβ法。王手、王手回避手、駒をとる手などを延長。
    評価関数は学習は使わず手でチューニングしている。
    Corei7 4700MQ

 

臥龍
    αβ探索、反復深化、トランスポジションテーブル、null move pruning評価関数パラメータ:駒損得、成駒、当たり駒、駒の絶対位置、玉の自由度、各枡の利き、駒の働き、囲い、ピン、手番
    Java使用
    前回から変更なし。
    Corei7 4980HQ

 

dainomaruDNNc
    dlshogiを使用。
    elmo_for_leamにて訓練データ(17.6GB)、テストデータ(2057件)により強化学習を行った。最適化手法をMomentumSGDからRMSpropGravesに変更
    Corei7 7700HQ

 

山田将棋
    クラシカルな構造・アルゴリズム
    手調整した評価値の線形和
    配列による盤駒表現、駒背番号制、利き数、、、
    αβ探索、反復深化、局面が静かでない場合の探索延長、、、
    Xeon E5-2687W v4

 

海底
    現時点で最新のバージョンは SDT5 版に対して9割程度勝つことのできる棋力
    StockFishや強豪ソフトを, 開発者自身の技術力が許す範囲で部分的にとりいれた
    2 駒関係 (KP,PP) を特徴量とする線形評価関数。elmo型学習。
    Corei7 7700K

 

隠岐
    将棋の思考部はワンパターンになりやすく、将棋ソースを作るプログラムを開発してそのプログラムにやらせている。
    Corei7 7700

 

オッズの魔法使い
    モンテカルロ探索、少々アレンジ
    評価関数はボナンザ6
    詰将棋探索使用
    Corei7 5960X

 

Anicca
    Go言語使用。
    定跡を利用しない
    駒割と利き。手動調整
    Atom x5-Z8500

 

なり金将棋
    教師無し学習にて3駒間+2駒間の評価値を学習
    強化学習と遺伝的学習の組み合わせ
    Corei7 3635QM

 

手抜き
    D言語を使用。2コマ評価ベクター(なのはmini)
    αβ法で全幅探索します。持ち時間を管理していません。
    Corei5 2520M

 

きふわらべ
    素朴集合論を用いたN駒定形
    将棋のルールを再定義
    楽観パスを再定義(よくわからん)
    Corei7 N2830

 

十六式いろは改
    学習部:なし
    駒の損得のみ。探索は局地暴走モード。
    Lua言語
    Atom Z3735G

 

762alpha(まとめるのが難しい、、)
    学習を自動化し、コンピュータ将棋プログラム開発への人間の介在を不用にする
    キーワード:局面の場合分け
    終盤局面内の「必要な駒」の抽出
    Corei7-6700, Core i7-8550U

 

YSS Zero
    AlphaZeroの論文を参考に将棋のルールだけを教えて自己対戦でディープラーニング
    学習にはCaffeを使って50万棋譜の中から64局面(Minibatch 64)をランダムに
    特徴はAlphaZeroと同一ですが、手数の情報だけは使っていない。
    Amazon EC2 p3.8xlarge

 

TMOQ
    定跡/戦型にこだわり
    「まふ互角局面」をベースに、①指し手の採用率の変更および②指し手の追加を行い、自分らしい特定の定跡/戦型になるべく教育。
    CUDA というコンピュータ言語で書かれている。
    Corei7 7700HQ

 

悲劇的 with Zero
    ①利きを中心の特徴として、母体は Bonanza 6.0 で学習部に最新のライブラリ(技巧・やねうら王・Apery)という構成のソフトと、②2年前の選手権バージョンに強化学習風の学習で追加学習させたソフトの 2 つのバージョンを作成。何方かで出場。
    前回とはほとんど変更なし。
    Xeon E5-2687W

 

人生送りバント失敗
    前回から変更なし。
    探索はαβ中心で、LMRとかFutilityとかの至って普通の技術を使っている。
    オンライン学習を勉強してみたかったので、平均化パーセプトロンを試している。
    Corei7

 

broaden
    Alpha Zero風の実装
    目標:なるべく小さいネットワークで強くする
    学習にはfloodgateの棋譜3年分を使用。指し手と勝ち負けの結果のみ使用。
    Ryzen 7 1700

 

GA将!!!!!!!!!(ver.9)
    “PGLeaf Zwei”と呼んでいる学習ルーチンを使用
    「勝率の最大化」「評価関数の精度向上」「浅い探索と深い探索の結果の一致率の向上」「オーバーフィッティングの抑制」を目的
    Corei5 6300U

 

ツツカナ
    指し手を読む深さを機械学習によって決定している
    二駒の位置関係や玉の安全度、8つの進行度を駆使したコンパクトで表現力の高い評価関数
    機械学習+ハンドチューニング(探索中に得られる動的な情報)によって構成されたreduction
    Corei9 7980XE

 

ichibinichi
    すべてオリジナル。プログラムは、基本に忠実で、とてもシンプルです。
    Linuxとはなんぞえという興味、そしてJavaの勉強のために参加させていただきま
す。
    Corei5 i5-4300U

 

W@ndre
    角頭歩を指します。角頭歩ができないときは阪田流向飛車を指します。
    3種類の評価関数を作成。(1)特定の形に強制的に減点・加点することで角頭歩局面を評価する評価関数を作成。(2),(3)略
    Corei7 7700HQ

 

Crazy Shogi
    an implementation of the AlphaZero algorithm (as Deep Mind)
    original code developed from scratch, in C++
    neural network code uses the CUDNN library to run on Nvidia GPU
    GPU 8xV100+p3.16xlarge instance on AWS.

 

S.S.E.
    Stockfish 8 をベースに 0 から開発。縦型ビットボード。
    elmo評価関数
    Xeon E5-2609 v3

 

ねね将棋
    AlphaZeroで採用されている Monte-Carlo Tree Searchを実装
    評価関数:Deep Neural Network を深層学習により学習します。GPUを使用。
    Yanuraou+python shogi
    Amazon EC2 p3.8xlarge E5-2686v4

 

ArgoCorse_IcSyo
    評価関数のキメラ(elmo,tanuki-,Apery,Qhapaq)
    「現時点から10手先の局面を評価関数で評価して元局面よりも評価値が高い場合を勝ちとする」という方法でモンテカルロ将棋
    元局面を評価関数で評価して、それよりも評価値が低くなる手は採用しない
    Amazon EC2 m4.16xlarge Xeon(R) E5-2686 v4

 

SMS将棋
    れさぴょん使用。
    探索を序盤は深く、終盤は広くしています。
    評価は手作業で行い、細かく調整しています。
    Celeron

 

Shogi Boy
    自己対戦を繰り返す事によって得られる局面毎のデータから勝つ確率が最も高い手を選択する評価関数の作成をめざしています。
    Corei7 3630QM

 

Girigiri
    探索部の実装がC++からRustに
    駒の損得のみだった評価関数を、機械学習による3駒関係を用いたものに
    静止探索の追加
    Corei5


dlshogi
    ディープラーニングを使用。モンテカルロ木探索。
    自己対局による強化学習。マルチ GPU 対応。CUDA、cuDNN を直接使用。
    elmo1、Aperyを学習データ生成、局面管理、合法手生成のために部分的に使用
    リモートでAWSを使用する可能性あり 7900X

 

PAL
    Deep Learningを使わない。0ベースの評価関数の学習。
    強化学習と敵対的学習のハイブリッド
    高回転並列学習(N連ガチャ)
    Xeon Platinum 8175

 

Windfall
    評価関数:deep neural networkに変更
    仕様:脱ビットボード, 合法手の計算をニューラルネットで実行
    Python, Tensorflow, sonnet, 今回はC++のコードはなし
    Corei5

 

Hefeweizen
    やねうら王の探索部とオリジナルの局面評価関数と分岐先読みクラスタを使用する予定です
    深層学習で作った評価関数や魔改造した技巧2などがあるのですが強さを計測してから使用するか決定
    疎結合なクラスタ構成なのでパーツ交換で対戦ごとに構成を変える可能性もあり
    ノートPC+クラウドの予定(未テスト)

 

Yorkies
    評価関数:KPPT形式の手番ありの3駒関係。elmoメソッドで学習。やねうら王110億局面(depth10)+自作50億局面(depth8)を使用。
    探索部:置換表のキーを256bit化する。
    定跡部:elmo(WCSC27版)をベースに追加する
    Corei7×1 + Google Compute Engine×複数

 

こい将棋
    標準的な反復深化αβ探索+手番付き3駒関係の評価関数の独自コード。
    評価関数,高速化を工夫。
    Xeon E5-2690 v4
 

Please reload

特集記事

以前より、私のツィートや記事にコメントをいただいている、コンピュータ将棋に大変詳しい方(まふさんと名乗られています)が、技巧の定跡の開発を始められました。定跡を作るためのデータとして私がレーティング計測用に作った棋譜ファイルを使っていただいているという縁もあり、新定跡のテストを私が担当することになり...

技巧新定跡(まふ定跡)

December 8, 2016

1/10
Please reload

最新記事

September 30, 2018

Please reload

アーカイブ