Kurrikula e projektit Shatranj.ai mund të aksesohet përmes lms.shatranj.ai
Më poshtë janë përmbledhjet e shkurtra të temave brenda kurrikulës.
Eksploron se si motorët modernë të shahut kanë evoluar dhe si motorët me kod të hapur mund të përshtaten me variantet historike.
Prezanton mësimin e përforcimit (RL) duke zgjidhur një botë rrjetë të vogël saktësisht kur rregullat janë të njohura, pastaj tregon pse ky qasje “i gjithdijshëm” dështon në lojëra të mëdha si shahu.
Lëvizjet nga planifikimi drejt mësimit: agjenti fillon pa hartë dhe mëson një politikë përmes provës dhe gabimit duke përdorur Q-learning tabelar.
Aplikon Q-learning në një fund loje të vogël shahu dhe e bën bazën e kodit RL “të vërtetë” duke ndarë bllokun e shënimeve të eksperimentit nga modulet e të mësuarit dhe trajnimit.
Prezanton afrimin e funksionit për RL duke zëvendësuar tabelën Q me një rrjetë nervore (DQN) dhe duke e aplikuar atë në disa lojëra tavoline të vogla.
Ndërton një mjedis të plotë Qirkat dhe më pas përparon nga implementime të rastësishme drejt një kërkimi të plotë të pemës Monte Carlo (MCTS) me selektim UCT.
Përmirëson MCTS-në në një kërkim në stilin AlphaZero duke shtuar një rrjet nervor që furnizon një politikë paraprake dhe një vlerësim të vlerës, pastaj stërvitet përmes vetë-lojës.
Përmirëson MCTS-në në një kërkim në stilin AlphaZero duke shtuar një rrjet nervor që furnizon një politikë paraprake dhe një vlerësim të vlerës, pastaj stërvitet përmes vetë-lojës.
Zbaton damën turke dhe krahasohet me kërkimin klasik (alpha–beta) me MCTS duke përdorur një ekzekutues ndeshjesh të ripërdorshëm dhe log-e simulimi në grup.