يمكن الوصول إلى منهج مشروع شطرنج. ai من خلال lms.shatranj.ai
فيما يلي ملخصات موجزة لمواضيع المنهج الدراسي.
يستكشف كيف تطورت محركات الشطرنج الحديثة وكيف يمكن تكييف المحركات مفتوحة المصدر مع المتغيرات التاريخية.
يقدم التعلم المعزز (RL) من خلال حل عالم شبكي صغير عندما تكون القواعد معروفة بالضبط، ثم يوضح سبب تعطل هذا النهج “المعرفة الكاملة” للألعاب الكبيرة مثل الشطرنج.
الانتقال من التخطيط إلى التعلّم: يبدأ الوكيل بدون خريطة ويتعلّم سياسة عن طريق التجربة والخطأ باستخدام التعلّم الكمي المجدول.
يطبّق التعلّم الكمي على لعبة شطرنج صغيرة في نهاية اللعبة ويجعل قاعدة برمجة RL “حقيقية” من خلال فصل دفتر التجارب عن وحدات التعلّم والتدريب.
يقدّم تقريب الدالة لـ RL من خلال استبدال جدول Q بشبكة عصبية (DQN) وتطبيقه على عدة ألعاب لوحية صغيرة.
يبني بيئة قيركات كاملة ثم يتدرج من الطرح العشوائي إلى بحث شجرة مونت كارلو الكامل (MCTS) مع اختيار UCT.
يعمل على ترقية MCTS إلى بحث على غرار AlphaZero من خلال إضافة شبكة عصبية توفر سياسة مسبقة وتقدير قيمة، ثم تتدرب من خلال اللعب الذاتي.
يعمل على ترقية MCTS إلى بحث على غرار AlphaZero من خلال إضافة شبكة عصبية توفر سياسة مسبقة وتقدير قيمة، ثم تتدرب من خلال اللعب الذاتي.
يطبق المدققات التركية ويقارن البحث الكلاسيكي (ألفا-بيتا) مع MCTS باستخدام عداء مطابقة قابل لإعادة الاستخدام وسجلات محاكاة دفعية.